View
🎯 XOR 문제를 해결하지 못한 모델 → 퍼셉트론 (Perceptron)의 한계 & AI 암흑기
🔥 정답: 단층 퍼셉트론(Single-Layer Perceptron)이 XOR 문제를 해결하지 못해서 AI 연구가 한동안 정체되었어!
👉 이로 인해 1970~1980년대 초반까지 AI 발전이 멈추면서 "AI의 암흑기(AI Winter)"가 발생했어.
✅ 1️⃣ 단층 퍼셉트론(Single-Layer Perceptron)이란?
💡 **퍼셉트론(Perceptron)**은 1958년 Frank Rosenblatt가 개발한 초기 인공지능 모델이야.
✔ 기본적인 인공 뉴런 개념을 도입해서, 간단한 분류(Classification) 문제를 해결할 수 있었음.
✔ AND, OR 같은 선형적으로 구분 가능한 문제는 해결 가능!
✔ 하지만, XOR 같은 비선형 문제는 해결 불가능했음!
✅ 2️⃣ XOR 문제란? (Perceptron의 한계)
💡 XOR(배타적 논리합, Exclusive OR)
- 입력값이 다를 때(0,1 또는 1,0) 출력이 1이 되는 논리 회로
- BUT! 단층 퍼셉트론으로는 해결할 수 없음.
입력 x1,x2x_1, x_2 | 출력 yy |
(0, 0) | 0 |
(0, 1) | 1 |
(1, 0) | 1 |
(1, 1) | 0 |
👉 문제: XOR은 선형적으로 구분할 수 없는 문제임!
👉 단층 퍼셉트론은 선형 분류만 가능하기 때문에, XOR 문제를 해결할 수 없음.
✅ 3️⃣ 퍼셉트론의 실패 → AI 암흑기(AI Winter) 발생 (1970~1980년대 초반)
🔥 Minsky & Papert (1969년) "Perceptrons" 논문 발표
- "단층 퍼셉트론은 XOR 같은 비선형 문제를 해결할 수 없다."
- "따라서, 퍼셉트론으로는 AI를 발전시킬 수 없다."
- 💥 이 논문이 발표된 후, AI 연구가 한동안 멈추면서 'AI의 겨울(AI Winter)'이 찾아옴!
👉 연구자들이 **"AI는 불가능하다"**라고 생각하면서, AI 연구가 중단됨.
👉 1970년대~1980년대 초반까지 AI 발전이 거의 정체됨.
✅ 4️⃣ 다층 퍼셉트론(MLP) & 역전파(Backpropagation) 등장 → AI 부활 (1986년)
🔥 1986년, Geoffrey Hinton이 "역전파 알고리즘(Backpropagation)"을 개발하면서 AI가 다시 부활함!
✔ 다층 퍼셉트론(MLP, Multi-Layer Perceptron)이 등장
✔ XOR 문제 해결 가능 (은닉층이 추가되면서 비선형 문제 해결 가능)
✔ AI 연구가 다시 활발해지고, DNN(Deep Neural Network)으로 발전
💡 즉, AI는 XOR 문제를 해결할 수 있는 방법을 찾으면서 다시 살아난 거야!
✅ 정리: XOR 문제 & AI 발전 과정
연도 | 주요 사건 | 결과 |
1958년 | 단층 퍼셉트론(Perceptron) 등장 | 간단한 선형 분류 가능 (AND, OR 문제 해결) |
1969년 | XOR 문제 해결 불가능 → AI 암흑기 | Minsky & Papert 논문으로 AI 연구 중단 |
1986년 | 다층 퍼셉트론(MLP) + 역전파(Backpropagation) 등장 | XOR 문제 해결, AI 연구 부활 |
1990년대 이후 | DNN, CNN, RNN 등 다양한 신경망 발전 | AI가 본격적으로 성장 |
💡 결론:
🔥 "XOR 문제를 해결하지 못한 단층 퍼셉트론 때문에 AI가 멈췄지만, 역전파 알고리즘 덕분에 다시 부활했다!" 🚀
🎯 DNN → RNN → LSTM → Transformer(GPT) 발전 과정
🔥 딥러닝 신경망의 역사!
👉 AI는 어떻게 발전했을까?
👉 DNN(심층신경망)에서 시작해서, RNN(순환신경망), LSTM, Transformer(GPT)까지 온 과정!
이제 DNN → RNN → LSTM → Transformer로 발전한 과정을 설명해줄게! 🚀
✅ 1️⃣ DNN (Deep Neural Network) → 가장 기본적인 신경망 (1980~1990년대)
💡 DNN(심층신경망)이란?
✔ 다층 퍼셉트론(MLP, Multi-Layer Perceptron)의 발전형
✔ 여러 개의 은닉층(Hidden Layer)으로 이루어진 신경망
✔ 이미지 분류, 기본적인 패턴 인식에 사용됨
👉 한계:
❌ 시간 순서(시계열 데이터) 처리가 불가능
❌ "기억" 기능이 없어서 이전 데이터를 활용하는 게 어려움
❌ 텍스트, 음성, 영상 같은 시퀀스 데이터 처리 불가능
💡 그래서, RNN(순환신경망)이 등장하게 됨!
✅ 2️⃣ RNN (Recurrent Neural Network) → 시간 순서(시퀀스 데이터) 처리 가능 (1980~1990년대 후반)
💡 RNN이란?
✔ 순환(Recurrent) 구조를 가지고 있어서, 이전 데이터를 기억하면서 학습 가능
✔ 텍스트, 음성, 주가 예측 등 시간에 따라 변화하는 데이터(시계열 데이터) 처리 가능
✔ LSTM, GRU 같은 발전된 모델의 기초가 됨
👉 한계:
❌ 기울기 소실 문제 (Vanishing Gradient) → 학습이 어려움
❌ 문장이 길어질수록 앞의 내용을 잊어버림 (Long-term Dependency 문제)
❌ 병렬 연산이 불가능해서 학습 속도가 느림
💡 그래서, RNN을 개선한 LSTM과 GRU가 등장함!
✅ 3️⃣ LSTM & GRU → RNN의 한계를 극복 (1997년~2000년대 초반)
💡 LSTM (Long Short-Term Memory)
✔ RNN의 장기 기억력 문제 해결
✔ "셀 상태(Cell State)"와 "게이트(Gate)" 구조를 추가해서 중요한 정보는 유지하고, 필요 없는 정보는 제거
💡 GRU (Gated Recurrent Unit)
✔ LSTM보다 가벼운 구조 → 계산량이 적고 더 빠름
✔ RNN과 LSTM의 중간 형태
👉 한계:
❌ 여전히 병렬 연산이 어렵고, 긴 문장을 학습하는 데 한계가 있음
💡 그래서, 완전히 새로운 방식인 Transformer가 등장함!
✅ 4️⃣ Transformer → RNN을 완전히 대체한 모델 (2017년, Google이 개발)
💡 Transformer가 혁신적인 이유?
✔ Self-Attention 메커니즘을 사용하여 긴 문장도 정확하게 학습 가능
✔ 병렬 연산 가능 → RNN보다 훨씬 빠름!
✔ GPT, BERT 같은 최신 AI 모델들이 모두 Transformer 기반
👉 한계:
❌ 대규모 데이터가 필요하고, 학습에 많은 계산 비용이 듦
❌ 과적합(Overfitting) 문제 발생 가능
💡 하지만, 지금까지 나온 딥러닝 모델 중 가장 강력한 성능을 보이고 있음! 🚀
🎯 정리: DNN → RNN → LSTM → Transformer 발전 과정!
시대 | 모델 | 특징 | 한계 |
1980~1990년대 | DNN (Deep Neural Network) | 기본적인 인공지능 신경망 | 시퀀스 데이터 처리 불가능 |
1990~2000년대 | RNN (Recurrent Neural Network) | 순환 구조를 통해 시간 순서 데이터 처리 가능 | 기울기 소실 문제, 긴 문장 학습 어려움 |
2000~2010년대 | LSTM & GRU | RNN보다 더 긴 문장 학습 가능 | 병렬 연산 불가능 |
2017년 이후 | Transformer (GPT, BERT) | Self-Attention 사용, 병렬 연산 가능, 긴 문장 학습 가능 | 연산 비용이 큼 |
💡 결론:
🔥 Transformer가 RNN을 완전히 대체하면서, 지금 우리가 쓰는 ChatGPT 같은 모델이 등장한 거야! 🚀
규러큐나
'TIL' 카테고리의 다른 글
내일배움캠프 본캠프 48일차 (0) | 2025.02.06 |
---|---|
내일배움캠프 본캠프 47일차 (0) | 2025.02.05 |
내일배움캠프 9주차 WIL (0) | 2025.01.31 |
내일배움캠프 본캠프 45일차 - 설날 끝 (0) | 2025.01.31 |
내일배움캠프 8주차 WIL (0) | 2025.01.24 |