View

내일배움캠프 본캠프 46일차

수현조 2025. 2. 4. 20:48

🎯 XOR 문제를 해결하지 못한 모델 → 퍼셉트론 (Perceptron)의 한계 & AI 암흑기

🔥 정답: 단층 퍼셉트론(Single-Layer Perceptron)이 XOR 문제를 해결하지 못해서 AI 연구가 한동안 정체되었어!
👉 이로 인해 1970~1980년대 초반까지 AI 발전이 멈추면서 "AI의 암흑기(AI Winter)"가 발생했어.


1️⃣ 단층 퍼셉트론(Single-Layer Perceptron)이란?

💡 **퍼셉트론(Perceptron)**은 1958년 Frank Rosenblatt가 개발한 초기 인공지능 모델이야.
✔ 기본적인 인공 뉴런 개념을 도입해서, 간단한 분류(Classification) 문제를 해결할 수 있었음.
AND, OR 같은 선형적으로 구분 가능한 문제는 해결 가능!
✔ 하지만, XOR 같은 비선형 문제는 해결 불가능했음!


2️⃣ XOR 문제란? (Perceptron의 한계)

💡 XOR(배타적 논리합, Exclusive OR)

  • 입력값이 다를 때(0,1 또는 1,0) 출력이 1이 되는 논리 회로
  • BUT! 단층 퍼셉트론으로는 해결할 수 없음.
입력 x1,x2x_1, x_2  출력 yy
(0, 0) 0
(0, 1) 1
(1, 0) 1
(1, 1) 0

👉 문제: XOR은 선형적으로 구분할 수 없는 문제임!
👉 단층 퍼셉트론은 선형 분류만 가능하기 때문에, XOR 문제를 해결할 수 없음.


3️⃣ 퍼셉트론의 실패 → AI 암흑기(AI Winter) 발생 (1970~1980년대 초반)

🔥 Minsky & Papert (1969년) "Perceptrons" 논문 발표

  • "단층 퍼셉트론은 XOR 같은 비선형 문제를 해결할 수 없다."
  • "따라서, 퍼셉트론으로는 AI를 발전시킬 수 없다."
  • 💥 이 논문이 발표된 후, AI 연구가 한동안 멈추면서 'AI의 겨울(AI Winter)'이 찾아옴!

👉 연구자들이 **"AI는 불가능하다"**라고 생각하면서, AI 연구가 중단됨.
👉 1970년대~1980년대 초반까지 AI 발전이 거의 정체됨.


4️⃣ 다층 퍼셉트론(MLP) & 역전파(Backpropagation) 등장 → AI 부활 (1986년)

🔥 1986년, Geoffrey Hinton이 "역전파 알고리즘(Backpropagation)"을 개발하면서 AI가 다시 부활함!
✔ 다층 퍼셉트론(MLP, Multi-Layer Perceptron)이 등장
✔ XOR 문제 해결 가능 (은닉층이 추가되면서 비선형 문제 해결 가능)
✔ AI 연구가 다시 활발해지고, DNN(Deep Neural Network)으로 발전

💡 즉, AI는 XOR 문제를 해결할 수 있는 방법을 찾으면서 다시 살아난 거야!


정리: XOR 문제 & AI 발전 과정

연도 주요 사건 결과
1958년 단층 퍼셉트론(Perceptron) 등장 간단한 선형 분류 가능 (AND, OR 문제 해결)
1969년 XOR 문제 해결 불가능 → AI 암흑기 Minsky & Papert 논문으로 AI 연구 중단
1986년 다층 퍼셉트론(MLP) + 역전파(Backpropagation) 등장 XOR 문제 해결, AI 연구 부활
1990년대 이후 DNN, CNN, RNN 등 다양한 신경망 발전 AI가 본격적으로 성장

💡 결론:
🔥 "XOR 문제를 해결하지 못한 단층 퍼셉트론 때문에 AI가 멈췄지만, 역전파 알고리즘 덕분에 다시 부활했다!" 🚀


🎯 DNN → RNN → LSTM → Transformer(GPT) 발전 과정

🔥 딥러닝 신경망의 역사!
👉 AI는 어떻게 발전했을까?
👉 DNN(심층신경망)에서 시작해서, RNN(순환신경망), LSTM, Transformer(GPT)까지 온 과정!

이제 DNN → RNN → LSTM → Transformer로 발전한 과정을 설명해줄게! 🚀


1️⃣ DNN (Deep Neural Network) → 가장 기본적인 신경망 (1980~1990년대)

💡 DNN(심층신경망)이란?
✔ 다층 퍼셉트론(MLP, Multi-Layer Perceptron)의 발전형
✔ 여러 개의 은닉층(Hidden Layer)으로 이루어진 신경망
이미지 분류, 기본적인 패턴 인식에 사용됨

👉 한계:
❌ 시간 순서(시계열 데이터) 처리가 불가능
❌ "기억" 기능이 없어서 이전 데이터를 활용하는 게 어려움
❌ 텍스트, 음성, 영상 같은 시퀀스 데이터 처리 불가능

💡 그래서, RNN(순환신경망)이 등장하게 됨!


2️⃣ RNN (Recurrent Neural Network) → 시간 순서(시퀀스 데이터) 처리 가능 (1980~1990년대 후반)

💡 RNN이란?
순환(Recurrent) 구조를 가지고 있어서, 이전 데이터를 기억하면서 학습 가능
✔ 텍스트, 음성, 주가 예측 등 시간에 따라 변화하는 데이터(시계열 데이터) 처리 가능
LSTM, GRU 같은 발전된 모델의 기초가 됨

👉 한계:
❌ 기울기 소실 문제 (Vanishing Gradient) → 학습이 어려움
❌ 문장이 길어질수록 앞의 내용을 잊어버림 (Long-term Dependency 문제)
❌ 병렬 연산이 불가능해서 학습 속도가 느림

💡 그래서, RNN을 개선한 LSTM과 GRU가 등장함!


3️⃣ LSTM & GRU → RNN의 한계를 극복 (1997년~2000년대 초반)

💡 LSTM (Long Short-Term Memory)
✔ RNN의 장기 기억력 문제 해결
✔ "셀 상태(Cell State)"와 "게이트(Gate)" 구조를 추가해서 중요한 정보는 유지하고, 필요 없는 정보는 제거

💡 GRU (Gated Recurrent Unit)
✔ LSTM보다 가벼운 구조 → 계산량이 적고 더 빠름
✔ RNN과 LSTM의 중간 형태

👉 한계:
❌ 여전히 병렬 연산이 어렵고, 긴 문장을 학습하는 데 한계가 있음

💡 그래서, 완전히 새로운 방식인 Transformer가 등장함!


4️⃣ Transformer → RNN을 완전히 대체한 모델 (2017년, Google이 개발)

💡 Transformer가 혁신적인 이유?
Self-Attention 메커니즘을 사용하여 긴 문장도 정확하게 학습 가능
병렬 연산 가능 → RNN보다 훨씬 빠름!
GPT, BERT 같은 최신 AI 모델들이 모두 Transformer 기반

👉 한계:
❌ 대규모 데이터가 필요하고, 학습에 많은 계산 비용이 듦
❌ 과적합(Overfitting) 문제 발생 가능

💡 하지만, 지금까지 나온 딥러닝 모델 중 가장 강력한 성능을 보이고 있음! 🚀


🎯 정리: DNN → RNN → LSTM → Transformer 발전 과정!

시대 모델 특징 한계
1980~1990년대 DNN (Deep Neural Network) 기본적인 인공지능 신경망 시퀀스 데이터 처리 불가능
1990~2000년대 RNN (Recurrent Neural Network) 순환 구조를 통해 시간 순서 데이터 처리 가능 기울기 소실 문제, 긴 문장 학습 어려움
2000~2010년대 LSTM & GRU RNN보다 더 긴 문장 학습 가능 병렬 연산 불가능
2017년 이후 Transformer (GPT, BERT) Self-Attention 사용, 병렬 연산 가능, 긴 문장 학습 가능 연산 비용이 큼

💡 결론:
🔥 Transformer가 RNN을 완전히 대체하면서, 지금 우리가 쓰는 ChatGPT 같은 모델이 등장한 거야! 🚀

규러큐나

'TIL' 카테고리의 다른 글

내일배움캠프 본캠프 48일차  (0) 2025.02.06
내일배움캠프 본캠프 47일차  (0) 2025.02.05
내일배움캠프 9주차 WIL  (0) 2025.01.31
내일배움캠프 본캠프 45일차 - 설날 끝  (0) 2025.01.31
내일배움캠프 8주차 WIL  (0) 2025.01.24
Share Link
reply
«   2025/02   »
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28