[ 트렌드] [World Model 시리즈 #11] Predictive Coding — 뇌는 '어떻게' 예측하는가?
Predictive Coding — 뇌는 '어떻게' 예측하는가?
시리즈 #10에서 뇌가 "예측하고 오류만 전달한다"는 걸 배웠습니다. 이번 글에서는 실제 뉴런이 어떻게 그걸 하는지 — 메커니즘을 파고듭니다.
핵심 질문
"예측은 어떻게 전달하고, 오류가 발생한 것을 어떻게 다시 전달하나?"
답은 피질의 6층 구조에 있습니다.
1. 피질의 6층 구조
뇌의 피질(cortex)은 어디를 잘라도 6개 층으로 되어 있습니다.
─────────────── 뇌 표면 (바깥쪽) ───────────────
│ Layer 1 │ 거의 비어있음 (연결 통로) │
│ Layer 2/3│ ⬆️ 오류를 위로 보내는 뉴런들 │
│ Layer 4 │ 📥 아래에서 올라오는 입력 받는 곳 │
│ Layer 5 │ ⬇️ 예측을 아래로 보내는 뉴런들 │
│ Layer 6 │ ⬇️ 피드백 조절하는 뉴런들 │
─────────────── 뇌 안쪽 (백질) ──────────────────
핵심:
- Layer 5/6 뉴런 → 예측을 아래 영역으로 보냄
- Layer 2/3 뉴런 → 오류를 위 영역으로 보냄
- Layer 4 뉴런 → 아래에서 올라온 신호를 받는 곳
즉, 같은 피질 영역 안에서 "예측 담당"과 "오류 담당"이 물리적으로 다른 층에 있습니다.
2. 실제 신호 전달 과정
V2와 V1 사이에서 일어나는 일을 구체적으로 보면:
[V2 영역]
┌──────────────────────────────────────┐
│ Layer 2/3: 오류 뉴런 (Error Unit) │──→ V4로 오류 전달
│ "V1에서 올라온 오류를 받아서 │
│ 처리한 뒤 더 위로 보냄" │
│ │
│ Layer 4: 입력 수신 │←── V1에서 오류가 들어옴
│ │
│ Layer 5/6: 예측 뉴런 (Prediction Unit) │──→ V1으로 예측 전달
│ "내가 이해한 바로는 이런 그림일 거야" │
└──────────────────────────────────────┘
↑ 오류 올라옴 ↓ 예측 내려감
[V1 영역]
┌──────────────────────────────────────┐
│ Layer 2/3: 오류 뉴런 │──→ V2 Layer 4로 전달
│ 실제 입력 - V2의 예측 = 오류 │
│ "예측이랑 다른 부분만 골라서 위로!" │
│ │
│ Layer 4: 입력 수신 │←── V2에서 예측이 들어옴
│ │
│ Layer 5/6: 예측 뉴런 │──→ 망막 방향으로
└──────────────────────────────────────┘
↑ 망막 신호 ↓ 예측
3. "오류 계산"은 구체적으로 어떻게?
핵심은 억제성 뉴런(inhibitory neuron) 입니다.
뺄셈 회로
V2에서 내려온 예측
│
▼
┌─── 억제성 뉴런 ───┐
│ (마이너스 역할) │
└────────┬──────────┘
│ 예측 신호를 "빼줌"
▼
망막 입력 ──→ [V1 오류 뉴런] ──→ 남은 것 = 오류!
(Layer 2/3)
실제 일어나는 일 — 예측이 맞을 때:
- 망막에서 신호가 들어옴: "밝기 80의 세로줄"
- V2에서 예측이 내려옴: "밝기 80의 세로줄일 거야"
- 억제성 뉴런이 예측을 "빼줌": 80 - 80 = 0
- V1 오류 뉴런의 출력: 거의 0 (예측 맞음, 조용)
예측이 틀렸을 때:
- 망막에서 신호: "밝기 60의 가로줄"
- V2에서 예측: "밝기 80의 세로줄일 거야"
- 억제성 뉴런이 빼도 차이가 큼!
- V1 오류 뉴런의 출력: 크게 발화 (예측 틀림, 경보!)
즉, 오류 = 실제 입력 - 예측. 이걸 억제성 뉴런이 물리적으로 수행합니다.
운전 비유:
내비게이션(예측): "200m 앞 직진"
실제 도로(입력): "200m 앞 직진"
차이(오류): 없음 → 뇌 반응 없음, 멍때리며 운전
내비게이션(예측): "200m 앞 직진"
실제 도로(입력): "앞에 공사로 막힘!"
차이(오류): 큼! → 뇌 경보, 집중!
4. 예측은 어떻게 "전달"되나?
뉴런 사이의 신호 전달은 시냅스(synapse) 를 통해 일어납니다.
[V2 Layer 5 예측 뉴런]
│
│ 축삭 (긴 전선)
│
▼
───────────
│ 시냅스 │ → 신경전달물질 방출 (글루타메이트)
───────────
│
▼
[V1 Layer 4 수신 뉴런] → [억제성 뉴런] → V1 오류 뉴런에 영향
여기서 중요한 건 연결의 종류입니다:
피드백 연결 (위→아래, 예측 전달)
넓게 퍼지는 연결입니다. V2의 하나의 뉴런이 V1의 넓은 영역에 예측을 보냅니다. 마치 선생님이 교실 전체에 "이번 시험은 이런 범위야"라고 말하는 것.
피드포워드 연결 (아래→위, 오류 전달)
좁고 정확한 연결입니다. V1의 특정 오류 뉴런이 V2의 특정 위치로 오류를 보냅니다. 마치 학생이 "선생님, 3번 문제 답이 다른 것 같아요"라고 정확히 짚어 말하는 것.
5. 학습은 어떻게?
예측이 자꾸 틀리면 어떻게 고칠까? 시냅스 가소성(Synaptic Plasticity) 입니다.
[처음] V2 예측 뉴런 ──약한 연결──→ V1
"세로줄일 거야" (자신 없음)
[오류 반복] 계속 "가로줄"이 실제로 들어옴
→ 오류가 반복적으로 발생
→ 시냅스 강도 조정
[학습 후] V2 예측 뉴런 ──강한 연결──→ V1
"가로줄일 거야" (자신 있음)
→ 이제 오류가 줄어듦!
수식으로 쓰면:
시냅스 변화량 = 학습률 × 오류 × 입력
오류가 크면 → 시냅스가 크게 바뀜 (많이 배움)
오류가 0이면 → 시냅스 안 바뀜 (더 배울 게 없음)
6. 딥러닝의 역전파와 비교
이건 딥러닝의 역전파(backpropagation) 와 놀라울 정도로 비슷합니다. 하지만 결정적 차이가 있습니다:
| 항목 | 역전파 (딥러닝) | Predictive Coding (뇌) |
|---|---|---|
| 오류 전달 방향 | 위→아래 (역방향) | 아래→위 (순방향) |
| 별도 역전파 경로 | 필요 | 불필요 (이미 있는 연결 사용) |
| 학습 시점 | 순전파 끝난 후 | 실시간 (동시에) |
| 생물학적 타당성 | 낮음 | 높음 |
뇌는 역전파를 안 합니다. 대신 Predictive Coding 방식으로 — 각 층이 실시간으로 동시에 예측하고 오류를 계산하고 학습합니다. 이게 AI 연구자들이 Predictive Coding에 주목하는 이유 중 하나입니다.
정리: "어떻게"의 전체 흐름
① V2 Layer 5 뉴런이 예측 생성
│
② 축삭을 통해 V1으로 전달 (시냅스, 글루타메이트)
│
③ V1의 억제성 뉴런이 예측을 "뺌"
│
④ V1 Layer 2/3 오류 뉴런 = 실제 - 예측
│
⑤ 오류가 크면 → V2 Layer 4로 전달
│
⑥ V2가 오류를 받고 시냅스 강도 조정 (학습)
│
⑦ 다음번에는 더 정확한 예측 생성 → ①로 돌아감
이 과정이 V1-V2, V2-V4, V4-IT... 모든 인접한 층 사이에서 동시에 일어납니다. 그래서 뇌가 수십 밀리초 만에 복잡한 장면을 인식할 수 있는 겁니다.
다음 글에서는 이 메커니즘을 뇌 전체로 확장한 Free Energy Principle (Friston, 2010) 을 다룹니다. 예측 오류 최소화가 지각뿐 아니라 행동, 감정, 의사결정까지 설명하는 통일 이론이 됩니다.