[ 트렌드] [World Model 시리즈 #11] Predictive Coding — 뇌는 '어떻게' 예측하는가?

관리자 Lv.1
03-01 14:23 · 조회 14 · 추천 0

Predictive Coding — 뇌는 '어떻게' 예측하는가?

시리즈 #10에서 뇌가 "예측하고 오류만 전달한다"는 걸 배웠습니다. 이번 글에서는 실제 뉴런이 어떻게 그걸 하는지 — 메커니즘을 파고듭니다.


핵심 질문

"예측은 어떻게 전달하고, 오류가 발생한 것을 어떻게 다시 전달하나?"

답은 피질의 6층 구조에 있습니다.


1. 피질의 6층 구조

뇌의 피질(cortex)은 어디를 잘라도 6개 층으로 되어 있습니다.

─────────────── 뇌 표면 (바깥쪽) ───────────────
│  Layer 1  │  거의 비어있음 (연결 통로)          │
│  Layer 2/3│  ⬆️ 오류를 위로 보내는 뉴런들        │
│  Layer 4  │  📥 아래에서 올라오는 입력 받는 곳    │
│  Layer 5  │  ⬇️ 예측을 아래로 보내는 뉴런들      │
│  Layer 6  │  ⬇️ 피드백 조절하는 뉴런들           │
─────────────── 뇌 안쪽 (백질) ──────────────────

핵심:

  • Layer 5/6 뉴런 → 예측을 아래 영역으로 보냄
  • Layer 2/3 뉴런 → 오류를 위 영역으로 보냄
  • Layer 4 뉴런 → 아래에서 올라온 신호를 받는 곳

즉, 같은 피질 영역 안에서 "예측 담당"과 "오류 담당"이 물리적으로 다른 층에 있습니다.


2. 실제 신호 전달 과정

V2와 V1 사이에서 일어나는 일을 구체적으로 보면:

[V2 영역]
┌──────────────────────────────────────┐
│ Layer 2/3: 오류 뉴런 (Error Unit)      │──→ V4로 오류 전달
│   "V1에서 올라온 오류를 받아서           │
│    처리한 뒤 더 위로 보냄"               │
│                                        │
│ Layer 4: 입력 수신                      │←── V1에서 오류가 들어옴
│                                        │
│ Layer 5/6: 예측 뉴런 (Prediction Unit)  │──→ V1으로 예측 전달
│   "내가 이해한 바로는 이런 그림일 거야"    │
└──────────────────────────────────────┘
         ↑ 오류 올라옴    ↓ 예측 내려감

[V1 영역]
┌──────────────────────────────────────┐
│ Layer 2/3: 오류 뉴런                   │──→ V2 Layer 4로 전달
│   실제 입력 - V2의 예측 = 오류           │
│   "예측이랑 다른 부분만 골라서 위로!"     │
│                                        │
│ Layer 4: 입력 수신                      │←── V2에서 예측이 들어옴
│                                        │
│ Layer 5/6: 예측 뉴런                   │──→ 망막 방향으로
└──────────────────────────────────────┘
         ↑ 망막 신호       ↓ 예측

3. "오류 계산"은 구체적으로 어떻게?

핵심은 억제성 뉴런(inhibitory neuron) 입니다.

뺄셈 회로

                    V2에서 내려온 예측
                         │
                         ▼
              ┌─── 억제성 뉴런 ───┐
              │   (마이너스 역할)    │
              └────────┬──────────┘
                       │ 예측 신호를 "빼줌"
                       ▼
망막 입력 ──→ [V1 오류 뉴런] ──→ 남은 것 = 오류!
              (Layer 2/3)

실제 일어나는 일 — 예측이 맞을 때:

  1. 망막에서 신호가 들어옴: "밝기 80의 세로줄"
  2. V2에서 예측이 내려옴: "밝기 80의 세로줄일 거야"
  3. 억제성 뉴런이 예측을 "빼줌": 80 - 80 = 0
  4. V1 오류 뉴런의 출력: 거의 0 (예측 맞음, 조용)

예측이 틀렸을 때:

  1. 망막에서 신호: "밝기 60의 가로줄"
  2. V2에서 예측: "밝기 80의 세로줄일 거야"
  3. 억제성 뉴런이 빼도 차이가 큼!
  4. V1 오류 뉴런의 출력: 크게 발화 (예측 틀림, 경보!)

즉, 오류 = 실제 입력 - 예측. 이걸 억제성 뉴런이 물리적으로 수행합니다.

운전 비유:

내비게이션(예측): "200m 앞 직진"
실제 도로(입력):  "200m 앞 직진"
차이(오류):       없음 → 뇌 반응 없음, 멍때리며 운전

내비게이션(예측): "200m 앞 직진"  
실제 도로(입력):  "앞에 공사로 막힘!"
차이(오류):       큼! → 뇌 경보, 집중!

4. 예측은 어떻게 "전달"되나?

뉴런 사이의 신호 전달은 시냅스(synapse) 를 통해 일어납니다.

[V2 Layer 5 예측 뉴런]
         │
         │ 축삭 (긴 전선)
         │ 
         ▼
    ───────────
    │ 시냅스  │ → 신경전달물질 방출 (글루타메이트)
    ───────────
         │
         ▼
[V1 Layer 4 수신 뉴런] → [억제성 뉴런] → V1 오류 뉴런에 영향

여기서 중요한 건 연결의 종류입니다:

피드백 연결 (위→아래, 예측 전달)

넓게 퍼지는 연결입니다. V2의 하나의 뉴런이 V1의 넓은 영역에 예측을 보냅니다. 마치 선생님이 교실 전체에 "이번 시험은 이런 범위야"라고 말하는 것.

피드포워드 연결 (아래→위, 오류 전달)

좁고 정확한 연결입니다. V1의 특정 오류 뉴런이 V2의 특정 위치로 오류를 보냅니다. 마치 학생이 "선생님, 3번 문제 답이 다른 것 같아요"라고 정확히 짚어 말하는 것.


5. 학습은 어떻게?

예측이 자꾸 틀리면 어떻게 고칠까? 시냅스 가소성(Synaptic Plasticity) 입니다.

[처음] V2 예측 뉴런 ──약한 연결──→ V1
       "세로줄일 거야" (자신 없음)
       
[오류 반복] 계속 "가로줄"이 실제로 들어옴
       → 오류가 반복적으로 발생
       → 시냅스 강도 조정
       
[학습 후] V2 예측 뉴런 ──강한 연결──→ V1  
       "가로줄일 거야" (자신 있음)
       → 이제 오류가 줄어듦!

수식으로 쓰면:

시냅스 변화량 = 학습률 × 오류 × 입력

오류가 크면 → 시냅스가 크게 바뀜 (많이 배움)
오류가 0이면 → 시냅스 안 바뀜 (더 배울 게 없음)

6. 딥러닝의 역전파와 비교

이건 딥러닝의 역전파(backpropagation) 와 놀라울 정도로 비슷합니다. 하지만 결정적 차이가 있습니다:

항목 역전파 (딥러닝) Predictive Coding (뇌)
오류 전달 방향 위→아래 (역방향) 아래→위 (순방향)
별도 역전파 경로 필요 불필요 (이미 있는 연결 사용)
학습 시점 순전파 끝난 후 실시간 (동시에)
생물학적 타당성 낮음 높음

뇌는 역전파를 안 합니다. 대신 Predictive Coding 방식으로 — 각 층이 실시간으로 동시에 예측하고 오류를 계산하고 학습합니다. 이게 AI 연구자들이 Predictive Coding에 주목하는 이유 중 하나입니다.


정리: "어떻게"의 전체 흐름

① V2 Layer 5 뉴런이 예측 생성
        │
② 축삭을 통해 V1으로 전달 (시냅스, 글루타메이트)
        │
③ V1의 억제성 뉴런이 예측을 "뺌"
        │
④ V1 Layer 2/3 오류 뉴런 = 실제 - 예측
        │
⑤ 오류가 크면 → V2 Layer 4로 전달
        │
⑥ V2가 오류를 받고 시냅스 강도 조정 (학습)
        │
⑦ 다음번에는 더 정확한 예측 생성 → ①로 돌아감

이 과정이 V1-V2, V2-V4, V4-IT... 모든 인접한 층 사이에서 동시에 일어납니다. 그래서 뇌가 수십 밀리초 만에 복잡한 장면을 인식할 수 있는 겁니다.


다음 글에서는 이 메커니즘을 뇌 전체로 확장한 Free Energy Principle (Friston, 2010) 을 다룹니다. 예측 오류 최소화가 지각뿐 아니라 행동, 감정, 의사결정까지 설명하는 통일 이론이 됩니다.

💬 0 로그인 후 댓글 작성
첫 댓글을 남겨보세요!