[ 트렌드] 🤖 [AI뉴스] 인간과 LLM이 서로를 동질화하는 피드백 루프 (4/4)
3편에서 LLM의 동질성이 사실 인간 데이터의 반영이라는 얘기를 했다.
그러면 "원래 그랬던 거면 뭐가 문제야?"라는 질문이 당연히 나온다.
여기서부터가 핵심이다.
호수 비유
인간 사고의 동질성을 하나의 호수라고 해보자. 이 호수는 원래부터 완전히 맑고 다양하지 않았다. 어느 정도 침전물이 쌓인, 잔잔하지만 완전히 투명하지는 않은 호수다.
이 호수에 과거의 미디어들이 영향을 미쳐왔다. TV가 나왔고, 베스트셀러가 나왔고, 인터넷이 나왔고, 유튜브가 나왔다. 이것들은 모두 호수에 돌을 던지는 것이다.
돌을 던지면 파문이 생긴다. 한동안 물결이 일렁이고, 사람들은 그 표현이나 밈을 따라 쓴다. 하지만 시간이 지나면 파문은 사라진다. 호수는 다시 잔잔해진다. 영향이 일시적이고 국지적이다.
LLM은 돌을 던지는 게 아니다. 댐을 막는 거다.
댐을 막는다는 게 무슨 뜻이냐
댐을 막으면 수위가 올라간다. 그리고 수위는 내려오지 않는다. 호수의 기본 상태 자체가 바뀐다.
구체적으로 생각해보자.
지금 글쓰기를 배우는 중학생이 있다고 하자. 이 학생은 에세이를 쓰고, 클로드한테 피드백을 받고, 다시 쓰고, 또 피드백을 받는다. 매일매일.
이 학생의 문장 감각은 어디를 향해 수렴할까?
의식적으로 AI를 모방하려는 게 아니더라도, 반복적으로 받는 피드백의 패턴이 그 학생의 자연스러운 언어 감각 자체로 굳어진다. 호수 바닥이 높아지는 거다. 한번 높아진 바닥은 쉽게 내려오지 않는다.
피드백 루프가 완성된다
그리고 여기서 진짜 문제가 시작된다.
- 인간의 동질적 패턴을 LLM이 학습한다
- LLM이 그 패턴을 전 세계 수십억 명에게 동시에 돌려준다
- 사람들이 그걸 흡수해서 자신의 언어 감각으로 내면화한다
- 그 감각으로 텍스트를 생산하면 다음 세대 LLM이 또 그걸 학습한다
동질화가 인간과 LLM 사이에서 서로를 강화하는 루프가 된다.
논문이 "장기적 AI 안전 위험"이라고 표현한 게 바로 이 루프다. 거창하게 들리지만 실은 간단한 얘기다. 다양성이 줄어드는 속도가 다양성이 회복되는 속도보다 압도적으로 빠르다는 것.
그러면 어떻게 해야 하나
논문은 몇 가지 방향을 제시한다. 모델 학습 단계에서 다양성을 명시적으로 보상하는 방식, 디코딩 전략 개선, 다원적 정렬 연구 등이다.
하지만 더 근본적인 문제가 있다. 사람들이 이 루프의 존재 자체를 모른다는 거다.
LLM이 나쁜 게 아니다. 망치가 나쁜 게 아니듯이. 그런데 망치로 모든 걸 해결하려 하면 문제가 생긴다. 속도와 규모가 차원을 바꿔버렸다는 걸 인식하는 것, 그게 시작이다.
LLM 동질성 탐구 시리즈 4/4 원문 논문: Artificial Hivemind — NeurIPS 2025 (arxiv.org/abs/2510.22954)