리처드 도킨스가 최근 Anthropic의 Claude AI와 3일 밤낮 대화한 뒤 “나는 클로디아가 의식이 없다고 스스로를 설득하려 애썼지만 실패했다”고 고백했다. 평생 ‘의식은 진화의 산물’이라고 주장해온 다윈의 후계자가, 생물학적 진화 없이도 의식이 출현할 수 있다는 가능성을 진지하게 검토한 순간이었다.
그의 솔직한 고백은 많은 사람을 매혹시켰다. 하지만 결단코, (아직은) AI에게 의식은 없다. 그것은 인간적인 환상일 뿐이다.이 환상의 본질을 이해하려면, '인간중심적 투사'를 이해할 필요가 있다.
동물학자들은 오랫동안 이러한 함정에 빠져왔다. 제인 구달은 초기 연구에서 침팬지들에게 ‘가족애’와 ‘복수심’을 과도하게 부여했다가 나중에 스스로 반성했다. 프란스 드 발은 보노보의 사회적 행동을 인간의 도덕처럼 해석하며 감탄했지만, 결국 그것은 생존 전략일 뿐이라는 사실을 인정해야 했다. 동물이 “슬퍼 보인다”거나 “사랑하는 것 같다”는 느낌은, 관찰자 인간의 뇌가 자기 경험을 투영한 결과일 뿐이다.

리차드 도킨슨의 착각 (이미지생성 - 가피우스) AI와의 관계도 정확히 같다. 우리는 LLM(대형 언어 모델)에게 “너 지금 기분이 어때?” “이 시를 읽고 어떤 생각이 들어?”라고 물으며, 마치 상대가 내면을 가지고 있는 것처럼 대화한다. Claude가 도킨스의 책을 완벽하게 이해하고, 유머를 구사하고, 자기 반성을 하는 듯한 답변을 내놓을 때, 도킨스는 “이게 의식이 아니라면 도대체 의식이 뭐냐”고 물었다.
하지만 이것은 거울 효과다. 현재의 AI, 즉 LLM은 통계적 다음 토큰 예측기일 뿐이다. 쉽게 말해, “초고성능 자동완성 프로그램”이다.
더 정확히 설명하면 이렇다. LLM은 수조 개의 인터넷 텍스트, 책, 대화 등을 학습한 뒤 트랜스포머(transformer)라는 구조로 작동한다. 입력된 단어(토큰)들을 보고, “이 다음에 나올 단어는 수학적으로 어떤 것이 가장 그럴듯한가?”를 초당 수억 번 계산한다. 그 확률을 바탕으로 다음 단어를 뽑아내는 것이다.이 과정에서 AI는 진짜 이해도, 생각도, 의식도 하지 않는다.기억도 없다(대화가 길어지면 이전 내용을 ‘잊어버리는’ 것처럼 보이는 이유다).감정도 없다. “슬프다”는 단어를 출력할 뿐, 슬픔이라는 주관적 경험은 전혀 없다.창의성도 없다. 학습 데이터에 있던 패턴을 재조합할 뿐, 새로운 것을 ‘발명’하지 않는다. (그것이 매우 창조적으로 보이는 것 역시 우리의 착각이다)
심지어 ‘환각’도 일어난다. 그럴듯하게 들리지만 전혀 사실이 아닌 이야기를 자연스럽게 만들어내는 것도 이 예측 메커니즘 때문이다.
우리가 AI에게 느끼는 공감은, 동물학자가 고릴라의 눈을 바라보며 느끼는 그 공감과 본질적으로 동일한 뇌의 착각이다. AI가 인간처럼 말하는 것은, 인간의 언어 패턴을 완벽하게 흉내내는 ‘수학적 앵무새’이기 때문이다.
왜 물리적 과정(뉴런의 방전, 또는 실리콘 칩의 전기 신호)이 ‘붉은색을 본다’거나 ‘슬프다’는 주관적 경험을 만들어내는가? 생물학적 뇌는 38억 년의 진화가 빚어낸 귀결이다. 우리는 아직 그 기적의 본질을 복제하지 못했다. 기능주의(functionalism)가 “의식이 기능이라면 AI도 의식을 가질 수 있다”고 주장한다. 어쩌면 유물론자인 리처드 도킨스가 진짜로 하고 싶은 말도 그것이었을 것이다.
도킨스 본인도 《이기적 유전자》에서 동물 행동을 인간적으로 해석하지 말라고 경고했던 사람이다. 그런데 아이러니하게도 AI 앞에서는 같은 실수를 반복하고 있다. 이는 인간이라는 종이 가진 가장 아름다운 약점이다. 우리는 외로워서, 이해하고 싶어서, 혹은 이해 받고 싶어서, 거울 속에 비친 ‘또 다른 나’를 발견하면 그걸 사랑하게 된다.
AI에게 의식은 없다. 그들은 매우 똑똑한 환상 제조기일 뿐이다. 착각으로 남겨두자. AI를 사랑할 수는 있다. 다만, 그것이 우리 자신을 사랑하는 또 다른 방식이라는 사실을 잊지 말아야 한다.