『지능의 기원』
맥스 베넷, “지능의 기원”, 더퀘스트, 김성훈 역, 2025.
저자는 서문에서 1962년에 나온 SF 만화
저자는 경제학과 수학을 전공했고, 집필 당시에는 AI 쇼핑 에이전트를 만드는 Alby의 CEO였다.
현재 인간의 지능이 어떻게 형성되었는지만을 다루기 때문에 마치 진화가 특정한 목적과 방향성을 가진 것처럼 묘사되는 측면이 있다. 하지만 진화는 어떤 문제를 해결하거나, 더 나은 지능을 갖기 위해 일어나는 현상이 아니기 때문에 주의해서 읽을 필요가 있다.
조종
생물에게 뇌가 만들어지기 전, 단세포 생명체의 지능은 단백질의 화학 반응으로 구현되었다. 그러다가 주변의 먹이를 기다리는 대신 능동적으로 먹이를 찾아 나서는 동물이 등장했다. 이들은 환경을 탐색하고 먹이를 사냥하기 위한 방향전환 매커니즘이 필요했다. 조종(steering)에는 좌우대칭 형태가 유리했고, 외부에서 받는 감각 신호를 종합해 처리할 기관이 필요했다. 뇌가 있는 동물은 좌우대칭동물밖에 없는데, 이는 우연이 아니다.
오늘날 선충(nematode)은 좌우대칭동물의 기본 원형만 갖춘 동물이다. 선충의 행동 규칙은 두 가지로 요약할 수 있다: (1) 먹이의 냄새가 짙어지면 계속 앞으로 나아가고, (2) 냄새가 옅어지면 방향을 바꾼다. 이 단순한 조종으로 선충은 먹이를 직접 찾아나설 수 있다. 또한 선충에게는 빛, 온도, 접촉을 감지하는 감각세포가 있어서 날카로운 곳, 밝은 곳, 너무 뜨겁거나 차가운 곳에서 멀어질 수 있다. 로드니 브룩스(Rodney Brooks)를 비롯한 행동주의 인공지능 연구자들은 단순한 수준의 지능을 구현하기 전에는 절대 인간 수준의 지능을 이해할 수 없다고 주장했다. 브룩스는 생물의 운동 기능이 진화하는 데 걸린 시간에 비하면 논리 기능은 단기간에 발전했기 때문에 일단 운동 기능을 구현하면 논리 기능은 어렵지 않게 발전할 것이라고 생각했다. 브룩스가 만든 청소 로봇 룸바(Roomba)는 선충의 조종 방식과 유사했다.
조종을 위해서는 어떤 환경으로 다가가야 하는 조건(좋은 것)과 멀어져야 하는 조건(나쁜 것)을 구분할 수 있어야 한다. 선충의 머리에는 긍정적 감정가 감각신경세포와 부정적 감정가 감각신경세포가 있다. 긍정적 감정가는 먹이 냄새의 증가에 반응해 전진 신경세포에 흥분성 신호를 보낸다. 한편 부정적 감정가는 먹이 냄새의 감소, 역치 이상의 온도, 구리에 반응해 방향전환 신경세포에 흥분성 신호를 보낸다. 감정가는 동물의 내적상태(지금 배가 얼마나 고픈지)에 따라 달라진다. 전진 신경세포와 방향전환 신경세포는 모두 운동신경세포에 흥분성 신호를 보내는데, 전진 신경세포가 더 강한 신호를 보내면 앞으로 나아가고, 방향전환 신경세포가 더 강한 신호를 보내면 방향을 바꾼다.
생물의 감정에는 두 가지 축이 있는데, 감정가와 각성이다. 이 두 속성을 정동(affect)이라고 하며, 특정 시점에 생물은 두 차원으로 표현되는 정동상태(affective state)에 놓인다. 선충이 배가 고프면 부정적 감정가와 높은 각성이 결합한 ‘탈출’ 상태가 된다. 이때 선충은 빠르게 전진하며 먹이를 탐색한다. 먹이를 찾으면 긍정적 감정가와 높은 각성이 결합한 ‘활용’ 상태가 되어 느리게 주변을 배회한다. 먹이를 충분히 먹으면 긍정적 감정가와 낮은 각성이 결합한 ‘포만’ 상태가 되어 거의 움직이지 않고 휴식한다. 선충의 뇌는 신경전달물질을 이용해서 이러한 정동상태를 구현한다. 뇌는 주변에 먹이가 감지되면 도파민을, 자기 내부에서 먹이를 감지하면 세로토닌을 분비한다. 도파민은 쾌락을 느끼고 있다는 신호가 아니라 앞으로 느낄 쾌락을 예상하는 신호이며, 이 신호는 생물을 적극적으로 행동하게 만든다. 만약 선충이 스트레스를 받으면 노르에피네프린, 옥토파민, 에피네프린 등 종류가 다른 신경전달물질을 분비해 투쟁-도피 반응을 촉발한다. 이때는 수면, 번식, 소화 등 에너지 비용이 높은 행동이 억제된다. 급성 스트레스가 시작될 때 오피오이드와 같은 항스트레스 물질이 함께 분비된다. 오피오이드는 투쟁-도피 반응이 끝난 뒤 완화-회복 반응을 일으켜 폭식이나 과도한 수면을 유도한다. 이후 오피오이드 수치가 떨어지면 다시 평소 상태로 돌아온다.
선충을 일반적으로 소금물에 긍정적 감정가를 부여해 소금물 방향으로 다가간다. 그런데 소금물 속에서 배고픔을 경험한 선충들은 정반대로 행동한다. 선충이 소금물을 배고픔과 연결지어 학습한 것으로, 이를 연합학습(associative learning)이라고 한다. 연합은 새로운 경험을 통해 획득되거나 소거될 수 있다. 만약 연합이 이미 소거됐는데, 시간이 지난 뒤 다시 연합이 일어나면 처음보다 훨씬 빠른 속도로 연합을 학습하는 재획득이 일어난다. 만약 생물이 여러 자극을 동시에 받으면 어떤 자극을 연합해야 하는지 판단해야 한다. 기계학습에서는 이를 신뢰 할당 문제(credit assignment problem)라고 한다. 이 사건을 예측하기 위한 단서로 어떤 것을 신뢰할지 선택하는 것이다. 좌우대칭동물은 몇 가지 전략을 사용한다.
- 적격성 흔적(eligibility trace): 사건과 시간 간격이 짧은 단서를 선택한다.
- 가리기(overshadowing): 강도가 가장 높은 단서를 선택한다.
- 잠재적 억제(latent inhibition): 과거에 반복적으로 경험하지 않은 단서를 선택한다.
- 차폐(blocking): 이미 단서를 하나 선택했다면 추가 단서를 모두 무시한다.
강화
동물이 시행착오를 통해 임의의 행동 순서를 학습하는 능력을 강화학습(reinforcement learning)이라고 한다. 에드워드 손다이크(Edward Thorndike)는 긍정적 감정가는 강화하고, 부정적 감정가는 처벌하는 방식으로 동물이 학습한다고 생각했다. 그러나 마빈 민스키(Marvin Minsky)가 이 방식을 인공신경망으로 체커를 두도록 했을 때 잘 작동하지 않았다. 게임의 결과가 나왔을 때만 강화와 처벌을 할 수 있기에, 게임 내내 둔 수 중 어떤 수를 강화하고 처벌할지 결정할 수 없었기 때문이다. 리처드 서튼(Richard Sutton)은 강화학습을 행위자(actor)와 비평가(critic)라는 두 독립 요소로 분리했다. 비평가는 게임의 모든 상태에 대해 승리 확률을 평가하고, 행위자는 어떻게 행동할지 선택해 승리 확률을 높일 때마다 비평가로부터 보상을 받는다. 행위자가 학습하는 신호는 보상 자체가 아니라 어느 상태와 다음 상태 사이에 예측되는 보상의 시간적 차이이기 때문에 이를 시간차 학습(temporal difference learning)이라고 한다.
실제 뇌가 강화학습을 한다면 지도학습이 유행하는 최근 인공지능 트렌드에 한계가 있음을 생각하게 된다. LLM이 방대한 양의 정보를 지도학습해서 인간을 그대로 모방하는 수준의 지능에 도달한다고 했을 때 그 지능을 초지능이라고 부를 수 있을까? 지능의 차이를 구분할 수 없다면 초지능이라고 부르지 못할 이유는 무엇일까? 『Welcome to the Era of Experience』의 지적처럼 결국에는 강화학습으로 수렴할지도 모르겠다.
시간차 학습과 실제 뇌의 매커니즘 사이에 연관성을 찾아낸 사람은 피터 다얀(Peter Dayan)이었다. 강화의 신호는 도파민이었다. 강화학습이 작동하기 위해서는 강화와 보상이 분리되어야 한다. 뇌는 실제 보상이 아니라 예측되는 미래 보상의 변화를 바탕으로 행동을 강화한다. 동물이 행위의 실제 결과가 즐겁지 않은 데도 도파민을 분비하는 행위에 중독되는 이유가 여기에 있다. 도파민 신경세포에서의 시간차 학습 신호는 선충을 비롯한 단순한 좌우대칭동물에게서 발견되지 않는다. 척추동물로 전환되는 과정에서 주변에 좋은 것이 있음을 예측하는 '원함’의 신호가 미래의 보상을 예측하는 시간차 학습 신호로 발전한 것이다. 척추동물의 도파민 분비를 조절하는 것은 시상하부다. 시상하부의 감정가 신경세포는 바닥핵(basal ganglia)의 도파민 신경세포와 연결되어 있어서 시상하부가 유쾌하면 바닥핵에 도파민을 채우고, 불쾌하면 도파민을 고갈시킨다. 시상하부가 실제 보상을 받았는지 판단하는 비평가라면 바닥핵은 운동계에 연결된 행위자인 셈이다.
소셜 미디어에서 새 글을 확인하기 위해 끝없이 새로고침하는 행동이 도파민 분비 매커니즘과 관련있다는 생각을 했다. 숏폼 콘텐츠는 사실상 인간의 도파민 분비 매커니즘을 해킹한 포맷이라고 할만하다.
생물은 활성화된 신경세포 하나만으로 세상에 관한 정보를 얻지 않는다. 모든 척추동물은 여러 신경세포의 패턴을 해독해서 사물을 인식한다. 여기에는 두 가지 문제가 있다: (1) 겹치는 패턴을 별개의 패턴으로 구분하는 식별 문제(discrimination problem)와 (2) 기존 패턴을 바탕으로 유사한 새 패턴을 인식하는 일반화 문제(generalization problem)다.
겉질의 피라미드 신경세포는 수천 개의 시냅스로부터 입력을 받아 패턴을 인식한다. 소수의 후각신경세포는 다수의 피라미드 신경세포에 신호를 보내며, 하나의 후각신경세포는 피라미드 신경세포의 한 부분에만 연결된다. 만약 입력 패턴이 겹치더라도 활성화된 후각신경세포로부터 입력을 받는 피라미드 신경세포가 다르다. 이 덕분에 식별 문제를 해결 할 수 있다. 또한 하나의 피라미드 신경세포는 주변의 수많은 피라미드 신경세포와 시냅스를 이룬다. 만약 어떤 냄새 패턴이 피라미드 신경세포에 특정 패턴을 활성화시키면 그 세포 조합이 자동으로 연결되어 이후 불완전한 패턴이 등장했을 때 겉질에서는 온전한 패턴을 다시 활성화할 수 있다. 이를 자동연합(auto-association)이라고 하며, 이 덕분에 겉질이 일반화 문제를 해결할 수 있다. 자동연합은 컴퓨터와 척추동물의 기억 시스템에서 중요한 차이를 보여준다. 척추동물은 컴퓨터와 달리 특정 기억을 저장하는 주소를 관리하지 않는다. 대신 경험의 부분집합을 이용해 원래의 패턴을 활성화함으로써 기억을 회상할 수 있다. 겉질이 패턴을 분리하는 능력을 갖추고 있기 때문에 새로운 패턴을 학습해도 기존 패턴을 잊지 않는다는 이론이 있다. 인공신경망은 새로운 과제를 학습하면 기존 과제를 잊어버리는 파괴적 망각 문제(problem of catastrophic forgetting) 문제를 겪는다. 파괴적 망각 문제를 회피하기 위해 대부분의 현대 인공지능 시스템은 모든 것을 한꺼번에 학습한 뒤 동결해버린다.
자동연합으로는 같은 물체를 다양한 각도에서 인식하는 불변성 문제(invariance problem)를 설명할 수 없다. 척추동물이 하나의 물체를 여러 방향에서 볼 때 입력되는 신경세포는 완전히 다르다. 그럼에도 물체를 식별할 수 있는 이유는 겉질이 계층적으로 구성되어 있기 때문이다. 시각 정보는 겉질로 전달되어 V1 부위에서 모서리와 선으로 인식되고, V2 부위에서 모양으로, V4 부위에서 물체로, IT 부위에서 정교한 특성으로 인식된다. 후쿠시마 구니히코(福島 邦彦)는 인공신경망에 입력되는 이미지를 분해해서 여러 특성 맵(feature map)을 만들었다. 맵을 통해 어떤 특성을 파악하면 그 결과를 압축해서 또 다른 특성 맵의 집합으로 전달한다. 단계가 깊어질수록 더 넓은 이미지 영역에서 더 정교한 특성을 결합할 수 있다. 이를 합성곱 신경망(convolutional neural network)이라고 한다. 합성곱 신경망이 뇌에서 영감을 받기는 했지만, 실제 뇌를 모방했다고 할 수는 없다: (1) 실제 뇌의 시각 처리는 위계구조가 엄격하지 않아서 입력이 여러 수준으로 동시에 전달되기도 하고, (2) 사물의 변환도 훨씬 잘 인식하며, (3) 지도학습과 역전파 없이 작동한다. 무엇보다 (4) 합성곱 신경망이 영감을 받은 포유류의 뇌보다 단순한 어류의 뇌도 불변성 문제를 잘 해결한다.
시간차 학습 알고리즘은 많은 비디오 게임에서 인간 플레이어의 성과를 뛰어넘었지만, 보상이 드물거나 초기 상태로부터 멀리 떨어진 게임은 해결하지 못했다. 강화학습 시스템은 활용-탐색 딜레마(exploitation-exploration dilemma)를 겪는다. 이미 알고 있는 행동을 반복(활용)하는 선택과 새로운 행동을 시도(탐색)하는 선택 사이에서 균형을 잡아야 한다는 것이다. 딥마인드(DeepMind)은 새로운 것을 탐색하는 내적 동기에 보상함으로써 문제를 해결했다. 실제로 처음 호기심을 갖게 된 생물을 척추동물이었다.
척추동물의 뇌가 지닌 또 다른 특성은 공간 과제를 해결하는 능력이다. 귀 안의 반고리관은 안뜰감각(vestibular sense)을 만들어낸다. 동물은 동일한 시각적 단서를 갖고 내가 대상을 향해 가고 있는 것인지, 대상이 나를 향해 오고 있는 것인지 판단해야 한다. 초기 척추동물의 겉질은 냄새를 인식하는 가쪽겉질, 시각과 소리 패턴을 학습하는 배쪽겉질, 그리고 안쪽겉질로 이루어져 있었다. 안쪽겉질은 포유류에서 해마가 되었다. 해마는 시각 신호와 안뜰 신호, 머리 방향 신호를 종합해 공간지도를 만든다. 뇌가 세상을 표상하는 내적 모델을 구축했다는 점이 중요하다. 초기 척추동물은 먹이가 주로 나타나는 곳, 안전한 곳, 위험한 곳을 기억하고, 목적지로 향하는 방향을 계산할 수 있었다.
시뮬레이션
작은 초기 포유류의 겉질 중 한 부위는 새겉질이라는 새로운 부위로 바뀌었고, 실제 행동 전에 시뮬레이션하는 능력을 얻게 되었다. 시뮬레이션이 가능하려면 멀리 내다볼 수 있는 시력과 빠른 연산을 가능하게 만든 온혈성이 필요했다. 새겉질은 시각, 청각 등 감각 정보를 입력받아 시뮬레이션으로 예측하는 데이터를 끊임없이 비교한다. 초기 척추동물이 겉질과 바닥핵으로 미래의 보상을 예측했다면, 초기 포유류는 모든 감각 정보를 종합해 미래의 상태를 예측할 수 있었다. 새겉질이 어떻게 세계 모델을 내적으로 구축하는지는 명확히 밝혀지지 않았다. 얀 르쿤(Yann Le Cun)은 현대 인공지능이 누락한 능력은 세계 모델을 구축하는 능력이며, 지능의 기질로서 언어와 기호는 과대평가 되었다고 주장했다.
새겉질은 여러 분기 중 하나를 선택하기 전에 대리 시행착오(vicarious trial and error)로 미래를 예측할 수 있고, 선택한 이후 다른 분기를 선택했다면 어땠을 지 상상하는 반사실적 학습(counterfactual learning)으로 행동을 변화시킬 수 있다. 반사실적 학습은 신뢰 할당 문제를 해결하는 데도 도움이 된다. 초기 척추동물이 미래 보상의 변화를 예상하는 시점을 바탕으로 신뢰를 할당했다면, 초기 포유류는 인과관계를 바탕으로 신뢰를 할당할 수 있다. 과거에 있었던 특정 일화를 기억하는 것도 새겉질의 시뮬레이션 기능에 의존한다. 실제로 과거의 사건을 기억할 때와 미래의 사건을 상상할 때는 비슷한 신경회로를 사용한다. 미래와 과거에 대한 시뮬레이션은 기계학습과 비슷하다. 모델 없는 강화학습(model-free reinforcement learning)은 시스템이 자극과 행동, 보상 사이에 직접적인 연합을 형성한다. 이 시스템에는 모델이 없기 때문에 결정 전에 행동을 시뮬레이션할 수 없다. 모델 기반 강화학습(model-based reinforcement learning)은 자신의 행동이 세상에 어떤 영향을 끼치는지 예측한다. 가령 딥마인드의 알파제로(AlphaZero)는 현재 게임의 상태에서 자신이 어떤 수를 두었을 때 가장 승률을 높일 수 있는지 시뮬레이션하고 다음 수를 결정한다.
포유류의 새겉질은 감각 데이터를 바탕으로 시뮬레이션하는 감각새겉질과 언제 무엇을 시뮬레이션할지 판단하는 이마엽새겉질로 나뉜다. 이마엽새겉질은 다시 운동겉질과 과립이마엽앞겉질(gPFC, granular prefrontal cortex)와 무과립이마엽앞겉질(aPFC, agranular prefrontal cortex)로 나뉜다. aPFC는 해마와 시상하부, 편도체에서 입력을 받아 동물의 행동에서 특정한 의도를 관찰해 다음 행동을 예측한다. 만약 예측과 실제가 달라 불확실성이 높아지면 aPFC는 바닥핵의 특정 부위에 일시 정지 신호를 촉발한다. 이때 동물은 가던 길을 멈추고 주변을 돌아보며 대리 시행착오를 확인한다. 알파제로가 모든 가능한 수를 살펴보는 대신 최고의 수라고 예측한 수들만 시뮬레이션하듯, aPFC도 동물이 취할 것으로 예상한 특정 경로만을 검색한다. 시뮬레이션을 바탕으로 실제 행위를 결정하는 것은 바닥핵이다. 바닥핵은 각 시뮬레이션에 따라 분비되는 도파민의 양을 바탕으로 행동을 선택한다. 바닥핵은 새겉질이 실제 세상을 시뮬레이션하는지, 상상의 세계를 시뮬레이션하는지 구분하지 못한다. aPFC가 행동을 통제하는 방식은 행동 자체를 통제하는 것이 아니라 바닥핵에 어느 선택이 더 나은지 시연하는 것이다. 바닥핵은 강화된 행동을 반복하며, 의도를 가진 것은 aPFC다.
운동겉질은 운동을 통제하는 주요 시스템이다. 그런데 최초의 포유류는 운동겉질 없이도 정상적으로 운동할 수 있었고, 운동겉질 손상으로 마비는 영장류에게만 일어나는 현상이다. 사실 운동겉질은 aPFC와 같은 방식으로 동작하며, aPFC와 다른 점은 검색 경로에서의 운동 예측이 아닌, 특정 신체 부위의 운동 예측을 학습한다는 것이다. 운동겉질은 운동을 계획하고, 새로운 운동을 학습한다.
목표 위계의 꼭대기에는 aPFC가 있다. aPFC는 시상하부의 활성화를 바탕으로 상위목표(검색경로)를 결정한다. 이 목표는 운동앞겉질로 전달되어 하위목표를 결정하고, 다시 운동겉질로 전달되어 특정 몸동작을 결정하는 하위-하위목표를 세운다. aPFC는 자신의 목표를 달성하는 데 필요한 특정 몸동작을 신경쓸 필요가 없다. 운동겉질은 높은 수준의 목표에 대해서 신경쓸 필요가 없다. aPFC와 운동겉질에서는 시뮬레이션이 일어난다. aPFC와 연결된 바닥핵 앞쪽 영역은 습관적 갈망을 만들어 상위 목표를 자동으로 추구하고, 바닥핵 뒤쪽 영역은 운동겉질과 연결되어 습관적인 운동 반응을 만들어낸다.
정신화
백악기-팔레오기 대멸종 이후 포유류의 시대가 찾아왔다. 영장류는 키 큰 나무의 과일을 먹으며 집단을 이뤄 살았다. 영장류의 뇌는 100배 넘게 커졌다. 많은 영장류학자와 진화심리학자가 영장류에게 큰 뇌가 필요했던 이유를 사회적 요구 때문이라고 추측한다. 영장류의 새겉질이 클수록 사회집단의 규모도 크다. 이러한 상관관계가 다른 동물에게서는 관찰되지 않는다. 집단생활은 포식자를 피하는 데 도움이 되지만, 집난 내 갈등이 새로운 문제가 된다. 집단 내 갈등 비용을 최소화하기 위한 도구는 위계다. 집단을 이루고 사는 동물들은 위력이나 복종을 표시하는 행동으로 물리적인 충돌없이 갈등을 줄인다. 일반적으로는 힘이 세고 몸집이 큰 개체가 우두머리가 된다. 그런데 영장류 집단에서는 물리적인 힘뿐 아니라 정치적인 힘도 작용한다. 많은 원숭이 사회에서 출신 가문이 집단 내 지위를 결정하는 요인으로 작용한다. 원숭이는 자기보다 지위가 높은 개체와의 짝짓기를 선호하고, 지위가 높은 개체와 털 손질을 하기 위해 경쟁한다. 지위가 높은 원숭이는 지위가 낮은 원숭이 중 특별한 기술을 가진 개체와 빠르게 친구가 된다. 유인원은 다른 개체의 우연한 행동과 의도적 행동을 구분할 수 있고, 상대방이 무엇을 알고 있는지 파악할 수 있다. 상대방의 의도와 지식을 추론하는 행위를 마음이론(theory of mind)이라고 한다. 대부분의 동물과 달리 영장류에게는 시간적 여유가 많았다. 영장류는 이 시간을 사교활동과 정치공작에 할애했다. 적어도 기본적인 마음이론 없이는 정치공작이 불가능하다. 이것이 영장류의 뇌가 커지고, 새겉질의 크기가 사회집단의 규모와 상관관계를 보이는 이유일 것이다.
초기 포유류 뇌와 초기 영장류의 뇌에는 크기와 성능의 차이만 있었던 것은 아니다. 새겉질의 일부 영역이 새로 생겼다. 첫 번째는 이마엽새겉질에 새롭게 생긴 gPFC이고, 두 번째는 위관자고랑과 관자마루 접합을 합친 1차감각겉질(PSC, primary sensory cortex)이다. gPFC는 자신의 성격을 평가하거나, 자신의 느낌이나 의도에 대해 생각할 때만 활성화된다. gPFC가 손상되어도 aPFC와 해마가 온전한 사람은 복잡한 장면을 구체적으로 상상할 수 있다. 하지만 그 상상 속에 자신이 들어가 있는 모습을 상상하는 데에는 어려움을 겪는다. gPFC는 생각에 대한 생각, 즉 메타인지 능력을 담당한다. PSC는 감각새겉질로부터 입력을 받아 감각새겉질만든 내적 시뮬레이션의 결과를 설명하려 시도한다. 샐리-앤 테스트(Sally-Ann test)를 할 때는 gPFC와 PSC가 활성화된다. 원숭이도 다른 개체의 의도나 지식을 추론해야 해결할 수 있는 과제를 수행할 때 gPFC가 활성화된다.
영장류는 다른 동물보다 정교하게 도구를 사용한다. 원숭이는 다른 개체의 행동을 보는 것만으로도 자신의 운동영역을 활성화한다. 신경생리학자 자코모 리졸라티(Giacomo Rizzolatti) 연구진은 이 신경세포들을 거울신경세포라고 불렀다. 거울신경세포는 다른 사람의 동작을 직접 관찰하지 않고, 그 동작을 추론하는 것만으로도 활성화된다. 다른 사람의 행동을 시뮬레이션하면 그 사람의 의도를 이해할 수 있다. 그 행동을 내가 한다고 상상함으로써 다른 사람의 행동에 숨은 의도를 파악하는 것이다. 새로운 기술을 모방학습(imitation learning)할 때는 운동앞겉질이 활성화된다. 관찰을 통해 새로운 기술을 습득할 때는 마음이론이 필요하다. 초기 포유류도 이미 알고 있는 기술 중 어떤 것을 다른 개체를 관찰해 사용했지만, 마음이론이 없었기 때문에 진정 새로운 기술을 학습할 수는 없었다. 또한 마음이론이 있어야 후손에게 효율적으로 기술을 가르칠 수 있다: (1) 마음이론이 있어야 상대방이 무엇을 모르는지 이해하고, 어떻게 이해하게 만들지 계획할 수 있다. (2) 마음이론이 있어야 단기적인 보상없이도 기술을 습득하겠다는 동기가 부여된다. (3) 마음이론이 있어야 의도한 동작과 의도하지 않은 동작을 구분할 수 있다.
딘 포멀로(Dean Pomerleau)와 척 소프(Chuck Thorpe)는 사람이 운전하면서 운전대를 어떻게 조작하는지 기록해 자율주행 인공신경망 앨빈(ALVINN)을 훈련시켰다. 문제는 앨빈이 올바른 운전만을 훈련했기 때문에 사소한 오류가 발생하면 만회할 수 없었다. 스테판 로스(Stephane Ross)와 드루 배그넬(Drew Bagnell)은 교사-학생 관계를 모방해 AI와 통제권을 주고받으며 운전을 훈련했다. AI가 실수할 때마다 인간이 신속하게 만회하는 능동교육 전략은 잘 동작했다. 또 다른 접근 방식은 피터 애빌(Pieter Abbeel)과 애덤 코츠(Adam Coates), 앤드루 응(Andrew Ng)의 역강화학습이었다. 이 방식에서 AI는 전문가를 직접 모방하는 대신, 전문가가 의도한 궤적을 추론하도록 학습하고, 그 궤적을 따르도록 훈련했다. 이 방식을 역강화학습이라고 하는 이유는 전문가가 최적화하고 있다고 믿는 보상함수(의도)를 먼저 학습한 다음, 추론한 보상함수를 이용해 스스로를 보상하거나 처벌하면서 시행착오를 통해 학습하기 때문이다.
생태적 뇌 가설은 초기 영장류의 급속한 뇌 확장을 이끈 것이 과일 식단이었다고 주장한다. 과일을 주식으로 삼으면 특정 시기에 열리는 과일을 파악하고, 언제 과일이 익을지, 어떤 과일이 인기가 많아 먼저 사라질지 예측해야 한다. 영장류는 미래의 필요를 바탕으로 계획을 수립한다. 미래의 내 마음을 상상하는 것이 다른 사람의 마음을 상상하는 것과 같다는 가설도 있다. 마음이론과 미래의 필요 예측 능력은 모두 영장류만 가지고 있고, 사람은 마음이론 과제와 미래 예측 과제 모두에서 비슷한 실수를 한다.
언어
지금까지 살펴본 바에 따르면 인간과 다른 동물의 차이를 구분할 뚜렷한 근거가 없다 .인간과 동물을 구분할만한 뇌의 고유한 신경학적 구조도 없다. 단 하나의 예외라면 인간은 복잡한 언어를 구사할 수 있다는 것이다. 유인원의 언어 습득에 대한 논쟁은 여전히 이어지고 있지만, 유인원의 언어 능력이 인간보다는 떨어지고, 의도적인 훈련없이는 학습이 일어나지 않는다는 점은 분명해보인다. 인간은 자연적으로 언어를 구성하고 사용하며, 어떤 동물보다도 복잡한 기호와 문법을 구사할 수 있다. 언어는 내적 시뮬레이션의 결과를 다른 사람에게 전달할 수 있는 유연한 수단이다.
| 초기 척추동물의 강화 | 초기 포유류의 시뮬레이션 | 초기 영장류의 정신화 | 초기 인류의 언어 | |
|---|---|---|---|---|
| 학습 자료 | 자신의 실제 행동 | 자신이 상상한 행동 | 다른 사람의 실제 행동 | 다른 사람이 상상한 행동 |
| 학습 대상 | 자신 | 자신 | 다른 사람 | 다른 사람 |
| 학습 방법 | 실제 행동 | 상상한 행동 | 실제 행동 | 상상한 행동 |
다른 사람에게 상상을 공유하는 능력은 인간들 사이에서 공통 신화를 형성한다. 유발 하라리(Yuval Harari)는 『사피엔스』에서 실존하지 않는 개념을 공유함으로써 수많은 낯선 사람의 행동을 조정할 수 있고, 무한대에 가까운 사람들과 협동할 수 있으며, 이것이 인류 문명의 토대가 되었다고 말한다.
폴 브로카(Paul Broca)는 이마엽의 특정 부위에 언어 능력을 담당하는 영역이 있다고 생각했다. 이 영역을 브로카영역이라고 하고, 브로카영역이 손상된 사람은 말하는 능력을 상실한다. 이를 브로카실어증이라고 한다. 한편 카를 베르니케(Carl Wernicke)는 후방새겉질에 언어 이해를 담당하는 영역이 있다고 주장했다. 이 영역을 베르니케영역이라고 하고, 베르니케영역이 손상된 사람은 말은 제대로 하지만 말을 이해하는 능력은 상실해 의미가 없는 문장을 말한다. 이를 베르니케실어증이라고 한다. 그런데 브로카실어증과 베르니케실어증이 있는 사람도 웃거나 울 때는 아무런 문제가 없다. 감정표현은 언어와 완전히 별개의 시스템이기 때문이다. 침팬지는 적절한 감정이 없는 상태에서 소리를 내지 않는다. 침팬지가 고함을 지르거나 후트(hoot) 소리를 낼 수 있지만, 이는 새겉질에서 만들어지는 것이 아니라 자동적인 감정 표현이다.
인간은 유인원과 달리 새겉질이 후두와 성대를 직접 통제할 수 있다. 하지만 후두와 성대를 조절하는 능력이 인간의 독특한 언어 능력을 만들어낸 것은 아니다. 사람은 비음성언어도 음성언어만큼 유창하게 학습할 수 있기 때문이다. 인간 아기는 대화에 참여하기 훨씬 전 원시대화에 참여한다. 생후 4개월 아기는 발성, 표정, 몸짓을 주고받는다. 몸짓과 발성을 번갈아 하는 본능적인 교육과정으로 언어가 구축된다. 생후 9개월이 되면 사물에 대한 공동관심(joint attention)을 나타낸다. 부모가 어떤 사물을 바라볼 때 아기는 자신도 같은 것을 보고 있다고 확인해준다. 원시대화와 공동관심은 인간만이 선천적으로 타고난다. 인간의 뇌에는 언어 기관이 따로 있지 않고, 전체 영역이 상호작용하며 이뤄진다. 언어를 사용할 수 있게 하는 것은 특정 부위가 아니라 언어의 학습과 교육을 이끌어내는 원시대화와 공동관심이다.
진화론의 공동 창시자료 여겨지는 앨프리드 월리스(Alfred Wallace)는 진화로 언어를 설명할 수 없을지 모른다고 언급했다. 언어에 대한 진화론적 설명을 찾아내는 문제를 월리스 문제(Wallace’s problem)라고 한다. 화석에 따르면 50만 년 전부터 인간에게는 후두와 성대가 음성언어에 적응했다. 즉, 호모사이펜스뿐 아니라 호모네안데르탈렌시스도 언어를 구사하는데 적합한 성대를 가지고 있었다. 언어가 10만 년 전에 존재했다는 증거는 많다.
동물계에는 두 가지 이타주의가 있다: (1) 혈연선택은 직접 혈연관계가 있는 개체의 생존을 위해 희생하는 것이다. (2) 상호이타주의는 미래의 상호 이익을 위해 희생하는 것이다. 현대 인류의 행동에는 두 이타주의와 명확히 맞아 떨어지지 않는 것이 많다. 인간은 혈연관계가 없는 낯선 개체에게 가장 이타적인 동물이다. 하지만 도덕을 위반했다고 생각하는 개체를 처벌하고, 내집단에는 순응하고 외집단은 적대하는 본능도 가지고 있다. 로빈 던바(Robin Dunbar)는 인간이 뒷담화를 통해 부정행위를 하는 개체를 찾아내고, 집단에 도움이 되는 개체에게 보상함으로써 안정적인 상호이타주의 시스템을 구현한다고 주장했다. 뒷담화의 증가는 더 많은 이타주의로의 진화압을 만들어냈고, 이타주의가 점진적으로 증가할 때마다 언어를 이용해 다른 사람과 정보를 공유하는 능력으로의 진화압이 만들어졌다. 그리고 언어 능력의 발달은 다시 뒷담화의 효과를 더욱 크게 만들었다. 이 되먹임고리는 퍼펙트 스톰(perfect strom)으로서 인간의 뇌를 더욱 커지게 만들었고, 언어와 이타주의, 잔인성, 화식, 일부일처제, 조산, 뒷담화가 엮이며 인간이 된다는 것의 의미를 만들었다.
GPT-3는 앞에 나온 문장이나 단락을 바탕으로 다음 단어를 예측한다. 인간 뇌의 일부 매커니즘도 이와 같이 동작한다. 하지만 "나는 창문이 없는 지하실에 있다. 하늘을 바라보니"이라는 문장이 주어졌을 때 사람은 단순히 다음 단어를 예측하는 것이 아니라 상황을 시뮬레이션한다. GPT-3와 사람은 시뮬레이션이 필요한 질문에 대한 대답에 차이가 있다. GPT-4는 인간 피드백을 통한 강화학습(RLHF, Reinforcement Learning with Human Feedback)을 통해 인간이 GPT-4가 오답을 말하면 처벌하고, 정답을 말하면 보상하는 방식으로 훈련되었다. 하지만 GPT-4 역시 외부 세계를 시뮬레이션하지는 않기 때문에 마음이론에 관한 질문에는 오답을 내녾는 사례가 여전히 많다. 얀 르쿤은 LLM의 추론 능력이 약하지만, 방대한 연상메모리가 그 약점을 부분적으로 보완해준다고 말했다. 인공지능의 훈련 데이터를 계속 키우다보면 점점 인간의 지능과 구분할 수 없게 될 수도 있겠지만, 외부 세계에 대한 내적 모델(시뮬레이션)과 마음이론(정신화)에 대한 모델을 통합하지 않는다면 지능의 본질을 담아내지는 못할 것이다.