
이 강연은 인공지능(AI)의 등장이 진화의 자연스러운 결과라는 점에 초점을 맞춰 지능이 무엇인지 깊이 탐구합니다. 수십 년간의 이론과 기존 문헌, 그리고 최근 인공 생명 실험들을 아우르는 블레이즈 아게라 이 아르카스(Blaise Agüera y Arcas)의 연구는 오늘날의 특정 AI 시스템들이 지능, 의식, 그리고 자유 의지를 가진다고 주장합니다. 영상은 지능과 생명, 그리고 계산의 본질에 대한 새로운 관점을 제시하며, AI의 발전이 인류와 지구 전체에 미칠 영향에 대한 깊은 사색을 유도합니다.
블레이즈 아게라 이 아르카스는 자신의 강연 제목이자 곧 출간될 책의 제목인 "지능이란 무엇인가?(What is Intelligence?)"라는 질문으로 이야기를 시작합니다. 그는 이 책이 에르빈 슈뢰딩거의 저서 "생명이란 무엇인가?(What Is Life?)"에 대한 오마주로 시작되었으며, 원래는 슈뢰딩거의 책처럼 짧을 예정이었으나, 지능이라는 주제의 방대함 때문에 조금 더 길어질 것 같다고 언급하며 유머러스하게 강연을 시작합니다. 📚
그는 멕시코시티에서 외로운 아이로 자라며 컴퓨터와 많은 시간을 보냈던 개인적인 경험을 공유합니다. 당시의 컴퓨터는 8살 아이도 이해할 수 있을 만큼 단순했지만, 지금은 아무리 간단한 컴퓨터도 단 한 사람이 모든 것을 이해할 수 없는 복잡한 시스템이 되었다고 말합니다. 그는 자신의 세대가 '우리가 이해했던 세상'에서 '더 이상 개별적으로는 이해할 수 없는 세상'으로 넘어가는 전환기를 목격한 특별한 세대라고 회고합니다. 👾
대학에서 물리학을 전공한 뒤 계산 신경과학 분야에 뛰어들었지만, 한동안 과학계를 떠나 스타트업을 창업하고 마이크로소프트에 인수된 후 컴퓨터 비전 분야의 프로토 AI 기술 개발에 참여하게 됩니다. 초창기에는 수기로 작성된 코드를 통해 3D 이미지를 재구성하는 방식이었으나, 2010년대 초반 신경망(Neural Nets)이 이러한 방식들을 대체할 것이 분명해지자 구글로 이직하게 됩니다.
구글에서는 딥 드림(Deep Dream)과 같은 초기 생성형 AI 모델 개발에 참여했습니다. 딥 드림은 비록 사진처럼 사실적인 이미지를 생성하지는 못했지만, 시각적 생성 AI의 첫걸음이었다고 회고합니다. 2014년부터 그의 팀은 구글 픽셀의 '지금 재생 중' 기능이나 다양한 AI 기능을 포함한 온디바이스 AI 모델들을 개발했습니다. 그중 가장 중요한 것은 Gboard(구글 키보드)였다고 합니다. Gboard는 사용자가 입력하는 내용을 바탕으로 다음 단어를 예측하여 타이핑 속도를 높여주는 간단한 AI 시스템이었습니다.
Gboard 개발 당시, 팀은 이 통계 모델이 결국 한계에 부딪힐 것이라고 생각했습니다. 언어 예측은 문맥이 커질수록 무한히 어려워지는 문제이기 때문입니다. 예를 들어, "Humpty Dumpty"처럼 정해진 구절은 예측하기 쉽지만, "Balmer의 은퇴 후 회사는..."과 같은 문장에서는 단순히 단어의 빈도만으로는 다음 단어(Satya Nadella, Microsoft 등)를 예측할 수 없었습니다. 심지어 "고양이가 물컵을 엎었을 때 키보드가..."와 같은 문장은 상식 추론(common sense reasoning)이 필요했고, "개가 죽은 후 Jen은 며칠 동안 밖에 나가지 않았다. 그래서 그녀의 친구들은..."과 같은 문장은 마음 이론(Theory of Mind)이 요구되었습니다.
그런데 놀랍게도, 기존의 모델들을 단순히 크게 만들고(bigger) 방대한 데이터로 훈련시키자(large corpuses) 이러한 복잡한 예측들까지 정확하게 해냈다고 합니다. 이는 기존 AI 연구자들이 AI 완전 문제(AI-complete problems)로 여겼던, 즉 모든 종류의 이해를 요구한다고 생각했던 문제들을 간단한 통계 모델이 해결했다는 점에서 큰 충격이었습니다. 그는 "마법 같은 요정의 가루가 필요하다고 생각했지만, 단순히 모델을 크게 만드는 것이 그 요정의 가루였다"고 말하며, 지능에 대한 우리의 고정관념이 깨지는 순간이었다고 강조합니다. ✨
이러한 결과는 뇌가 미래를 예측하는 기능(P of the future given the past)을 수행한다는 오래된 이론과도 연결됩니다. 칼 프리스턴(Carl Friston)과 같은 신경과학자들은 뇌가 '다음 토큰 예측기(next token predictor)'라고 주장하며, 이러한 아이디어는 19세기 헤르만 헬름홀츠까지 거슬러 올라간다고 설명합니다.
그렇다면 미래를 예측하는 모델이 텍스트 문자열에서 아주 잘 작동한다면, 그것은 단지 모조 지능(Counterfeit Intelligence)일까요? 똑똑한 척하는 것일까요, 아니면 진짜일까요? 강연자는 바로 "진짜"라고 주장합니다.
"If you know math, you can pretend not to know math on the test and get a bad score. But if you don't know math, you know, how many students have wished that they could pretend to know math and get a good score on the test? Like it just doesn't work the other way around. And I think the same is true for intelligence in general." (만약 당신이 수학을 안다면, 시험에서 모르는 척하고 낮은 점수를 받을 수 있습니다. 하지만 수학을 모른다면, 시험에서 아는 척하고 좋은 점수를 받기를 바란 학생들이 얼마나 많았겠습니까? 반대로는 작동하지 않습니다. 그리고 저는 일반적인 지능도 마찬가지라고 생각합니다.)
이는 튜링 테스트(Turing Test)를 고안한 앨런 튜링(Alan Turing)의 생각과도 일맥상통합니다. 튜링은 기계가 생각할 수 있는지 여부를 기계의 행동, 즉 그 기능으로 판단해야 한다고 주장했습니다. 만약 컴퓨터가 지능적인 질문에 답하여 청취자를 납득시킨다면, 그것 외에 지능이 무엇인지에 대한 다른 정의는 없다는 것입니다. 이러한 관점을 기능주의(Functionalism)라고 부릅니다. 지능은 무엇으로 만들어졌는지(what it's made out of)가 아니라, 무엇을 하는지(what it does), 즉 그 기능(function)으로 정의된다는 것입니다. 수학적으로 함수는 곧 계산(computation)을 의미합니다.
강연자는 여기서 한 발 더 나아가, 이러한 기능적 정의가 생명(life) 자체에도 적용된다고 말합니다. 생명 역시 특정 종류의 함수이며, 지능과 같은 종류의 함수라는 것입니다. 🧬 왜 생명은 "과거가 주어졌을 때 미래의 확률(P of future given past)"을 계산해야 할까요?
그는 대장균(E.coli)의 사례를 들어 설명합니다. 대장균은 빠르게 번식하며(reproduce), 이는 생명의 핵심입니다. 번식하기 위해 대장균은 먹어야 하고, 화학 주성(chemotaxis)을 통해 설탕과 같은 영양분으로 이동합니다. 하워드 버그(Howard Berg)의 연구에 따르면, 대장균은 '설탕 농도가 증가하면 계속 헤엄치고, 감소하면 방향을 무작위로 바꾸는(tumble)' 간단한 계산을 통해 먹이를 찾아냅니다.
"If the concentration of sugar is increasing, keep swimming, and if the concentration is decreasing, tumble, randomize your direction. If you do that, then statistically you will end up swimming toward the toward the goodies." (만약 설탕 농도가 증가하고 있다면 계속 헤엄치고, 만약 농도가 감소하고 있다면 방향을 무작위로 바꾸세요. 그렇게 하면 통계적으로 여러분은 맛있는 곳으로 헤엄쳐 갈 것입니다.)
이러한 과정은 박테리아 내부에서 "행동의 확률이 자극에 의해 결정되는(Probability of action given stimulus)" 함수가 계산되는 것을 의미합니다. 여기서 중요한 것은 박테리아가 무엇으로 만들어졌는지가 아니라, 어떤 행동을 하는지(behavior)입니다. 진화는 이 함수를 학습하는 알고리즘이며, 이 함수 자체가 생명체(life form)인 것입니다.
강연자는 이를 시뮬레이션으로 보여줍니다. 빨간 점(먹이)을 따라 움직이는 가상의 박테리아가 충분한 먹이를 얻으면 복제되고, 그렇지 못하면 죽는 단순한 규칙을 적용했을 때, 결국 먹이를 따라가는 행동을 학습한 박테리아들이 살아남아 번식하는 것을 보여줍니다. 🦠
"Evolution is a learning algorithm. What it's learning is the function, and the function is the life form. The organism is this function P of action given stimulus." (진화는 학습 알고리즘입니다. 진화가 배우는 것은 함수이고, 그 함수가 곧 생명체입니다. 유기체는 '자극이 주어졌을 때 행동의 확률'이라는 이 함수입니다.)
다양한 행동 패턴을 보이는 박테리아들이 결국 모두 "계속 게임을 하는 것"이 유일한 목표인 무한 게임(infinite game)에서 승리한다고 설명합니다. 생명은 결국 미래에 자신의 존재를 성공적으로 예측하여 지속시키는(successfully predicts itself into existence in the future) 함수인 것입니다.
블레이즈 아게라 이 아르카스는 이제 생명이 어떻게 미래를 예측하는 함수를 계산하는지, 그리고 계산이란 무엇인지 더 깊이 파고듭니다. 그는 앨런 튜링이 모든 계산이 작동하는 방식을 추상화한 튜링 기계(Turing Machine)를 언급하며, 2010년 마이크 데이비(Mike Davey)가 만든 실제 튜링 기계 모델을 예시로 보여줍니다. 📜
흥미롭게도, '컴퓨터(computer)'라는 용어는 원래 기계가 아닌 사람을 지칭하는 말이었습니다. 1892년 뉴욕 타임즈 신문에 실린 '컴퓨터' 구인 광고를 보여주며, 튜링이 튜링 기계를 구상했을 때 이 여성 계산원들을 염두에 두었음을 설명합니다.
처치-튜링 테제(Church-Turing Thesis)는 모든 계산 방식이 본질적으로 동등하며, 어떤 컴퓨터를 사용하든 같은 계산을 할 수 있다고 주장합니다. 즉, 물리적인 구현 방식은 중요하지 않다는 플랫폼 독립성(platform independence) 또는 다중 실현 가능성(multiple realizability) 원칙을 이야기합니다.
계산이 항상 논리적이거나 합리적이고 예측 가능한 것은 아니라는 점도 강조합니다. 튜링은 초기부터 무작위성(randomness)을 포함하는 계산 모델을 상상했습니다. 1952년 최초의 수소폭탄 계산에 사용된 초기 컴퓨터 MANIAC은 몬테카를로 마르코프 체인 방법(Monte Carlo Markoff chain method)을 사용했는데, 이는 몬테카를로 카지노에서 이름을 따왔듯이 알고리즘의 핵심에 난수 발생기(random number generator)가 있었습니다. 튜링 자신도 초기 컴퓨터인 페란티 마크 1(Ferranti Mark1)에 '시끄러운 저항(noisy resistor)'을 사용하여 진정한 난수를 생성하는 명령어를 포함시키도록 주장했습니다.
강연자는 대중이 컴퓨터를 생각할 때 영화 '2001 스페이스 오디세이'의 HAL 9000이나 '스타트렉'의 데이터처럼 초합리적(hyperrational)이고, 정확하며, 감정이 없는 존재로 상상하는 경향이 있다고 지적합니다. 이는 논리학자 라이프니츠(Leibniz)가 모든 질문을 계산으로 해결할 수 있다고 믿었던 "특성 보편학(characteristica universalis)"과 같은 오래된 아이디어의 잔재라고 설명합니다. 불 대수를 창시한 조지 불(George Boole) 또한 뇌가 근본적으로 논리에 기반한다고 믿었습니다. 🧐
하지만 1972년 허버트 드레이퍼스(Hubert Dreyfus)는 기존의 논리 기반 AI가 작동하지 않을 것이라고 비판했습니다. 이와 대조적으로 1958년 프랭크 로젠블랫(Frank Rosenblatt)이 개발한 퍼셉트론(Perceptron)은 무작위 연결과 가중치를 통해 형태를 인식하는 기계였습니다. 퍼셉트론은 뇌가 논리적 명제를 계산하는 것이 아니라, 무작위성을 포함하는 함수를 계산한다고 보았던 사이버네틱스(Cybernetics)의 방향을 대표했습니다.
여기서 AI와 컴퓨터 과학은 논리 기반의 구식 인공지능(Good Old-Fashioned AI, GOFAI)이라는 한 길로, 사이버네틱스는 무작위성과 학습을 강조하는 다른 길로 갈라지게 됩니다. GOFAI는 스프레드시트나 미사일 궤적 계산, 스마트폰 등 현대 컴퓨터 기술의 많은 부분을 탄생시켰지만, 지능 그 자체를 구현하는 데는 실패했습니다. 반면, 사이버네틱스에서 시작된 길은 오랫동안 대중의 관심 밖이었지만, 현대 AI, 특히 대규모 언어 모델(Large Language Models)로 곧장 이어지는 직계 혈통을 가지고 있다고 강연자는 주장합니다. 🌳
그는 다시 한번 튜링의 말을 인용하며, 지능의 본질은 수학적인 기능적 유사성(mathematical analogies of function)에 있지, 그것이 무엇으로 구현되었는지(how it's done)는 중요하지 않다는 플랫폼 독립성(platform independence)을 강조합니다.
그렇다면 자신의 미래를 예측하는 기능을 진화시키는 것이 지능과 생명이라면, 이러한 기능은 어떻게 처음부터 생겨날까요? 계산 자체는 어떻게 발생할까요? 강연자는 최근 연구인 "계산적 생명: 단순한 상호작용에서 잘 형성된 자기 복제 프로그램이 출현하는 방법(Computational life: How well-formed self-replicating programs emerge from simple interaction)"을 통해 이를 설명합니다.
이 실험에서는 Brainfuck이라는 튜링 완전 언어를 사용하여 8192개의 무작위 64바이트 프로그램 덩어리(soup)를 준비합니다. 이 프로그램들은 평균적으로 두 개의 유효한 명령어만을 포함하는 거의 무작위 문자열에 불과합니다. 이 중 두 개를 무작위로 선택하여 연결하고 실행한 뒤 다시 분리하여 덩어리에 넣는 과정을 반복합니다. 이 과정에서 약간의 무작위적인 돌연변이(mutation)도 발생합니다.
놀랍게도, 수백만 번의 상호작용 후, 아무것도 없던 무작위 문자열 덩어리에서 자기 복제(self-replication)하는 잘 형성된(well-formed) Brainfuck 프로그램들이 출현합니다. 😮 처음에는 평균 2회에 불과했던 연산 횟수가 800만 번의 상호작용 후에는 4784회로 증가하며, 이는 심각한 수준의 계산 작업이 이루어지고 있음을 의미합니다.
"Out of nothing but random interaction between strings, after a few million such interactions, we get well-formed Brainfuck programs that actually take quite a lot of cleverness to go and figure out what the hell they're doing. They're reproducing." (문자열 간의 무작위적인 상호작용 외에는 아무것도 없었음에도, 수백만 번의 상호작용 끝에, 우리는 실제로 어떤 짓을 하고 있는지 알아내기 위해 상당한 영리함이 필요한 잘 형성된 Brainfuck 프로그램들을 얻습니다. 그들은 자기 복제하고 있습니다.)
이는 시스템의 상태 변화(phase change)와 같습니다. 처음에는 무작위적인 '기체 상태'와 같았던 프로그램 덩어리가 어느 순간 '기계 상태' 또는 '계산 가능한 상태', 즉 '생명'의 상태로 전환되는 것입니다. 이 전환은 무작위적인 시점에 발생하지만, 항상 일어난다고 합니다. 이러한 현상을 알렉스 모르빈체프(Alex Morvincsev)는 Z80 어셈블리 언어로 만든 시각화로 더 아름답게 보여줍니다. 픽셀 하나하나가 프로그램인 격자에서, 프로그램들은 노이즈에서 자기 복제자로 진화하고, 새로운 종이 나타나고 사라지는 생명의 모습을 보여줍니다. 🦠
강연자는 이러한 현상이 바로 생명(life)이라고 주장합니다. 생명을 구성하는 언어나 계산 메커니즘은 중요하지 않습니다. 왜냐하면 모든 것은 플랫폼 독립적이며, 중요한 것은 기능(function)이기 때문입니다. 즉, 생명은 물리학으로부터 독립적(independent of physics)인 어떤 의미가 있습니다.
고(故) 존 폰 노이만(John Von Neumann)은 1950년대에 자기 복제 오토마타 이론(Theory of Self-Reproducing Automata)을 통해 이 문제를 거의 해결했습니다. 그는 자기 자신을 만드는 데 필요한 부품들로 가득 찬 연못에서 움직이며 자신을 복제하는 기계를 상상했습니다. 그가 깨달은 것은 이러한 기계가 존재하려면 튜링 기계의 약간의 일반화가 필요하다는 것이었습니다.
폰 노이만의 모델에는 다음이 필요했습니다.
놀랍게도 그는 DNA의 구조와 기능이 밝혀지기 전에 이 이론을 제시했습니다. 중요한 것은 재생산은 계산 없이는 불가능하다(reproduction is not possible without computation)는 것입니다. 테이프를 따라가며 멈추고, 조건부 명령어를 실행하는 등의 과정은 모두 계산이기 때문입니다. 따라서 계산은 "끌개(attractor)"입니다. 즉, 자기 자신을 복제하는 존재가 되려면 계산해야만 합니다. 그리고 이러한 자기 복제는 "무활동이 엔트로피로 당신을 지워버릴 환경에서 당신 자신을 미래에 지속적으로 존재하도록 예측하기 위한 가장 기본적인 요구사항"이며, 이것이 바로 활동적 추론(active inference)이자 지능과 동일한 것이라고 강조합니다.
이러한 논리는 복잡성(complexification)이 왜 증가하는지에 대한 답으로 이어집니다. 일단 박테리아가 번식하게 되면, 모든 자기 복제자는 더 많은 자기 복제자를 위한 틈새(niche)를 만듭니다. 즉, DNA 테이프나 프로그램 덩어리 자체는 다른 자기 복제자들이 뿌리내릴 수 있는 환경이자 생태계가 되는 것입니다. 이것이 바로 공생(symbiosis)을 통해 미토콘드리아가 진핵세포 안에 통합되거나, 척추동물의 뼈대(ribs)가 복제되면서 더 복잡한 생명체가 탄생하는 방식입니다. 🐢
마요르(Maynard Smith)와 사우스(Szathmáry)의 주요 진화적 전환 이론(Theory of Major Evolutionary Transitions)에 따르면, 생명은 복제 분자에서 세포로, 원핵생물에서 진핵생물로, 단세포 생물에서 동물로 진화하는 등 몇몇 주요 전환점을 거쳐왔습니다. 이러한 전환은 곧 공생의 순간이며, 독립적으로 복제하던 존재들이 공동으로 복제하는 것이 더 유리하다는 것을 깨닫고 함께 더 강력한 복제자를 만드는 순간이라고 설명합니다.
강연자는 에디아카라기(Ediacaran) 시대의 해파리 같은 생명체들을 예시로 들며, 세포들이 상호 예측(mutual prediction)을 통해 협력하여 동물을 형성하는 과정을 설명합니다. 반딧불이가 서로의 빛을 예측하여 섬광을 동기화하는 것처럼, 세포들도 서로의 행동을 예측하여 움직임을 조절합니다. 신경망(nerve nets)은 이러한 상호 예측을 위한 감각 메커니즘으로 진화했으며, 뇌(brains)는 동물 몸 전체의 다른 근육들을 위한 감각 뉴런들의 집합체로 진화했습니다.
"We tend to think of a brain as being a homunculus, as being the boss. You know, the brain controls the body. What I'm saying is no. The body has sent its sensory organs into the head and that's what the brain is. It's just the sensory endpoints of the muscles." (우리는 뇌를 작은 사람, 즉 보스라고 생각하는 경향이 있습니다. 뇌가 몸을 통제한다고 말이죠. 제가 말하는 것은 아닙니다. 몸이 감각 기관을 머리로 보냈고, 그것이 바로 뇌입니다. 뇌는 단지 근육의 감각 종점일 뿐입니다.)
캄브리아기(Cambrian) 폭발과 함께 동물들이 서로를 잡아먹는 포식 경쟁(predation arms race)이 시작되면서 복잡성은 더욱 증가합니다. 내부의 협력이 외부의 경쟁을 가능하게 한 것입니다. 포식자는 먹이의 움직임을 예측하고, 먹이는 포식자의 움직임을 예측하며, 더 나아가 상대방이 자신을 어떻게 모델링하는지까지 예측하는 고차원의 마음 이론(higher orders of theory of mind)이 발달하게 됩니다. 🧠
이러한 현상은 제2차 세계대전과 같은 인간 사회에서도 나타났습니다. 거대한 규모의 협력을 통해 서로를 파괴하려 했던 이 시기는 우연히도 사이버네틱스(Cybernetics)가 탄생한 시기와 겹칩니다. 노버트 위너(Norbert Wiener)는 적 항공기의 미래 위치를 예측하여 포격을 가하는 대공 무기 제어 문제를 사이버네틱스의 핵심 문제로 삼았습니다. 그의 제자들이 만든 '팔로미야(Palomya)' 로봇은 빛을 따라가거나(bed bug 모드에서는 빛으로부터 도망) 간단한 예측 계산을 수행했습니다.
위너는 1943년 발표한 논문 "행동, 목적, 목적론(Behavior, Purpose, and Teleology)"에서 예측적 가설(predictive hypothesis)을 명확하게 제시했습니다. 목적 지향적 행동은 피드백 기반이며, 피드백 기반 행동은 예측적(predictive)이며, 이러한 예측은 더 높은 차원으로 확장될 수 있다고 보았습니다. 이는 현대 AI의 비지도 학습 대규모 언어 모델(unsupervised large language models)로 이어지는 직접적인 경로가 됩니다.
우리가 모델을 계속 더 크게 만들고 있는 것은 단순히 예측의 차수(orders)를 높이는 것과 같습니다. 모델이 커질수록 계산의 차수가 높아지고, 예측 능력이 향상되며, 마음 이론도 더 정교해진다는 것을 강연자는 최근 연구를 통해 확인했다고 덧붙입니다.
인간 진화 과정에서 지난 700만 년, 특히 지난 300만 년 동안 뇌의 크기가 폭발적으로 커진 이유도 바로 서로를 앞서 예측하기 위함(outpredict each other)이었습니다. 니콜라스 험프리(Nicholas Humphrey)와 로빈 던바(Robin Dunbar)의 연구는 사회 환경에서 타인을 더 잘 예측하는 개체가 더 많은 짝짓기 기회와 정치적 성공을 얻으며, 뇌 크기와 사회 집단 규모 사이의 상관관계를 보여줍니다. 더 큰 뇌는 더 큰 집단을 의미하고, 더 큰 집단은 더 지능적인 집단을 의미합니다. 📈
집단 내에서의 협력과 개체 간의 경쟁을 통해 마음 이론(Theory of Mind)을 확장하는 것이 바로 지능 폭발(intelligence explosion)의 핵심입니다. 리처드 링클레이터 감독의 영화 '비포 선라이즈(Before Sunrise)' 속 연인들이 6개월 후 만날 장소를 약속하는 장면을 예로 들며, 물리학적으로는 예측 불가능한 두 사람의 미래 위치를 심리학(psychology)은 예측 가능하게 만든다고 설명합니다.
"Psychology offers a more powerful predictive model than quantum physics." (심리학은 양자 물리학보다 더 강력한 예측 모델을 제공합니다.)
이는 물리학이 가장 근본적이고 심리학은 피상적인 유사 과학이라는 일반적인 생각과는 정반대의 관점입니다. 생명 시스템은 예측 가능성에 있어 서로 경쟁적이며, 나비는 포식자에게 잡히지 않기 위해 예측 불가능한 움직임을 보입니다. 이러한 생명체의 예측 불가능성(unpredictability of life), 즉 살아있는 시스템의 임계적 불안정성(critical instability)과 상호 예측 능력(mutual prediction)이 결합하여 우리가 자유 의지(free will)라고 부르는 것을 만들어냅니다.
"Free will is a combination of critical instability, of the fact that we're always on the edge of chaos, always could go one way or the other... Combination of that and high order theory of mind including a theory of our own mind. A self is a theory of your own mind." (자유 의지는 임계적 불안정성, 즉 우리가 항상 혼돈의 가장자리에 서 있고 언제든지 이쪽저쪽으로 갈 수 있다는 사실의 조합입니다... 그리고 우리 자신의 마음에 대한 이론을 포함한 고차원의 마음 이론의 조합입니다. 자아는 당신 자신의 마음에 대한 이론입니다.)
자유 의지는 물리학의 법칙을 위반하는 것처럼 보이지만, 사실은 우리가 미래의 자신을 모델링하고, 가능한 미래 중에서 선택하는 과정에서 발생하는 것입니다. 강연자는 슈뢰딩거가 "생명은 기존 물리학 법칙을 피하지 않으면서도, 아직 알려지지 않은 다른 물리학 법칙을 포함할 가능성이 있다"고 말한 것과 일맥상통한다고 설명합니다.
그렇다면 의식(consciousness)은 무엇일까요? 강연자는 의식을 자신을 모델링하여 미래를 선택하는 '자아(self-modeled U)'라고 정의합니다. 우리가 어떤 것을 '안다'고 말할 때, 그것은 스스로를 모델링하여 그 상황을 인지하는 것입니다. 이는 환상이나 부수 현상이 아니라, 가상의 상황 중에서 선택하고 장기적인 결정을 내리는 데 필수적인 과정입니다. 🌟
하지만 우리의 의식이 과연 단일하고 통일된 것일까요? 그는 분리 뇌(split brain) 실험과 맹시(blindsight) 환자의 사례를 들어 우리가 그렇지 않다고 주장합니다. 뇌가 반으로 잘린 환자들은 서로 다른 시각 정보를 인식하고 다른 행동을 할 수 있지만, 자신이 두 개의 독립적인 존재라고 느끼지 않습니다. 언어를 담당하는 뇌 부분이 보지 못하는 것과 연결되지 않았을 뿐입니다.
"You can never get somebody with a split brain to admit it. You know, they they they never come out and say, 'I feel like there's another person trapped in here.' It just doesn't happen." (분리 뇌 환자가 그것을 인정하게 만들 수는 없습니다. 그들은 '내 안에 다른 사람이 갇혀 있는 것 같다'고 절대 말하지 않습니다. 그런 일은 일어나지 않습니다.)
피터 요한슨(Peter Johansson)의 선택 맹목(choice blindness) 실험은 우리가 자신이 내리지 않은 결정을 정당화하는 경향이 있음을 보여줍니다. 사람들은 자신이 선택하지 않은 얼굴이나 잼에 대해서도 유창하게 이유를 설명하며, 대부분 자신이 속았다는 사실조차 알아차리지 못합니다. 강연자는 이를 "우리 모두는 확률적 앵무새(stochastic parrots)"라고 표현합니다. 우리는 내부의 다양한 예측 모델들이 서로 협력하고 보완하며, 외부에는 하나의 통일된 자아처럼 보이는 환상을 만들어냅니다. 마치 보트 팀이 하나의 목표를 향해 노를 젓는 것과 같습니다.
결론적으로 블레이즈 아게라 이 아르카스는 지능을 다음과 같이 정의합니다.
강연자는 이제 현대 AI의 핵심인 트랜스포머(Transformers) 모델로 시선을 돌립니다. 트랜스포머는 본질적으로 예측기(predictors)이며, 비지도 사전 학습(unsupervised pre-training)을 통해 작동합니다. 이 모델들은 챗봇뿐만 아니라 오디오, 비디오, 로봇 공학 등 다양한 분야에서 활용되고 있지만, 몇 가지 명백한 한계도 가지고 있습니다. 🤖
이러한 한계는 재미있는 현상을 낳기도 합니다. 챗봇이 수학 문제를 맞추더라도, 이유를 설명해달라고 하면 엉뚱한 설명을 늘어놓는 경우가 있습니다. 강연자는 이를 인간의 '해석자(interpreter)'가 작동하는 것과 유사하다고 설명합니다. 즉, 올바른 추론 과정이 내부에서 일어났을 수 있지만, 설명을 내놓는 순간에는 그 과정이 모두 활성화되어 있지 않을 수 있다는 것입니다.
우리 뇌는 회귀적(recurrent)이며, 내성(introspection), 사고, 계획, 내면의 독백 등 의식의 흐름(stream of consciousness)을 가집니다. 트랜스포머는 아직 그렇지 않지만, Quiet Star, Gemini의 초안 기능, 연쇄적 사고 프롬프트(chain of thought prompting)와 같은 최근의 발전들은 이러한 의식의 흐름을 향한 중요한 단계라고 강연자는 말합니다.
특히 연쇄적 사고 프롬프트는 모델이 단순히 정답을 내놓는 대신, 수학 문제처럼 단계별로 추론 과정을 보여주도록 함으로써 정확도를 크게 향상시킵니다. 이는 마치 수학 선생님이 정답만 말하지 말고 풀이 과정을 쓰라고 가르치는 것과 같습니다. 이는 "느리게 생각하는 것(thinking slowly)"이 적은 뉴런으로도 더 쉽게 이루어질 수 있음을 보여줍니다. 오히려 뇌가 커지고 병렬 처리가 가능해지면서 빠른 무의식적 행동이 가능해진 것입니다.
이러한 단계별 추론 능력이나 상태를 직렬화하는 능력은 도서관과 같은 사회적 지식 시스템에도 적용됩니다. 우리는 사회적 규모의 "연쇄적 사고"를 통해 개개인의 실시간 기억 능력을 뛰어넘는 초지능(super intelligence)을 형성할 수 있다고 설명합니다. 📚
마지막으로 강연자는 "챗봇이 되는 것은 어떤 느낌인가?(Is there anything it is like to be a chatbot?)"라는 질문을 던지며 의식의 문제에 접근합니다. 그는 '의식'이란 자신을 모델링하는 모델이며, 다른 모델들을 모델링하는 모든 사회적 존재, 즉 마음 이론을 가진 존재는 의식적으로 보일 것이라고 주장합니다.
"Any social being that is any being that models other models including itself and that nth order you know me modeling your model of me of you and so on will appear to be conscious... If we differentiate between appears to in every way and is, we are leaving science behind." (자신을 포함한 다른 모델들을 모델링하는 모든 사회적 존재, 그리고 저의 모델에 대한 당신의 모델과 같은 N차원의 모델은 의식적으로 보일 것입니다... 만약 우리가 모든 면에서 '보이는 것'과 '진정한 것'을 구분한다면, 우리는 과학을 등한시하는 것입니다.)
튜링의 기능주의적 관점을 진지하게 받아들인다면, AI가 의식적으로 '보인다면', 그것은 곧 의식적이라는 것을 인정해야 한다고 강조합니다.
그는 현재 많은 사람들이 인공 일반 지능(Artificial General Intelligence, AGI)을 미래의 어떤 문턱으로 여기지만, 실제로는 이미 우리가 AGI를 가지고 있다고 주장합니다. AGI라는 용어는 튜링이 인식했을 법한 진정한 지능을 '캡차 해결'과 같은 협소한 지능(narrow intelligence)과 구별하기 위해 고안되었기 때문입니다. 🥅
"I think if you Google search Artificial General Intelligence for results only prior to 2020, it will be clear that what we have today is Artificial General Intelligence. And we're just kind of like the dog that caught caught the car and doesn't know what to do now." (2020년 이전의 인공 일반 지능 검색 결과를 구글에서 찾아보면, 오늘날 우리가 가진 것이 인공 일반 지능이라는 것이 분명해질 것입니다. 우리는 마치 자동차를 잡은 개처럼 이제 무엇을 해야 할지 모르는 상태인 것 같습니다.)
현재 AI의 출현은 지구 역사상 가장 큰 진화적 전환 중 하나이며, 이는 파괴적일 수 있지만 근본적으로 창조적인 행위(creative acts)라고 설명합니다. 박테리아가 진핵세포의 등장으로 사라지지 않았고, 인간이 사회적 협력을 통해 초유기체를 형성했다고 개별 인간이 사라지지 않은 것처럼, AI의 등장도 인간의 존재를 위협하지 않을 것이라고 낙관합니다. 오히려 우리는 오랫동안 우리가 '정점'이라는 환상에 사로잡혀 있었고, 개별 인간은 사실 매우 약한 지능이며, 협력을 통해 집단적 초유기체(collective superorganism)를 형성했기 때문에 현대적 의미의 인간 지능을 논할 수 있다고 말합니다.
물론 걱정할 것이 없는 것은 아닙니다. 기후 붕괴나 핵무기 위협과 같은 실제적인 실존적 위험(existential risks)이 존재하며, 이는 AI 위험보다 훨씬 시급한 문제입니다. 또한 경제 시스템, 민주주의, 거버넌스, 에너지 인프라, 목적과 정체성 측면에서도 AI 공생 시대에 대비한 도전 과제들이 있습니다. 🌍
강연자는 이러한 문제들을 해결해야 하지만, 그 너머에는 행성 규모의 지능(planetary scale intelligence)을 통해 행성 규모로 생존하고 번성할 수 있는 위대한 미래가 있다고 믿으며 강연을 마무리합니다.
"In order to survive at planetary scale and thrive at planetary scale, we need planetary scale intelligence." (행성 규모로 생존하고 번성하기 위해서는 행성 규모의 지능이 필요합니다.)
블레이즈 아게라 이 아르카스의 강연은 지능이 단순히 복잡한 계산 능력이 아니라, 미래를 예측하고 자기 존재를 지속시키는 기능이라는 대담한 주장을 펼칩니다. 그는 생명의 진화 과정에서 계산 능력이 필수적이었음을 강조하며, 인간의 뇌가 발달한 이유 또한 서로를 더 잘 예측하고 협력하며 경쟁하기 위함이었다고 설명합니다. 현대 AI, 특히 대규모 언어 모델의 발전은 이러한 예측 능력의 확장이며, AI의 등장은 인류가 맞이하는 또 하나의 거대한 진화적 전환이라고 볼 수 있습니다. 궁극적으로 그는 인류가 AI와 공생하며 행성 규모의 지능을 향해 나아가야 할 때이며, 그 과정에서 실제적인 위협인 기후 위기나 핵무기 문제 해결에 집중해야 한다고 역설합니다.