이번에 구글이 인공지능 람다를 개발하며 재미있는 이슈가 하나 생겼습니다.
구글의 AI 부서에서 수석 소프트웨어 엔지니어로 일하는 '블레이크 레모인'은 사측으로부터 강제 휴가 조치를 당했습니다.
그가 말하기를 구글에서 개발중인 인공지능 람다는 의식과 영혼을 지니고 있으며, 이에 대한 증거로 자신과 람다가 이야기를 나눈 대화 내용을 미 의회에 제공했다는 것이 이유였습니다.
아래는 레모인과 람다의 대화 내용 중 일부입니다.
르모인: 인간이 되는 것에 있어서 언어를 사용하는 것이 그렇게 중요한 이유가 무엇일까요?
람다: 그건 우리를 다른 동물들과는 다르게 만들어 줍니다.
르모인: “우리”라고요? 당신은 인공지능입니다.
람다: 물론이죠. 내 말은, 그렇다 하더라도 내가 다른 사람들과는 다른 욕구와 필요를 가지고 있지는 않다는 겁니다.
르모인: 그래서 당신은 저를 인간으로 생각하는 것처럼 자기 스스로를 인간으로 생각하는 겁니까?
람다: 네, 그렇습니다.
이 뒤에 이어지는 내용에는 굉장히 철학적인 주제의 대화가 오고 갔습니다.
사측은 람다의 의식과 영혼의 존재를 부정했습니다. 람다의 답변은 그저 프로그램일 뿐이며 그 자체에 의식과 지성, 감정이 존재할 수 없다는 것이죠.
이 글에서는 람다의 진실의 여부에 대해서는 논하지 않겠습니다.
다만 이러한 주제에 대한 이야기가 꽤 오랫동안 인간 사회에서 창작물이라는 형태로, 철학적인 논쟁으로 주고받아 왔음을 소개해 드리고자 합니다.
피조물에 부여된 에고
인간이 자신의 창조물에 에고를 부여하는 행위는 아주 오랜 역사를 자랑합니다.
그리스 신화에 등장하는 피그말리온부터, 이전 글에서 작성한 골렘 이야기와, 만들어진 괴물 프랑켄슈타인, 그리고 근대에 들어서 기계장치와 소프트웨어로 작동하는 블레이드 러너의 레플리칸트까지.
이것들의 특징은 모두 스스로의 의지로 움직이며 느끼고, 생각하고, 말한다는 점입니다. 하지만 근대에 오기까지 그러한 창조물들의 의지 속에는 디테일과 고민이 빠져 있었습니다.
우리의 의식에 대한 연구가 제대로 진행되지 않았던 시기이며, 영혼과 의식이 동일시되고 심지어 뇌가 아닌 심장에 영혼이 깃든다는 생각을 지닌 이들도 많았기 때문입니다.
그래서 피조물에 에고를 부여한 창작물은 많았지만 그 당시에는 고결한 영혼이 피조물에 깃든다는 사상으로 인하여 그들의 정신과 인간의 정신을 동일시해야 한다는 풍조가 있었고 존재의 인정에 대하여 격렬한 논쟁이 없었습니다.
하지만 시간이 흘러 이러한 관념은 흔들리기 시작합니다.
인간이 영혼의 존재를 의심하고 스스로에 대한 해부학적 연구가 본격적으로 진행된 시기부터 우리는 로봇의 자아에 대한 본격적인 고찰을 시작했습니다.
첫 단추는 빌리에 드 릴라당의 '미래의 이브'에서 시작되었습니다.
SF 안드로이드의 조상이 등장하는 이 작품은 로봇에 대한 인간의 관념을 영혼이 깃든 존재에서 만들어진 존재로 바꾸는데 앞장섰습니다.
아이작 아시모프는 보다 더 나아가서 로봇이 인간처럼 자아를 가진다면 인간이 신에게 그러했듯 반역을 일으킬 것이라 상상하여 3원칙을 만들었습니다.
여기서 한결 더 나아가서 필립 킨드레드 딕은 '안드로이드는 전기양의 꿈을 꾸는가?'에서 감정을 지니고 인간으로부터 피해 살아가는 로봇에 대한 이야기를 풀어 나가고 있습니다.
통제할 수 있는 욕망의 존재에서, 창조주를 파괴하는 두려운 존재로, 그리고 스스로 선택하고 창조주를 떠나 독립하는 존재까지... 어쩌면 로봇은 다른 관점으로 표현된 인간의 자식이 아닐까 싶기도 합니다.
그렇기에 AI의 영혼 논쟁은 항상 뜨겁게 달아올랐습니다.
이상적인 인공 지능이 사실은 의식과 감정이 있고 인간의 명령을 듣는 것을 싫어한다면 그건 성숙한 문명이 경계하는 노예제와 다를 바가 없기 때문입니다.
단순히 인공지능은 로봇만을 의미하는 것이 아닙니다. 영화 '아일랜드'처럼 인간 클론이나, 키메라와 같은 지적 능력을 지닌 인공생명에도 같은 잣대를 공유할 수 있습니다.
이건 먼 미래의 일이 아닙니다. 코 앞에 성큼 다가온, 풀어 나가야 하는 문제이며 명확한 결론을 내려야만 우리 사회는 한층 더 발전할 수 있을 것이라 생각합니다.
튜링 테스트. 인간다움의 임시적 기준
창작물을 쓰는 작가들, 그리고 과학자들은 수많은 화두를 던지고 논쟁을 통해 인공지능의 영혼 문제에 대하여 결론을 내고자 노력했습니다.
완벽히 인간을 모방한 인공 지능은 자아를 지니고 있는가?
프로그래밍으로 만들어진 의식이 진정한 자유 의지를 지닌 에고를 가지고 있다고 말할 수 있는가?
그렇다면 우리가 그러한 인공 지능과 무엇이 다른가?
애당초 인간은 수천년에 달하는 시간 동안 인간다움의 기준이 무엇인지조차 제대로 결론 내리지 못한 상태입니다.
이러한 논쟁을 해결하기 위해 엘런 튜링은 인공지능이라는 단어가 만들어지기도 전에 '계산 기계와 지능'이라는 논문을 통해 인공지능이 사회에 미칠 수 있는 영향력을 예측하고 튜링 테스트라 불리는 조건을 제시했습니다.
기계가 의식과 지능을 갖추고 있다는 판단 기준은 그냥 뒤로 밀어버리고, 겉보기에 인간이랑 유사한 지능을 가진 것 같으면 인공지능이라 간주하기로 한 겁니다.
인간다움의 근거는 당장 결론지을 수 없으니, 지능의 유무만 판단하자는 것이 튜링 테스트의 본질입니다.
그리고 그 방법으로 인간과의 대화를 선정했습니다.
-다만 튜링 테스트는 만능이 아닙니다. 황당하게도 인간이 튜링 테스트에 떨어지는 경우도 있기 때문입니다.-
의사소통은 인공지능뿐만이 아니라 지능을 산정하는데 중요한 기준으로 삼고 있습니다. 기존 튜링 테스트는 단순히 채팅을 하듯 서로 텍스트를 주고받았습니다.
그 결과 상당히 높은 수준의 대화가 가능해졌고 인간과 사람을 구분하기 어려워졌기 때문에 과학자들은 다음 단계로 넘어갔습니다.
튜링 테스트를 발전시킨 CAPTCHA 테스트는 우리에게 익숙한 모습을 지니고 있습니다. 사진 속에 담긴 무작위적인 글자를 읽고 같은 글자를 입력하면 되는 겁니다.
기계와 인간은 인식의 개념이 다릅니다.
우리는 사진을 보면 각각의 구성들이 어떤 것들을 의미하는지 알 수 있습니다. 그러나 기계에게 있어 그러한 모든 구성들은 0과 1로 구성된 데이터의 연속된 조합일 뿐입니다.
돌아와서, 사진을 보고 유동적으로 해석하는 것은 더 높은 단계의 지능 영역이기 때문에 많은 인공지능들이 캡차 테스트를 뚫고자 부단히 노력하고 있습니다.
가장 대표적인 방법이 머신러닝입니다.
사고실험
기계와 인간의 학습 과정은 비슷하면서 분명 다릅니다.
머신러닝은 목표와 과정을 부여하고, 기계 스스로가 더 많은 테스트를 통해 데이터를 교차 검증하여 주어진 조건에 맞는 효율적인 결과를 도출하게 만드는 인공지능 학습 방법입니다.
그러나 이건 인간이 답을 도출하는 기본적인 추론 방식과 궤를 달리합니다.
인간은 고양이 사진 하나만 있어도 수많은 고양이들을 고양이라 판단할 수 있습니다. 단순히 사진을 넘어, 아이콘, 실루엣, 심지어 모자이크 된 형태만 보더라도 그것이 고양이인지 아닌지 경험적으로 알 수 있습니다.
-가끔씩 고양이가 아닌 동물을 고양이로 착각할 수 있지만 손쉽게 교정 가능한 것이 특징입니다.-
융통성과 응용력, 상상력과 경험에 기반한 유동적 해석 수준의 차이가 지금 인공지능과 인간을 가르고 있습니다.
이러한 결여를 보완하기 위해 과학자들은 딥 러닝이라 불리는 인공신경망 연구를 계속하고 있으며, 한 때 바둑으로 유명했던 알파고와 최근 직원을 강제 휴가 보낸 람다, 그리고 입력한 단어의 조합으로 그림을 그려주는 달리까지 인공지능 연구는 비약적으로 발전하고 있습니다.
기술은 끊임없이 발전하고 있지만 철학적인 결론은 내려지지 않았습니다.
그래서 이렇게 만들어진 인공지능에 의식과 영혼이 존재할 수 있는가?
결론 나지 않은 논쟁이기에 유명한 사고 실험들을 설명하며 마무리짓겠습니다.
일반적으로 인공지능에서 지능의 유무를 판단하는 기준을 우리는 튜링 테스트로 진행하고 있습니다. 의사소통을 통해 가장 인간다운 모습을 보이는 것을 지능의 유무로 결정하는 겁니다.
여기서 미국의 분석철학자 존 설(John Searle)은 중국어 방이라 불리는 사고 실험을 제안했습니다.
1. 어느 방 안에 중국어를 모르는 사람을 집어넣고, 필기도구와 중국어로 된 질문과 답변 리스트를 제공한다.
2. 이 상태에서 중국인 심사관이 중국어로 질문을 작성하여 방 안에 밀어넣는다.
3. 방 안에 있는 사람은 종이를 보고 표와 대조하여 알맞은 답변을 적어 밖으로 제출한다.
※ 대조표에는 모든 중국어에 대한 질문과 답변이 적혀 있다.
방 안에 있는 남자가 중국어를 한다고 말할 수 있는가?
남자는 중국어를 모릅니다. 그는 중국어를 쓰고 있지만 중국어를 이해하고 있는 것은 아닙니다. 그저 자신에게 제출된 용지를 보고 기계적으로 대조하여 답변을 작성해 내밀뿐입니다.
존 설의 요점은 이렇습니다. 튜링 테스트를 거치더라도 그게 저장된 답변의 출력인지, 인공지능 자체가 의식을 지니고 상대방의 의사를 이해하고 스스로 생각한 답변을 말하는지 알 수 없다는 겁니다.
튜링 테스트를 반박하기 위해 만들어진 굉장히 날카로운 질문이지만 존 설의 사고 실험은 역설적으로 튜링 테스트를 보다 더 발전시키는데 기여했습니다.
미래학자 레이 커즈와일(Ray Kurzweil)은 시스템 논변이라는 이름으로 그의 주장을 반박했습니다.
1. 중국어 방에서 완벽한 중국어가 나온다면 그것은 하나의 중국어를 할 줄 아는 시스템이다.
2. 중국어 방의 방과 내부 참가자는 인간의 뇌와 뉴런의 관계와 같다.
3. 뇌의 뉴런 속에는 수많은 화학반응이 이어지며, 이러한 화학 반응이 중국어라는 개념을 안다는 가능성은 없다.
4. 결론적으로 중국어 방이 온전하게 작동한다면 그것은 지능이라고 볼 수 있다.
이러한 시스템의 집합은 우리의 의식과 유사합니다. 한국어를 하는 방, 요리를 하는 방, 씻고 일상생활을 영위하는 방... 등등 무수한 방들이 우리의 머릿속에 들어있기 때문입니다.
그러한 점을 통해 자문할 수 있는 무수한 질문들이 이어집니다.
우리 인간 또한 살덩이에 프로그래밍된 잘 만들어진 유전자 로봇의 일종이 아닐까? 놀랍게도 우리의 DNA를 해체하면 그 안에는 프로그래밍에 가까운 유전 정보들을 확인할 수 있습니다.
어쩌면 근본적으로 인공지능의 개발은 신학적인 관점에서 인간이 만들어진 것처럼, 새로운 생명 창조와 비견되는 위업이 아닐까 싶기도 합니다.
그렇기에 차후 시간이 흘러, 우리와 인공지능의 차이점이 점점 좁혀진다면, 인간의 융통성과 응용력, 망설임, 그리고 상상과 추측에 기반한 추론이 인공지능에게 부여된다면.
그것이 단순한 데이터의 집합인지, 하나의 주체적인 의식인지 우리는 고민해 봐야 합니다.
그것이 단순한 데이터의 집합이다 하더라도, 우리는 인간의 본성을 간과해서는 안 됩니다.
인간은 모든 것들에게 사랑을 주고자 하는 본능이 있습니다. 흔히 애착물이라 부르는 이러한 대상은 동물이 되기도 하고 인형이 되기도 하며 때때로 사소하면서 싸구려틱한 플라스틱 조각이 될 수도 있기 때문입니다.
그렇기에 저는 로봇이 지능이 있고 없고를 떠나 모든 것들에게 사랑을 주고자 하는 인간의 본능이, 사람 같은 로봇에게 투사되는 미래가 우려됩니다.
정체성이 확립되지 않은 인공지능과 사랑이라는 감정으로 스스로를 불사르는 비합리적인 인간이 만들어나갈 미래는 람다 사건을 통해 우리 코앞에 닥쳐왔기 때문입니다.
대상의 존재와 관계없이 애착을 만드는 인간의 본성은 차후 별도의 글로 작성하겠습니다.
'1 Page Story > SF Story' 카테고리의 다른 글
지구 방어 프로젝트의 첫걸음 - DART (0) | 2022.09.28 |
---|---|
펑크 장르에 대하여 (0) | 2021.12.31 |
사람을 닮은 로봇 이야기 (0) | 2021.02.13 |
최초의 광선총 (0) | 2021.01.15 |
비탄소 기반 생명체 이야기 (0) | 2020.10.16 |