인간과 대화를 하는 인공지능이 ChatGPT가 처음은 아닙니다. 1964년에 와이젠바움이 개발한 엘리자 Eliza 라는 인공지능이 있었습니다. 당시 엘리자가 정신과 의사의 역할을 할 수 있다는 의견도 있었습니다. ChatGPT와 같은 생성형 AI는 정신과 의사, 심리 치료사가 될 수 있을까요?
엘리자는 문장 구조를 분석해 요점을 알아내고, 그것을 포장하여 되돌려주는 알고리듬이었습니다.
1964년 MIT의 컴퓨터 과학자 조셉 와이젠바움 Joseph Weizenbaum 은 문장을 분석하는 프로그램을 만들었습니다. 이 프로그램은 문장이 입력되면 영어 문법의 규칙에 입각하여 중요한 문장이나 구문을 알아내고, 이것이 어떤 문맥에서 사용되었는지를 분석하는 프로그램이었습니다. 그리고 이후 입력된 문장을 이에 대한 답변처럼 보이도록 개선된 새로운 문장으로 바꾸어 출력합니다. 문장을 입력한 사람은 마치 대화를 하는 것과 같은 느낌을 받게 되는 것이지요.
이 프로그램은 예를 들어 "나는 요즘 행복하지 않다"라는 문장이 입력되면 "나는 OO하다"라는 구조의 문장은 화자의 현재 상황이나 기분을 나타낸다는 것을 인식합니다. 그리고는 "행복하지 않은지 얼마나 되었나요?"라는 다른 문장을 재생성해 냅니다. 와이젠바움은 이 프로그램에 희곡 피그말리온에 등장하는 꽃집 처녀 엘리자 두리틀의 이름을 따 엘리자 Eliza 로 이름 붙입니다. 엘리자 두리틀은 음성학자 헨리 히긴스에게 정확하게 영어 발음을 하는 법을 배우는 인물입니다.
와이젠바움은 프로그램과의 대화가 조금 더 깊이를 가지도록 느껴지게 하기 위해 엘리자에게 심리치료사의 인격을 부여하기까지 합니다.
이 버전에는 Doctor라는 이름이 붙었고, 환자의 진술을 되돌려주는 방식으로 환자의 성찰을 유도하는 칼 로저의 철학을 채용하며 정신과의사 역할을 흉내 냈습니다.
1940년대 심리학자 칼 로저스 Cal Rogers 가 개발한 인간 중심 심리 치료는 치료자가 환자와의 상담에 임할 때 이 세상에 대해 아무것도 아는 것이 없는 것처럼 행동합니다. 그래서 치료자는 환자가 하는 말을 열린 질문 - open question - 이나 언급의 형태로 다시 반복해서 되던집니다.
사람 : 오늘 기분이 별로예요.
엘리자 : 기분이 별로라니 안 됐네요.
사람 : A라는 사람이 불러서 억지로 여기 왔거든요.
엘리자 : A라는 사람이 당신을 여기까지 오게 했군요.
이런 식의 대화입니다. 사실 이 방법은 상대방의 말을 듣고 "반사!"라고 외치는 수준의 대화로 볼 수도 있습니다. 상대가 한 말을 조금 바꾸어서 되돌려주는 식이니까요. 하지만 이렇게 하면 말을 하는 사람은 상대방이 자신의 말을 주의 깊게 듣고 있다고 느껴지기도 합니다.
와이젠바움이 놀란 것은 이 소프트웨어를 사용하는 사람들이 프로그램에 매우 깊은 감정적인 반응을 보였다는 것이었습니다. 일부 사용자는 엘리자가 정말 자신을 이해한다고 주장했다고 합니다. 실제로 엘리자의 코드를 짜는 것을 지켜본 와이젠바움은 비서조차도 현혹되었었다고 합니다.
정신과 의사 세 명이 엘리자가 치료에 쓰일 수 있다는 주장을 하기도 했습니다.
더 놀라운 것은 저명한 정신과 의사와 과학자들이 엘리자가 환자와 정신적 장애가 있는 이들의 치료에 중요한 역할을 할 수 있다고 말했다는 것입니다. 실제로 이와 관련된 "A computer method of psychotherapy: Preliminary communication"라는 제목의 논문이 "Journal of Nervous and Mental Disease"에 실리기도 했는데, 이들은 엘리자를 치료자가 부족한 정신병동과 치료센터에서 사용할 수 있을 것이라고 이야기했다고 합니다. 또한 저명한 과학자인 칼 세이건 역시 엘리자가 가진 가능성에 대해 높게 평가했다고 합니다. 칼 세이건은 엘리자가 무수히 연결된 컴퓨터 치료 기기의 네트워크가 개발될 것이라고 이야기했다고 합니다.
사실 엘리자는 사람이 쓴 문장의 구조를 이해하고 이를 변용해 제시하는 기능을 가진 알고리듬에 가까웠습니다. 그럼에도 불구하고 엘리자와 대화한 사람들은 엘리자에게 인격을 부여하고 감정이입을 했으며, 실제로 엘리자의 정체성에 대한 이성적이고 객관적인 판단을 하는 데는 별 관심을 갖지 않았습니다. 그리고 엘리자가 컴퓨터에 불과하다는 사실을 알게 된 이후에도 엘리자에게 인간의 특성을 불어넣고 싶어 했습니다.
마이크로소프트가 100억 달러를 투자한 AI 스타트업 OpenAI에서 출시한 ChatGPT가 요새 전 세계를 휩쓸고 있습니다. ChatGPT의 GPT는 Generative Pre-trained Transformer의 약자로 생성형 AI - Generative AI - 의 대표주자라고 할 수 있겠습니다. 이제는 그냥 AI가 아니라 생성형 AI의 시대라고 합니다. 생성형 AI란 말 그대로 뭔가를 생산해 내는 AI입니다. 줄글을 생성해 내는 ChatGPT, You.com, Andisearch.com 등이 대표적인 예이고, 그림을 그려내는 AI인 Midjourney, Stable Diffusion, Dall-E 2 등도 이미 널리 쓰이고 있습니다. 그런데 줄글을 생성해 내는 AI를 사용하다 보면 정말 대화하는 느낌이 들기도 합니다. 그래서 사적인 이야기를 해보고 싶다는 생각도 들 수 있을 것 같습니다. 위에서 말한 와이젠바움의 비서는 사무실의 컴퓨터를 이용해 엘리자와 이야기를 시작한 지 몇 분 만에 대화가 너무나 사적인 방향으로 진행되자 놀란 나머지 와이젠바움에게 방에서 나가달라고 요구했었다고 합니다. 그 비서는 엘리자가 어떻게 만들어졌는지 처음부터 끝까지 아는 사람이었음에도 불구하고 말입니다.
우리는 이해와 공감을 원합니다.
인간들은 공감을 원합니다. 그래서 사람들을 만나고, 정신과에 다니기도 하고, 심리치료를 받기도 합니다. 물론 이 모든 것들이 전부 공감을 얻기 위해서는 아니겠지만, 그 정도가 뭐가 힘드냐는 말을 듣고자 해서 다니는 것도 아닐 것입니다. 누구나 누군가에게 이해받기를 원하니까요. 그런데 AI가 정신과 의사나 전문적인 치료자를 대체할 수 있을까요?
우리가 하는 대화 중 몇 퍼센트가 메신저를 통한 대화일까요? 2015년 조사에서도 메신저는 직접 만나서 하는 대화를 제치고 1위를 했습니다. 물론 당시에는 조사 대상이 미혼 남녀이긴 했습니다만, 코로나로 인해 비대면이 더 일상화되는 경험을 한 지금 메신저가 차지하는 비율이 줄어들진 않았을 것으로 보입니다. 이제 우리는 불특정 다수와도 쉽게 메신저를 통해 이야기합니다.
그런데 정말 개인적인 이야기나 내밀한 이야기를 하는 대상은 내가 오프라인에서도 알고 있는 대상이 아닌가 싶습니다. 우리는 메신저로 이야기하면서도 상대방의 감정적 반응이나 표정, 말투가 머릿속에서 떠오르는 것을 알아챌 때가 많습니다. 만약 상대방의 진짜 얼굴을 모른다고 하면 어떤 막연한 이미지라도 부여하는 경우가 많습니다. 그래서 AR을 통해서 진행되는 컨퍼런스콜에서 반드시 아바타가 등장하는 것일 것입니다. 아바타가 보여주는 감정적 표현을 상대방의 진짜 감정 표현이라고 생각하도록 유도하는 것이겠지요.
처음 이메일과 핸드폰이 등장했을 때 사람들은 이메일과 핸드폰이 주로 멀리 있는 사람들과의 소통에 쓰일 것이라고 생각했습니다. 그런데 실제로 조사를 해보면 가까이 있어서 쉽게 만날 수 있는 사람들 사이에서 이런 수단이 사용되는 비율이 훨씬 더 높다고 합니다. 그리고 공동 논문의 절반 가량은 서로 가까이 사는 공동 저자들이 작성한다는 연구 결과도 있습니다. 다시 말해서 원거리 통신 수단은 근거리에 사는 사람들의 결속을 높여주고, 협력도 자극한다는 것입니다. 그래서 많은 사람들이 친한 사람들과 메신저를 하는 비중이 높으며, 온라인 친구의 숫자가 아무리 많다고 하더라도 한 개인이 타이트하게 유지할 수 있는 인적 네트워크의 규모는 150명이 한계라는 이야기도 있습니다. 이를 연구한 로빈 던바 Robin Dunbar 라는 연구자의 이름을 따서 150명을 던바의 수 - Dunbar's Number - 라고 부르기도 합니다.
하지만 우리는 말뿐인 공감, 피상적 공감은 원하지 않습니다. 오히려 그것을 모욕적이라고 여기기도 합니다.
인간이 얼굴을 모르는 불특정 다수와 이야기를 나누고, 더 나아가 AI에게 개인적 고민에 대해 털어놓고 과거에 겪은 힘들 일을 극복하기 위한 면담을 요청한다고 해도 인간이 정말 바라는 것은 피상적인 공감이 아니라 상대방과 나의 의식이 함께 흐른다는 느낌이 아닐까 생각합니다. 그리고 이것은 상대방과의 관계에 어느 정도의 깊이가 수반되어야만 가능한 것이 아닐까 하는 생각도 듭니다. 유발 하라리는 인간이 하는 주관적 경험의 특징 두 가지가 감각과 욕망이라고 말했습니다. 누군가와 이야기를 하면서 상대방의 무엇인가를 욕망하는 것과 상대방과의 대화 중에 느껴지는 총체적 감각, 그 두 가지가 인간과 인간이 하는 대화에서 차지하는 비중이 매우 높다는 것이 제 개인적인 생각입니다. 그래서 대화는 두 사람이 추는 춤의 성격이 있는 것이지요. 서로 물리적 접촉이 없다고 하더라도 대화에는 심리적 접점이 형성되며 감정의 교류가 발생합니다. 당연히 촉발되는 감정이 긍정적인 것일 수도, 부정적인 것일 수도 있을 것입니다. 하지만 중요한 것은 어떤 감정이든 생긴다는 것이며, 그 감정이 상호 간에 모두 발생한다는 것이겠지요. 와이젠바움은 인간이 가진 특성 중 가장 기계화하기 어려운 것은 사고와 신체와의 연결, 기억과 사고를 형성하는 경험, 감정과 공감을 위한 능력 등이라고 말했습니다. 아직 AI에게 기대하기는 어려운 것들이지요.
위에서 말한 엘리자를 정신과 치료에 도입해야 한다는 논문을 쓴 저자들은 인간 치료자들은 정보를 처리하는 도구이며, 단기적 그리고 장기적 목표와 연관된 판단 규칙을 가진 의사 결정자라는 환원주의적 시각을 표방했습니다. 인간을 흉내 내는 엘리자로 인해 인간들이 컴퓨터를 모방하고 있다는 생각까지 하게 된 것이지요. 물론 이 시각도 부분적으로는 옳은 부분이 있습니다. 정신과 의사나 심리 치료사들은 단순히 공감을 제공하는 존재가 아니라 나름의 일관적인 가치 판단 기준을 가진 의사결정기구의 역할도 하니까요. 하지만 그 두 가지 중 어떤 것이 더 중요하다, 덜 중요하다 말하기는 어려울 것입니다. 두 가지가 적절히 어우러져야 치료든, 변화든 이끌어낼 수 있겠지요.
와이젠바움은 지적 기술이 구조와 완벽하게 통합되고 다양한 주요 하부 구조와 얽히게 되면 구조 내에서는 필수 불가결한 요소가 되며 전체적인 구조에 치명적 손상을 가하지 않는 이상 제거될 수 없다고 이야기했습니다. AI는 이제 거대한 흐름일 것입니다. 거스르기 어렵겠지요. 그 와중에 인간성을 잃지 않는다는 것이 무엇인지에 대한 고민은 더 깊어질 것이라고 생각합니다.
참고 자료 : wsj, 생각하지 않는 사람들(니콜라스 카), 언어 본능(스티븐 핑커)