AI 연작 1: ChatGPT와 이해의 문제

앞으로 여러 번 AI에 대해 끄적이게 될 것 같아, 야심차게 연작이라 불러본다. 긴 호흡으로 생각을 엮어 글을 쓰려고 하니, 자꾸 게을러져 포기하니, 짧게나마 생각을 정리해서 올리고자 한다. 오늘은 이제 모두가 한 번쯤은 써봤을 미래를 보여주고 있는 ChatGPT (이하 GPT)에 대해서 얘기해보겠다.

아직도 채팅 이상의 GPT의 능력을 보지 못했다면 이 링크들을 추천한다 (GPT4 공식 발표, iPhone App 만들기, Her 만들기, Microsoft Copilot).

1

GPT의 가장 중요한 점은 사람의 말을 말 그대로 “이해”한다는 것이다. 그리고 이해를 바탕으로 말에 담긴 명령을 마치 사람처럼 놀랍게도 정확하게 수행할 수 있다. 많은 사람들은 GPT가 실제로 이해를 한 것은 아니라, 단순히 주어진 문장 다음에 나올 단어를 확률적으로 분석하여 가장 그럴듯한 다음 단어를 고르고 그 과정을 반복하는 것에 지나지 않는다고 얘기하기도 한다. 그래서 이해를 한 것처럼 보여질 뿐 구조적으로는 매우 단순한 수학적 모델에 불과하다는 것이다. 그리고 그 모델은 인터넷 구석구석을 찾으며 모은 데이터의 요약본이지 (이조차 매우 놀랍지만), “이해”를 한다는 것은 아니라고 한다. 물론 맞는 말이다. 그렇기 때문에 Hallucinate라고 하여 없는 말들을 지어내기도 하고, 명백히 틀린 말을 아주 자신감 있게 하며, 유저가 되려 틀렸다고 일갈 하기도 하고, 전문가가 아니면 시비를 가릴 수 없는 교묘하게 틀린 코드를 생산해내기도 한다. (애석하게도 GPT는 어설프지도 않고 땀을 삐질거리며 당황하지도 않다).

그렇다면 이해한다는 것은 무엇일까? 인식론적인 측면에서는 아는 바가 거의 없으니, 일반인들이 생각하는 상식적인 수준에서 한 번 얘기해보자 (신기하게도 새로운 기술들이 나올때 마다 결국 모든 질문들은 우리 자신에게 돌아온다. 우리가 생각하는 이해란 무엇인가? 이해는 인간만의 전유물인가? 이해라는 것은 의식과 함께 가는가?). 다시 본론으로 돌아와서, 간단하게 말해 이해라는 것은 애초에 블랙박스와 같은 것이다. 누군가가 나에게 한참 가위바위보의 원리를 설명하고, 내가 고개를 끄덕였다면, 그건 내가 가위바위보를 이해한 것일까? 내가 연신 고개를 끄덕이곤 엄지와 새끼를 펴 핸드폰 모양을 만들면 핸드폰!이라 외치면 나는 이해를 한 것일까? 이해라는 것은 아웃풋을 통해서만 가늠할 수 있다.

이해를 했는지 판단하기 위해서 A라는 인풋이 들어왔을때, 어떤 결과물이 나오는지 보고 비로소 판단 할 수 있을 있다. 어떤 결과물이 나왔는지, 그 결과물이 어떻게 나왔는지 설명할 수 있고, 그 설명이 맞을 때 우리는 비로소 그 사람이 어떤 것을 이해했다고 얘기한다. 가위바위보에서 제대로 가위를 내고, 보에게 이긴다는 걸, 바위에게 진다는 걸 보여주면 되는 것이다.

그렇다면 GPT에도 비슷한 방법론을 적용할 수 있지 않을까? 반대의 예시를 먼저 한 번 살펴 보자. 구글의 자연어 이해를 동반한 챗봇인 Dialogflow의 경우에는 사용자가 일일히 Intent (인텐트)가 무엇인지 (예를 들어: 물건 구매), Entity(개체)가 무엇인지 (예를 들어: 채소군, 그리고 아래 당근 같은 하위 개념)을 먼저 지정해줘야 한다. 단순히 “너는 고객 서비스 챗봇이야. 이 정보를 바탕으로 고객에게 알맞게 응대해줘”라고 말해서 작동할 수 없는 것이다. 그럼 자연어 처리가 어디 있냐고 묻는다면, 비슷한 말을 기존에 인텐트로 지정하지 않아도 미리 입력해놓은 인텐트와 동일한 인텐트로 인식하는 부분 등에서 찾을 수 있다.

이제 GPT로 돌아와보자. GPT는 “너는 고객 서비스 챗봇이야. 이 정보를 바탕으로 고객에게 알맞게 응대해줘” 만으로도 추가적인 작업 없이 꽤 그럴듯한 고객 응대를 할 수 있다. OpenAI Playground에서 간단하 예시를 만들어 보았다.

어떠한가? 물론 완벽하지 않고, 내가 의도했던대로 위치에 대한 정보를 물어봤을 때 내 이메일을 제공하지도 않았다. 하지만 위 예시로만 보더라도 내 말을 이해했다고 볼 수 있지 않을까? 적어도 이해한 것처럼 보이긴 한다. 내가 결국 여기서 궁극적으로 얘기하고 싶은건 GPT가 말을 엄청 잘 이해해!는 아니다. 나는 GPT는 이해를 전혀 하지 못해! 그러니 전혀 놀랍지 않아!라는 의견 정도를 반박하고 싶을 뿐이다. 더 나아가 더 이상 이해를 하는지, 이해를 못 하는지 논할 수준은 이미 월등히 뛰어넘었다는 걸 보여주고 싶었다. 그러니 오히려 우리는 지금 GPT를 가지고 정신없이 실험해 봐야한다.

2

허나 GPT가 현재 “이해”를 명백하게 보여주지 못한 부분이 있다. 바로 수학이다. 두 자리 수 덧셈까진 어떻게 속일 수 있지만, 3자리 수 덧셈, 소수점, 부호가 나오는 순간, GPT의 정확도는 기하급수적으로 떨어진다. 「당신의 인생 이야기」를 쓴 테드 창은 “ChatGPT Is a Blurry JPEG of the Web”라며 GPT는 인터넷의 압축본이라며 극찬(?)하지만, 아직 이해를 한 것은 아니라고 하며 수학을 중요한 예시 중 하나로 든다. 그에 따르면 GPT는 사칙연산을 할 때, 자리 수를 그 다음 자리로 올리거나 내리거나 하는 기본적 원리를 파악하지 못했다. 인터넷에 올라와 있는 수많은 사칙연산을 주구창창 봤지만 기본적인 원리는 깨닫지 못한 것이다. 고로 GPT는 수학을 아직 이해하지 못했고, 데이터가 없는 사칙연산에 대해서는 헛소리를 늘어놓을 수 밖에 없게 된다. (왠지 모르게 덧셈의 원리를 이해하지 못한 채 구몬 문제만 주구창창 외운대로 “푼” 초등학교 저학년 생이 연상된다. 그렇게 보면 우리가 어릴 때 지치도록 푼 구몬 문제들은 모델 학습에 필요한 트레이닝 데이터였다).

여기서 웃긴 점은 똑같은 트레이닝으로 언어를 거의 마스터 할 수 있었다면, 오히려 결정성(Deterministic)이 보장된 수학과 같이 기존에 컴퓨터가 강세를 보였던 학문에서 GPT는 약점을 가지고 있다는 것이다. 지금은 수학의 수자도 모르는 매우 뛰어난 문과생인 셈이다. 당연하게도 수학과 같은 학문에서도 정확도를 높이기 위해서 GPT는 현재 발전을 거듭하고 있을 것이다 (며칠 전에 공개된 GPT4는 이미 작년 여름부터 쓸 수 있었다고 한다). 이제는 말을 “이해”하고 있으니, GPT 성능의 큰 이유인 RLHF (Reinforcement Learning from Human Feedback)와 Prompting (덧셈 할 때는 이렇게 해야 되 ~)을 통해서 덧셈 뺄셈과 같은 기본적인 원리는 금방 이해하게 되지 않을까?

잠깐 언급했지만, 신기한 점은 AI가 발전하면 발전할수록 결국 우리 스스로에 대한 질문을 역으로 던진다는 것이다. 예를 들어 결국 말을 잘한다는 건 그 순간에 가장 알맞은 말을 한다는 것일까? 알맞음은 무엇일까? 그리고 그 알맞음은 보편적이기 때문에 확률적으로 구현이 가능한 것일까? 그런 의미에 GPT는 가장 보편적인 말을 하는, 다르게 말해서 모두가 이해할 수 있는 가장 일반적인 발화자인 것일까? 이와 동시에 말을 나답게 하는 것은 결국 그런 확률의 싸움에서 낮은 확률의 단어의 조합을 조립해 나가는 것일것이다. 하지만 의미는 통하는. 알파고와의 4번째 대국에서 승리로 이끌었던 이세돌 9단의 묘수인 78수는 오직 0.007% 확률이였다고 한다. GPT가 더 보편적일수록 우리는 앞으로 더 확률에서 벗어나는 행위로 우리를 정의하게 될 것이고, 나다움으로 인식하게 될 것이다.

인간에 대한 근본적인 질문을 던지면 던져야 할수록 우리는 역으로 GPT와 같은 AI가 사람에 점점 더 근접해지고 있음을 인정하는 것이다. Andrej Karpathy가 얘기했듯이 GPT는 이제 마치 사람인 것 마냥 “훈련”을 시킬 수 있게 된다. 사람처럼 말을 알아 들으니 말만 해도 충분하고, 그에 따라서 동작이 바뀐다. 어순 차이에도 다르게 반응할 정도로 섬세하다.

3

GPT가 많은 사람에게도 놀랍거나 크게 흥미롭지 않은 이유도 어쩌면 우리에게 “이해”라는 것은 당연하기 때문일 것이다. 말을 알아듣고, 말을 하고, 의사소통을 하는 것은 우리에게 너무나도 당연하다. 우리가 숨 쉬는 공기처럼 당연하고, 항상 있었기에 우리는 이해가 무엇인지, 의식은 무엇인지 고민해보지 않아도 되었다. 바야흐로 이젠 우리를 닮은 수학적 모델이 “이해”를 하는 것 처럼 보이는 시대다.

어쩌면 GPT는 많은 사람들이 우려했던 것처럼 사람을 대체하는 게 아니라, 우리를 더 우리답게 할 수 있지 않을까? 우리에 대한 질문들을 끌어내서 우리가 우리를 더 이해할 수 있도록 하는 계기들을 만들어내지 않을까?

분명한건 GPT가 던지는 질문들은 이제 시작이다! 그리고 “이해”라는 영역에서는 이미 꽤나 우리를 애먹이고 있는 것 같다.




Leave a comment