Photo by Shutterstock
확장성(scalability)은 이익 혹은 편익을 얻으려는 이들에게 매우 중요하다. 작은 성공을 할 때 이를 확장하려는 생각은 거의 필연적으로 나타난다. 어느 영역에서 성공을 하면, 다른 영역으로 확장을 한다. 하지만 그것이 실제로 가능한 경우는 많지 않다.
시카고 대학의 존 리스트(John A. List)는 ‘전압 효과(Voltage effect)’라는 책에서 이를 풍부한 사례와 함께 일목요연하게 정리했다. 유망했던 아이디어가 더 크게 확장을 했을 때 실패하고 유망하지 않았던 아이디어가 오히려 더 많은 이익을 내는 경우가 있다. 규모 확장에 실패해서 전체가 무너지는 것은 전압 강하(Voltage drop)라고 한다. 너무 지나친 긍정의 오류와 과대 심리 등이 영향을 미친다. 이는 면밀한 현실 파악을 못 하거나 심지어 그동안 작은 성공의 비결도 인식하지 못할 때 벌어질 수 있다.
세계적으로 큰 화젯거리인 챗GPT는 혐오 표현 등은 피해 가면서 술술 잘 대답하는 서비스를 선보여 충격을 주었다. 물론 챗GPT 개발자 미라 무라티 최고기술책임자(CTO)는 적절한 윤리적 통제가 필요하다고 했지만, 챗GPT는 일단 논리적이고 정교한 것으로 보여 단편적인 대답을 하는 이전 인공지능 버전과 완전히 달라 보인다.
그런데 중요한 것은 윤리도 아니고 더군다나 형식이 아니라 내용이었다. 영어 회화를 잘한다고 해서 학술적 논의를 잘하는 것은 아니다. 발표력이 좋다고 해서 그 내용도 독창적이라고 할 수 있을지 여전히 의문이다. 피피티(PPT) 발표 내용은 멋져 보이는 새로운 세계를 보이는 듯싶지만, 비약, 삭제, 왜곡을 많이 한다. 그래서 피피티(PPT) 발표를 금지하는 회사도 있다.
우리에게 해당하는 몇 가지 사례를 볼 수 있다. 인공지능 챗GPT는 영어로 질문을 하자 '독도는 일본해(또는 동해)에 있는 섬’이라고 했다. 일본해가 동해보다 우선이었다. 영어 텍스트가 모두 대체로 그렇게 기재하고 있는 것은 챗GPT의 패턴화 결과다. 일본어는 물론이고 한국어에도 명확하게 한국 영토라고 못 박지 않는다. 한국 학생들이 챗GPT에 질문을 하면 어떤 학습을 할 수 있는지 불 보듯 하다. 또 하나 이순신에 관련된 질문을 하니 문장과 단락은 완결되어 보이지만 피상적이고 잘못된 전제에 따라 짜집기 수준의 대답이 나왔고, 잘못 알려진 내용이 그대로 기술되었다. 얼핏 보면 맞는 듯이 보였다. 만약 초등학교 과제라면 수준이 높아 보일 수 있으니 점수를 주는지 모른다. 하지만 전체적으로 가치가 없다.
챗GPT는 형식적으로 그럴듯한 대답을 하는 소피스트에 가깝다. 화려하게 입담을 과시해서 진실로 믿을 수 있는데 좀 면밀하게 보면 틀리기 시작한다. 디지털 소피스트. 역설적으로 정보가 개방되어있는 상황에서는 이 디지털 소피스트가 엉터리인지 곧 알 수 있게 된다. 입담만 있는 것은 아니다. 나름 문제 해법을 제시하는 것도 있다.
챗GPT는 한국의 수능 수리 영역에서는 9등급을 받았다. 외국어 영역에서는 2등급을 받았다. 왜 이런 현상이 일어났을까. 외국어는 영어를 말하는데 이는 데이터 구하기가 쉽다. 하지만, 수리 영역 데이터는 인터넷에서 구하기가 힘들기 때문이다. 또 하나 외국어 영역에서 2등급을 받은 것이 정말 잘한 것인지 의문이다. 인공지능 정도라면 인간의 역량을 넘어서 최고를 기록해야 하기 때문이다. 사실상 1등급을 기록해도 우월하다고 볼 수 없다. 고등학교 수준에서 평가한 것이기 때문이다. 결국, 우월한 수준이 아니라 그 이하의 콘텐츠와 결과물들이 챗GPT 상대가 된다. 이를 감별해낼 수 없는 수준이 문제일 뿐, 챗GPT를 그 우위에 놓을 수 없다.
문제는 대필이다. 과제나 시험에 챗GPT 대답을 그대로 내기 때문이다. 신학기가 시작되면 봇물 터지듯 비슷한 사례가 나올 것으로 짐작되고 있다. 국내에서는 실제로 미 프린스턴대생이 개발한 챗GPT 활용 적발용 애플리케이션(앱) GPT제로를 통해 부정 에세이 제출자들에게 0점을 주었다. 그런데 이 에세이가 과연 수준이 높은 것일까. 챗GPT을 통해 구성할 수 있다면 그 에세이 주제가 독창적이지 않을 수 있다.
디지털 소피스트로 독창적이지 않을 내용으로 현혹할 수 있는 챗GPT가 놀라움과 우려를 동시에 낳는 원인은 간단하다. 모두 인간에 의존하고 있기 때문이다. 인간이 과거에 만들어 놓은 자료에 근거하고 있다. 만약 이런 데이터가 없다면 챗GPT는 움직일 수가 없다. 그런데 이 자료들에 대해 옳고 그름을 판별할 역량이 없다. 단지 자료를 형식적으로 구성하기 때문이다. 심지어 인공지능이라고 불릴 수 있을지 의문이다.
요컨대 전압 강하(Voltage drop)의 사례 하나로 챗GPT를 꼽아야 하겠다. 작은 범위에서 효과가 있던 인공지능 기법을 대화형 지식 검색으로 크게 확장했기 때문이다. 사실 인공지능은 알파고를 통해 딥러닝 모델의 놀라운 가능성을 보여주었다. 바둑 대국은 이를 잘 보여준다. 그런데 바둑이나 체스는 해법과 정답이 명확하다. 정해진 판 위에서 벌어지는 경우의 수에 해당하기 때문이다.
이를 다른 영역으로 확장을 무분별하게 되면 인공지능은 오류를 일으킬 수밖에 없고 또한 이용자들이 받아들일 수 없게 된다. 견해 차이가 첨예하고 갈등이 있는 사안일 수 있기 때문이다. 이는 무한정이다. 각개 개별 사안을 인공지능 스스로 제어할 수 없다. 결국, 현실의 정치, 경제의 권력이 만들어낸 담론에 쏠려 버리기 때문에 혐오 표현 등을 걸러내는 수준과는 비교할 수 없는 난관이 생긴다.
변화가 아니라 기존 체제의 답습에 그치는 도구가 될 것이고 과거와 현상에 대한 단순 기술은 이미 인터넷에 많이 있는데 챗GPT을 독창적으로 볼 수 없다. 이를 잘 활용하면 좋을 것이라는 제안도 많은데 결국 이를 판별하는 인간의 역량과 혜안이 중요하다는 점을 강화해준다. 새로운 교육의 과제를 주는 셈이다.
예술은 그럼 어떨까? 일정한 수준의 음악이나 미술도 보여줄 수는 있지만, 이는 패턴 속에 존재할 수 있다. 글쓰기는 단순 패턴이 아니라 그 안에 트렌디함을 갖추고 있어야 하므로 음악이나 미술보다 어렵다. 시대 정신 정도는 아니어도 시대적 감수성도 필요하다. 때론 파격적인 자신의 경험담, 상처가 정서적 반응을 일으켜야 한다. 단순 사실의 나열로는 공감도 감동도 없다. 이미 나와 있는 작품들 정도에만 한정될 때 이미 상품성을 상실하는 때도 부지기수다.
특히 대중가요도 마찬가지다. 대중음악에는 스승이 없다. 먼저 히트한 노래의 뮤지션이 다음 노래를 반드시 히트시킨다는 보장이 없다. 자신 스스로 그 성공 원인을 알지 못하는 경우도 흔하다. 수없이 많은 노래가 탄생하지만, 그것이 반드시 성공할 수는 없는 노릇이다. 인공지능이 만든 노래가 아니라 그것이 크게 히트해야 한다. 그것을 바라고 있는 것이 관련 산업의 소망이다. 그것은 인간의 과거가 아니라 미래를 열어가는 것에 해당한다.
21세기 지식 정보화 시대라는 데 우리가 원하는 것이 패턴의 반복이나 모방 수준일까. 희한하게도 오히려 인공지능에만 관대(?)하다. 인간의 과거 데이터 평준화에 의존하고 있다면 그 결과물을 논외라고 해도 학생들이 교육과 학습을 받는다면 평준화된 인재만 나오게 될 것이다. 물론 평준화도 높은 것이고 하향 평준화가 될 가능성이 크다. 구글과 같은 인터넷 엔진에 제한 없이 노출된 정보들이 무제한으로 제공되고 그것에 바탕을 둔다면, 당연한 결과다. 큐레이션을 하는 인간이 따로 존재하지 않는 이상 가치의 벽을 넘지 못할 것이다. 그것을 활용하려는 것은 인간이기 때문이다. 챗GPT에 의존할 경우 다른 자료들을 크로스 체킹을 할 기회를 박탈한다. 일종의 잘 정제된 단당류 음식과도 같다. 당장에는 편하고 맛있지만, 결국 몸에 비만을 일으키는 원인 혹은 몸을 해치는 독약이 될 수 있다.
요컨대 챗GPT의 기능은 그것이 잘 발휘되는 전압 효과(Voltage effect)의 범주 안에서 스스로 잘 기능하게 놓아두는 것이 적절한 해법이다. 무분별한 확장은 기존의 있던 장점도 무너뜨린다.
[이 칼럼 내용은 NJT의 견해와 다를 수 있습니다.]