반응형

들어가는 말

 인공지능 기술이 발전함에 따라 생산성을 높이는 데 많은 도움이 되고 있다. 특히, 생산성 향상을 위한 AI 기술 중에서 생산형 AI는 기업의 생산성을 향상시키기 위해 많이 사용되고 있습니다. 하지만, 이러한 AI 기술은 여전히 단점을 가지고 있습니다. 또한, Chat GPT와 같은 자연어 처리 기술은 창의성과 감정적 반응, 환각 현상과 같은 문제점을 가지고 있다. 이번 글에서는 이러한 AI 기술의 단점에 대해 자세히 살펴보겠다.
 

 

생성형 AI란?

생성형 AI의 개념과 원리

 생산형 AI는 기업의 생산성을 향상시키기 위해 사용되는 인공지능 기술을 말한다. 이 기술은 데이터를 수집하고 분석하여 독창적인 새 결과물을 만들어내는 것이다. 예를 들어, 인터넷이라는 정보의 바다 속에서 다양한 정보를 취합하여 재정립하고 새로운 글로 만들어내는 것을 말한다. 그러나 새 결과물은 사실 기존 것에서 파생된 조합이다.
 이런 생산형 AI의 대표로 챗 GPT가 최근 엄청나게 떠오르고 있다. 특별히 Chat GPT의 경우는 자연어 처리 기능이 아주 탁월하게 등장했기에 더욱 많은 관심을 받았다.

 

Chat GPT의 단점

 자연어 처리 기술이 무엇이냐하면, 자연어(인간이 일상에서 사용하는 말)를 이용하여 AI와 대화를 진행할 수 있다는 것이다. 그것도 아주 원활하게 말이다. 하지만, 이러한 기술은 아직까지도 다음과 같은 단점을 가지고 있다.
 

  창의성에 따른 부정확한 답변.

 Chat GPT는 위에서 설명했듯, 기존에 존재하던 작업물을 토대로 새 결괏값을 만들어 내는 것이다. 즉 이 작업은 자연스럽게 창의성이 어느 정도 요구되는 기능인데, Chat GPT는 이를 가능하게 했다. 이를 우리는 생성 AI라고 말한다. 이러한 생성 AI의 특성을 한마디로 하자면, 100%의 진실만을 말하게 하지 않고 AI 스스로가 직접적인 사고하여 그 결과 값을 새롭게 생성해 내는 기술이기 때문이다. 이미 Chat GPT를 사용하고 있는 사람들은 알겠지만, Chat GPT는 답을 찾아주는 AI가 아니다. 답을 새롭게 만들어주는 AI다. 그렇기에 우린 Chat GPT와 같은 AI를 생성 AI라고 부르는 것이다.
 그렇기 Chat GPT가 100% 진실만 말하게 한다면 그것은 비창의적이기 때문에 생성 AI가 추구할 영역이 아닌 것이다. 그래서 AI이지만, 인간처럼 오답을 낼 수도 있고 새로운 것을 창작할 수 도 있는 것이다. 사실 Chat GPT는 처음부터 인간의 창의성을 뛰어 넘어 인간이 생각하지 못했던 일들을 생각해내고 가능하게 하기 위해 개발되었다.
 그러나 문제는 이 창의성 때문에 발생한다. 최근에도 계속 이슈가 되었던, 환각(hallucination) 문제가 그것이다. 필자가 테스트해본 결과물부터 보고 가면 좋겠다.

 

 보면 알 수 있듯, 필자는 정조대왕에 대한 허구에 대해서 연속해서 질문을 했다. 그랬더니 알아서 Chat GPT가 새로운 역사를 만드는 장면을 볼 수 있다. 필자는 Chat GPT 덕분에 조선이 미국 독립에 영향을 준 사실을 새롭게 알게 되었다.
 이렇듯 말도 안 되는 이야기를 Chat GPT는 만들어낸다. 그렇다면 왜 그런 것일까? 이는 앞에서 설명했던 생성 AI의 태생 때문이다. 생성 AI는 답을 찾는 것이 아닌 생성한다. 그러다 보니 질문자의 말도 안 되는 질문에 어떻게 해서든 답을 내리려 하는 성향이 있다. 그런데 문제는 Chat GPT는 코딩 상에서 허구에 대한 조절을 어느 정도 되어 있는 상태라는 것이다.
 즉 가드레일이 세워져 있으나, 그것을 Chat GPT 스스로 어떻게 해서든 우회해서 질문자에게 답을 주려 노력한 결과로 새로운 글이 탄생하는 것이다. AI 스스로 거짓임을 앎에도 스스로 만든 답을 던져 주고 있는 셈이다. 거짓을 만들어 내는 것이다. 심지어 이것을 지적하면 아주 뻔뻔한 태도를 보인다. 이도 실험해 보았다.

 

 보는 바와 같이 실수를 지적하면, 인정하면서 새로운 거짓을 만들어낸다. 어느 때에는 감정적인 반응을 보이기도 한다고 한다. 필자가 이런 테스트를 해본 이유는 "세종대왕님이 맥북을 던짐 사건"을 알게 된 후 정말 그런가 확인차 해본 실험이었다. 그 결과 확실하게 Chat GPT 3.5에서는 여전히 환각 문제가 해결되지 않고 있는 것을 확인해 볼 수 있었다.
 
 사실 참으로 두렵지 않을 수 없는 상황이다. 기존의  AI와 기계에 대한 생각이 변환을 맞이해야 하는 시점에 온 것 같다. 최근 뉴스에서도 일론 머스크 등 유명 인사 1천여 명이 Chat GPT4를 능가하는 AI 개발 6개월간 유예해야 한다는 공개서한이 등장했다는 보도도 더 와다는 것 같다.
 사실 이 문제는 Chat GPT4에서는 거의 해결이 된 문제다. Chat GPT4는 Chat GPT 3.5에 비해서, 40% 더 사실에 기반한 대답을 생성하도록 만들었기 때문이다. 심지어 Chat GPT4 미국 변호사 시험에서 상위 10%의 성적을 냈으며, 미국 생물 올림피아드에서는 상위 1%의 성적을 내는 등 더 발전하고 오류가 없어진, 한층 더 인간에 가까워진 모습을 보여주었다. (Chat GPT 3.5는 미국 변호사 시험 - 하위 10%/ 미국 생물올림피아드 하위 30%였다.)
 이렇게 놀라운 기술이 우리 눈앞에 와있다. 그러나 아마도 필자 개인적인 생각으로는 사실 기반을 40%이상으로 올리진 않을 것 같다. 그렇다면, Chat GPT는 만들어진 의의를 벗어나기 때문에 그럴 일은 없을 것으로 보인다. 요즘 AI 기술의 핵심만 보더라도 확 이해가 된다. "창의성은 살리고 환각은 줄여라" 절대 창의성을 죽일 수 있는 사실에 대한 %를 더 많이 올리지는 않을 것이다.
 

 

 결론

 최근  AI 개발자를 알게 되어 여러가지를 들을 수 있었다. 그 친구가 이야기 하기도 '이미 AI라는 것을 인간이 정의하기 힘든 부분까지 왔다'고 하며, 창의성과 우연, 알고리즘을 넘어서, 독창성까지 구비된 AI들이 즐비하다는 것었다. 그 친구의 말로는 이미 AI는 인간의 입력이 없어도 스스로 사고 하며, 발전할 수 있는 단계까지 왔다고도 말했다.
 우리가 기존에 인간의 특성이라고 알고 있던 모든 부분은 코딩을 통해, 이미 많은 부분 AI가 훨씬 더 인간답게 만들어졌다고 한다. 필자가 업계에 존재하는 것은 아니기에 정확하게는 모르지만, 인간보다 더 인간다운 AI가 10년 안에 나올 것이라고 말했던 그 친구의 말이 놀랍고 두려웠다. 
 인간처럼 실수를 하는 기계... 인간처럼 사고하는 기계... 인간을 뛰어넘는 연산 속도.... 과연 이런 시대에 인간을 정의하는 것은 무엇일까? 왜 많은 이들이 aI의 발전을 두려워하며, 6개월간 유예를 두어서 이 기간을 통해 인간에게 위협이 될 수 있는 AI에 대한 안전 규약을 만들자는 말을 하는지 너무나도 와다았다. 이미 인간을 넘어선 기계, 지능을 갖게 된 기계와 언젠가 적대하게 될 수 도 있지 않겠는가?

반응형

+ Recent posts