채팅 CPT, 제너레이티브 AI란?

항목 단어

인공지능 기술이 발전함에 따라 생산성 향상에 도움을 주고 있습니다. 특히 생산성 향상을 위한 AI 기술 중 생산 AI는 기업의 생산성 향상을 위해 많이 활용되고 있다. 그러나 이러한 AI 기술에는 여전히 단점이 있습니다. 또한 Chat GPT와 같은 자연어 처리 기술은 창의성, 감정 반응, 환각 등의 문제가 있습니다. 이 기사에서는 이러한 AI 기술의 단점에 대해 자세히 살펴보겠습니다.

제너레이티브 AI란?

제너레이티브 AI의 개념과 원리

생산적인 AI는 비즈니스 생산성을 향상시키는 데 사용되는 인공 지능 기술을 말합니다. 데이터를 수집하고 분석하여 독창적이고 새로운 결과물을 만들어내는 기술입니다. 예를 들어 인터넷이라는 정보의 바다에서 다양한 정보를 수집하고 이를 재구성하여 새로운 텍스트를 만들어 내는 것을 말한다. 그러나 새로운 결과는 실제로 이전 결과에서 파생된 조합입니다.

이러한 생산적인 AI의 대표주자로 최근 채팅 GPT가 엄청나게 등장했습니다. 특히 Chat GPT는 뛰어난 자연어 처리 기능으로 더 많은 주목을 받았다.

채팅 GPT의 단점

자연어 처리 기술이란 자연어(인간이 일상생활에서 사용하는 단어)를 이용해 AI와 대화가 가능하다는 것이다. 그것도 아주 순조롭게. 그러나 이러한 기술에는 여전히 다음과 같은 단점이 있습니다.

창의성에 기반한 오답.

위에서 설명한 것처럼 Chat GPT는 기존 작업을 기반으로 새로운 결과를 만드는 것입니다. 즉, 이 작업은 자연스럽게 어느 정도의 창의성을 요구하는 기능이며, Chat GPT가 이를 가능하게 했습니다. 우리는 이것을 생성 AI라고 부릅니다. 이러한 제너레이티브 AI의 특징을 한마디로 표현하자면 100% 진실만을 말하는 것이 아니라 AI 자체가 직접 생각하고 결과적으로 새로운 가치를 만들어내는 기술이기 때문이다. 이미 Chat GPT를 사용해보신 분들은 아시겠지만 Chat GPT는 답을 찾아주는 AI가 아닙니다. 답을 새롭게 만드는 것은 AI다. 그래서 Chat GPT 생성 AI와 같은 AI를 호출합니다.

그렇기 때문에 챗 GPT가 100% 진실만을 말한다면 비창의적이기 때문에 제너레이티브 AI가 추구할 영역이 아니다. 그래서 인공지능이지만 오답을 줄 수도 있고 인간처럼 새로운 답을 만들 수도 있다. 실제로 채팅 GPT는 처음부터 인간의 창의성을 넘어 인간이 생각하지 못한 것들을 생각하고 가능하게 하기 위해 개발되었습니다.

그러나 문제는 이 창의성에서 발생한다. 최근 이슈가 된 환각(환각) 문제테스트 결과를 보고 싶다는 것입니다.




보다시피 작가는 정조의 소설에 대해 끊임없이 질문을 던졌다. 그러면 Chat GPT가 스스로 새로운 역사를 만들어가는 장면을 볼 수 있습니다. Chat GPT 덕분에 조선이 미국의 독립에 영향을 미쳤다는 사실을 새롭게 알게 되었습니다.

채팅 GPT는 그런 무의미한 이야기를 만듭니다. 그렇다면 그 이유는 무엇입니까? 앞서 설명한 제너레이티브 AI의 탄생 때문이다. Generative AI는 답을 찾는 것이 아니라 답을 만듭니다. 그러다 보니 질문자의 말도 안 되는 질문에 어떻게든 답을 하려는 경향이 있다. 다만, 문제는 채팅 GPT는 픽션에 대한 통제가 어느 정도 코딩에 있는 상태라는 점이다.

즉, 가드레일이 설정되어 있는데 Chat GPT 자체가 어떻게든 우회해서 질문자에게 답을 주려고 하고, 그 결과 새로운 글이 만들어지는 것입니다. AI 스스로가 거짓임을 알면서도 스스로 만든 답을 내놓는 것과 같다. 거짓을 만드는 것입니다. 이것을 지적하는 것조차 매우 뻔뻔하다. 나는 또한 이것으로 실험했다.


보시다시피 실수를 지적하면 그것을 인정하고 새로운 거짓말을 만듭니다. 때로는 감정적인 반응을 보인다고 합니다. 제가 이 테스트를 한 이유는 세종대왕이 맥북을 던진 사건을 알고나서 확인을 해보았기 때문입니다. 그 결과 Chat GPT 3.5에서 여전히 환각 문제가 해결되지 않는 것을 확인하였다.

사실 정말 두려운 상황입니다. 인공지능과 기계에 대한 기존의 생각이 변혁을 맞이해야 하는 시점에 온 것 같다. 최근 뉴스에서는 일론 머스크를 비롯해 유명인사 1000여명이 챗 GPT4를 능가하는 AI 개발을 6개월간 중단해야 한다는 공개 서한을 작성한 것으로 보인다.

사실 이 문제는 채팅 GPT4에서 문제가 거의 해결되었습니다. 이는 Chat GPT4가 Chat GPT 3.5보다 40% 더 많은 사실 기반 답변을 생성하도록 만들어졌기 때문입니다. 채팅 GPT4 미국 사법시험에서 상위 10%, 미국 생물학 올림피아드에서 상위 1%에 들기까지 하며 한층 발전된, 오류 없는, 인간적인 모습을 보여주고 있다. (채팅 GPT 3.5는 미국 변호사 시험 하위 10%/미국 생물학 올림피아드 하위 30%였습니다.)

이 놀라운 기술이 바로 우리 눈앞에 있습니다. 그러나 개인적인 의견으로는 사실 기반을 40% 이상으로 올리지는 않을 것입니다. 그렇다면 Chat GPT가 만들어진 의미를 벗어나기 때문에 이런 일이 발생하지 않을 것 같습니다. 요즘 AI 기술의 핵심만 봐도 말이 된다. “덜 환각, 더 많은 창의성“나는 창의성을 죽일 수 있는 사실에 대해 더 많은 비율을 두지 않을 것입니다.

결론

저는 최근에 AI 개발자를 알게 되었고 많은 이야기를 들었습니다. 그 친구는 또 ‘AI는 이미 인간이 정의하기 어려운 지경에 이르렀다’며 독창성에도 독창성, 우연성, 알고리즘을 갖춘 AI가 많다고 말했다. 친구에 따르면 AI는 이미 인간의 개입 없이 스스로 생각하고 개발할 수 있는 단계에 도달했다.

우리가 이전에 인간의 특성으로 알고 있던 모든 부분이 이미 코딩을 통해 훨씬 더 인간적으로 변했다고 합니다. 제가 업계에 없어서 정확히는 모르겠지만 10년 안에 인간보다 더 인간적인 AI가 나올 거라는 친구의 말에 놀라고 두려웠습니다.

인간처럼 실수하는 기계… 인간처럼 생각하는 기계… 인간을 능가하는 연산 속도… 이 시대에 인간을 정의하는 것은 무엇일까요? 인간에게 위협이 될 수 있는 AI에 대한 안전 프로토콜을 만들기 위해 6개월의 유예 기간을 두어야 한다고 많은 사람들이 AI의 발전을 두려워하는 것은 너무 억지스럽다. 이미 인간을 능가하고 지능을 갖춘 기계에게 적대적이 되는 것은 가능하지 않을까?