OpenAI GPT-4 o1과 생성 AI의 진화 방향

OpenAI GPT-4 o1과 생성 AI의 진화 방향

OpenAI가 새로운 모델을 발표했습니다. 이름은 끔찍합니다. “o1”입니다(The Verge 참조). o1은 GPT-5는 아닙니다. 아주 간략하게 o1이 생성 AI 발전 과정에서 의미하는 바를 분석하겠습니다. 이 글은 기술 분석은 포함하지 않습니다.

저는 종종 ‘AI 시장' 관련하여 대학교 강의 또는 기업 강연을 합니다. 다양한 유튜브 채널에서도 AI 시장에 대한 제 생각도 전달하고 있습니다. 이 때 저는 LLM에 대한 아래와 같은 테제를 가지고 있습니다.

“챗GPT와 같은 LLM은 지금까지 사용해본 소프트웨어 중 가장 똑똑한 소프트웨어인 동시에 가장 멍청한 소프트웨어이기도 합니다.”

때문에 저는 LLM을 ‘세계에서 가장 빠른 인턴'으로 비유하곤 합니다. 언어모델은 놀라울 정도로 빠르게 일을 할 수 있고, 매우 열정적이며, 이미 제 일상 생활의 수많은 업무에서 자산이 되고 있습니다. 그러나 때로는 완전히 틀린 경우도 있습니다. 그렇기 때문에 열정이 넘치더라도 인턴이 제공하는 모든 것을 확인하지 않고 그대로 사용해서는 안됩니다. 정말 어리석은 실수를 저지를 위험이 여전히 높기 때문입니다.

생성AI가 얼마나 똑똑한지는 따로 설명하지 않겠습니다. 모두 경험하였기 때문입니다. LLM은 멍청하기도 합니다. 이른바 환각 현상이죠. 최근에 두 가지 흥미로운 사건이 있었습니다. 첫 번째는 Strawberry 사건입니다. 챗GPT에게 “strawberry”에 “r”이 몇 개있는지 물어 보면 “2개"라고 답하는 현상입니다. 두 번째는 “9.11과 9.9 크기" 비교 사건입니다. 챗GPT는 소수점 이하 숫자인 11과 9를 비교하면서 11이 9보다 크기에 9.11이 9.9보다 크다고 잘못된 답을 합니다.

이러한 오류 때문에 저는 인공지능 인턴사원을 전적으로 신뢰하지 않습니다. 그런데 이러한 실수를 이번 o1은 많은 부분에서 극복하고 있습니다.

서비스로서 ‘자명함'(Self-evident as a Service)

이제 LLM은 수학과 숫자를 더 안정적으로 처리할 수 있습니다. 위에서 소개한 두 가지 오류를 o1이 극복한 것은 언뜻 보기에 대단하게 느껴지지 않으실 겁니다. 당연히 해결했어야 하는 문제라고 생각하실 겁니다. 맞습니다. 매우 쉽고 자명한 문제를 해결하지 못했기에 LLM은 기업에서 그리고 소비자 서비스에서 불확실성을 야기했습니다. AI Agent가 확산되는데 가장 큰 걸림돌도 바로 환각이라는 LLM의 기묘한 특징때문입니다.

o1은 그렇다고 완벽하다는 뜻은 아닙니다. o1은 GPT-4o를 기반으로 하고 있으며 환각을 완전히 제거하지는 못했습니다. 그러나 LLM이 제공하지 못했던 ‘자명한 기능'을 이제 합리적으로 안정적으로 제공합니다.

그러나 명확한 점은 OpenAI는 LLM이 “AI 시장"을 형성할 수 있도록 두 가지 전략을 선택하고 있습니다. 하나는 GPT-5로 GPT 모델을 업그레이드하는 것이고 다른 하나의 방향은 o1처럼 오류를 줄여 ‘시장 신뢰'를 확보하려는 전략입니다.

앞서 소개한 제 테제로 돌아가 보겠습니다.

“챗GPT와 같은 LLM은 지금까지 사용해본 소프트웨어 중 가장 똑똑한 소프트웨어인 동시에 가장 멍청한 소프트웨어이기도 합니다.”

저는 이제 “가장 멍청한 소프트웨어이기도 합니다"라는 표현이 여전히 타당한지 확신할 수 없습니다. 이것이 바로 o1이 가진 의미입니다.

추천 글:

Something New: On OpenAI’s “Strawberry” and Reasoning
Solving hard problems in new ways
Newsletter
디지털 시대, 새로운 정보를 받아보세요!
작가와 대화를 시작하세요
더코어 스토어