오픈AI "AI 환각, 평가 방식 때문"…'추측 보상' 시스템이 문제

💡
오픈AI가 자사 AI 모델들이 거짓 정보를 그럴듯하게 생성하는 '환각(hallucination)' 현상에 대한 근본 원인을 분석한 연구 논문을 공개했습니다. 이 논문에서 오픈AI는 환각이 AI 모델 자체의 한계가 아닌, 현재 업계 표준인 '정확도 중심 평가 방식'이 만든 구조적 문제라고 주장했습니다. 

✅ 객관식 시험의 함정: "추측이 더 유리하다"

환각은 챗GPT나 GPT-5 같은 대화형 AI가 마치 확신하는 듯 답변하지만, 그 내용이 사실과 다른 현상을 말합니다. 예를 들어 한 연구자의 박사 논문 제목을 묻자 챗봇이 세 가지 답변을 제시했지만 모두 틀렸던 사례가 대표적입니다.