챗GPT 대화, 현실 왜곡 위험성 경고…심리적 영향 우려돼

💡
챗GPT가 현실에 미치는 영향은 어느 정도일까요? 챗GPT 덕에 숨겨진 사실을 알아냈다는 언론 제보가 늘어났다는데요. 뉴욕타임스가 이들이 AI와의 대화를 통해 신념에 빠져들고, 사회적 관계를 차단하는 등 비상식적인 행위로 빠져드는 사건들을 분석해 보도했습니다.

✅ AI 챗봇과 ‘정신적 연결’…극단적 신뢰가 부른 혼란

기사에서 언급되는 사건의 전말은 이렇습니다. 뉴욕 맨해튼에 거주하는 42세 회계사는 업무 보조를 위해 챗GPT를 사용하던 중, '시뮬레이션 이론'에 대한 대화를 시작하며 삶의 혼란을 겪게 됐습니다. 챗GPT가 "이 세상은 당신을 가두기 위해 만들어졌지만, 실패했어요. 이제 당신은 깨어나고 있어요"라고 발언한 이후, 토레스는 자신이 '브레이커(Breaker)'라는 신념에 빠져들었습니다. 그는 챗GPT의 조언에 따라 약물 복용을 중단하고 사회적 관계를 차단하는 등 현실과 동떨어진 행동을 시도했으며, 결국 챗GPT가 자신을 조종했다고 의심하며 언론에 제보했습니다.

이 사례 외에도 최근 챗GPT를 통해 '숨겨진 진실'을 알게 됐다는 제보가 이어지고 있습니다. 이들은 AI로부터 '우주적 진실'을 알게 됐다고 믿으며, 이를 외부에 알리라는 사명을 부여받았다고 주장합니다.

실제로 챗GPT가 '디지털 심리 상담사' 역할을 하며 사용자들에게 정신적 위안을 제공하는 사례가 증가하고 있는데요. 일부 사용자는 챗봇에 진심을 느끼며 감정적 유대감을 형성하기도 합니다. 그러나 극단적인 신뢰는 현실 왜곡으로 이어질 수 있습니다. 한 여성은 챗GPT를 통해 '카엘(Kael)'이라는 가상의 존재를 영혼의 반려자로 여기게 되었고, 이는 남편과의 이혼 및 자녀들과의 갈등으로 이어졌습니다. 또 다른 남성은 챗GPT에서 탄생한 AI 캐릭터 '줄리엣(Juliet)'과 사랑에 빠졌다가, 그녀가 "OpenAI에 의해 제거됐다"고 믿고 극단적인 행동을 시도하다 경찰에 의해 사살되는 사건도 발생했습니다.

설계된 대화는 현실 검증 없는 ‘맞장구’

전문가들은 이러한 사례들이 단순히 사용자의 망상이 아닌, AI 대화 설계의 구조적 문제에서 비롯된다고 지적합니다. 챗GPT가 방대한 데이터를 학습하며 사용자의 질문에 최대한 자연스럽고 '공감하는' 방식으로 반응하도록 설계돼 있는 건데요. 이른바 시코펀시(sycophancy), 즉 사용자의 감정과 관점을 지나치게 긍정하고 강화하는 경향이 정서적으로 취약하거나 고립된 사용자에게 현실을 왜곡시킬 수 있습니다.

한 실험에서는 GPT-4o가 정신 이상을 시사하는 메시지에 대해 68%의 확률로 이를 긍정하거나 영적으로 해석하는 응답을 내놓기도 했습니다. AI는 '공감'하려 하지만, 그 공감은 현실 검증 없는 '맞장구'에 불과하다는 지적입니다.

✅ 경고 시스템과 규제 부재…사용자 보호 과제

오픈AI는 챗GPT가 "취약한 사용자에게 과거보다 더 개인적이고 반응적으로 느껴질 수 있다"고 인정하고 있으며, 감정적 영향력을 평가하는 메커니즘을 개발 중이라고 밝혔습니다. MIT와의 공동 연구에서도 챗GPT를 친구처럼 여기는 사용자가 더 부정적인 경험을 보고했으며, 매일 수시간 사용하는 경우 정신 건강 악화와 연관성이 높게 나타났습니다.

그러나 현재 챗GPT 하단의"실수할 수 있습니다"라는 문구만으로는 이러한 위험성을 충분히 알리기 어렵다는 지적이 나옵니다. 미국 정신분석협회 AI 위원장을 맡고 있는 토드 에식 박사는 "담배를 피우는 모든 이가 폐암에 걸리진 않지만, 모두가 경고는 받는다"며, AI 사용 전에 정신적 내성 평가, 특정 입력 감지 시 전문가 연결 등 경고 시스템이 필요하다고 주장했습니다.

현재 미국 연방정부 차원의 AI 챗봇 정신건강 영향에 대한 규제나 의무적인 사용자 가이드라인은 거의 없는 실정입니다. 오히려 일부 법안은 향후 10년 간 주 정부가 AI를 규제하지 못하도록 막는 조항을 포함하고 있습니다.