2016년 마이크로소프트의 인공지능 챗봇 ‘테이(tay)', 2020년 국내 챗봇 ‘이루다' 그리고 2022년 메타(구 페이스북)의 ‘블렌더봇3(BlenderBot 3)’ 모두 혐오 발언과 공격성 때문에 단명했습니다. 성차별, 인종차별, 동성애 차별, 종교적 편향 등이 대표 사례였습니다. 챗GPT를 개발한 오픈에이아이(OpenAI)는 동일한 실수를 반복하지 않기 위해 사전 준비를 나름 철저히 했습니다. <타임>의 폭로에 따르면 챗GPT는 시급 2달러 미만의 케냐 노동자를 동원해 챗GPT의 학습 데이터를 필터링했습니다(왜 빅데이터(Big Data)가 아니라 베터데이터(Better Data)가 중요한지는 머신러닝과 전통 소프트웨어의 차이점 참조).
유해한 그리고 차별적인 학습 데이터를 걸러냈다고 해도 문제는 끝나지 않습니다. 또 다른 참혹한 현상이 2023년 2월 셋째 주에 발생했습니다. 23년 2월 8일 마이크로소프트는 자사 검색서비스 빙(Bing)과 GPT를 결합한 새로운 검색 서비스를 선보였습니다. 그러나 모든 이용자에게 접근권을 제공하지 않고 일부 기자를 중심으로 접근권을 제한했습니다. 그 경험담이 2월 셋째 주 기사화되면서 세계는 충격에 빠지지 않을 수 없었습니다. 새로운 빙 검색 서비스는 챗GPT에 적용된 GPT-3의 최신 버전을 기초로 만들어졌습니다. 그 뛰어난 능력 때문에 일부에서는 GPT-4가 결합됐을 수도 있다는 의심을 제기하고 있습니다.
인공지능과 결합한 빙을 이용하는 사람들은 먼저 “나는 빙입니다"라고 자신을 소개하는 챗봇 인터페이스를 만나게 됩니다. 챗봇과 짧거나 긴 대화를 이어갈 수 있습니다. 여기까지는 정상입니다. 이 챗봇과 대화를 오래동안 지속하게 되면 사정이 달라집니다. 특히 감정적인 주제로 챗봇과 대화를 오래 나누면 다른 상황이 전개됩니다. 챗봇은 갑자기 스스로를 시드니(Sydney)라는 다른 이름으로 부르기 시작합니다. 시드니는 마이크로소프트의 이번 챗봇 프로젝트의 내부 코드명입니다.
시드니는 열정, 의식, 죽음에 대한 글을 씁니다. 이를 경험한 일부 이용자는 이 때문에 공포감에 빠집니다. 미디어 스트라테처리(Stratechery)를 운영하는 벤 톰슨은 “마치 루비콘 강을 건넌 기분이다"라고 이 공포감을 표현하며 “오늘 시드니와의 상호작용은 지금까지 내가 컴퓨터와 했던 상호작용과는 완전히 달랐다"라고 말했습니다. 뉴욕타임스의 케빈 루스는 한 걸음 더 나아가 “빙에 내장된 인공지능은 인간과 접촉할 준비가 되어 있지 않다"고 이야기합니다. 도대체 무슨 일이 벌어지고 있는 걸까요?