지난 5월말 조지타운대 보안&이머징 기술 센터는 '진실, 거짓말 그리고 자동화'라는 제목의 보고서를 발표했습니다. 70페이지 분량의 이 보고서에는 GPT-3와 같은 대형 언어모델이 허위정보 생산에 어떤 효과를 발휘할 것인지에 대한 상세한 연구 결과가 담겨 있습니다. 이미 대형 테크 기업들이 앞다투어 초대형 언어모델을 출시하거나 개발하고 있는 와중이어서, 이 보고서가 던지는 메시지는 강렬할 수밖에 없었죠. 얼마전 네이버는 하이퍼클로바라는 대형 언어모델을 내놓기도 했습니다. 여기서 지적된 문제는 곧 우리나라의 현실이 될 수도 있겠다는 생각이 들어 보고서의 요약문을 번역을 하게 됐습니다. 도움이 되었길 바라는 마음입니다.(미디어고토사 편집장)


고성능 자연어 생성모델에 대한 인기와 업계의 관심이 높아지면서 이러한 모델을 사용해 대규모의 자동화된 허위정보를 생성할 수 있다는 우려가 커졌습니다. 이 보고서는 텍스트를 작성하는 최첨단 AI 시스템인 GPT-3의 기능을 조사하여 허위정보에 대한 잠재적 오용 가능성을 분석합니다. GPT-3과 같은 모델은 허위 정보 행위자가 허위정보를 작성하는 데 필요한 작업을 크게 줄이는 동시에 범위와 잠재적으로 그 효과를 확장하는 데 도움이 될 수 있습니다.

수천 년 동안 허위 정보 캠페인은 근본적으로 인간의 시도였습니다. 가해자는 진실과 거짓을 뒤섞어, 불화를 심고 의심을 불러 일으키고 파괴적인 행동을 유발하는 것을 목표로 하는 강력한 조합을 만들어냅니다. 21 세기의 가장 유명한 허위정보 캠페인(미국 대선에 개입했던 러시아의 노력)은 미국 사회의 기존 균열을 확대하기 위해 수백 명의 사람들이 함께 일하는 방식을 따랐습니다.