현실이 된 ‘마이너리티 리포트 딜레마’… AI의 위험감지, 의무화해야 할까요?

영화 속 상상이 현실이 되다
2002년 개봉한 스티븐 스필버그 감독의 영화를 기억하십니까? 바로 톰 크루즈 주연의 '마이너리티 리포트(Minority Report)'입니다. 극 중 톰 크루즈의 직업은 무척 흥미롭습니다. 그는 예지자들의 뇌파를 분석해 범죄를 예측하는 부서의 팀장입니다. 이 특수 부서의 이름은 ‘프리크라임(Precrime)’입니다. 누군가 살인을 저지를 것이라는 예측 결과가 나오면 즉시 행동에 나섭니다. 범죄가 실제로 발생하기 전에 현장으로 출동해 잠재적 범죄자를 체포합니다. 아직 저지르지 않은 죄로 사람을 단죄한다는 철학적 딜레마를 던졌습니다. 개봉 당시만 해도 이는 먼 미래의 상상력으로 여겨졌습니다. 하지만 2026년 오늘, 우리는 이 상상력이 현실이 되는 변곡점에 서 있습니다. 영화 속 예지자의 자리를 이제 고도화된 인공지능(AI)이 대신하고 있기 때문입니다.
워싱턴 총격 사건과 오픈AI의 사과
당장 25일 저녁(현지 시간), 미국 워싱턴에서 아찔한 사건이 있었습니다. 이른바 ‘트럼프 대통령 기자단 만찬 총격 사건’이 발생한 것입니다. 다행히 인명 피해 없이 총격범이 체포되었지만, 전 세계를 깜짝 놀라게 했습니다. 이처럼 끊이지 않는 총기 범죄를 AI가 미리 막을 수는 없었을까요? 최근 전 세계 IT 업계를 뜨겁게 달군 오픈AI의 사과문이 떠오릅니다. 지난 2월, 캐나다 텀블러 리지(Tumbler Ridge)에서 비극이 발생했습니다. 10명이 사망하고 25명이 부상을 당하는 끔찍한 총기 난사 사건이었습니다.
참사 이후의 조사 과정에서 다소 충격적인 사실이 밝혀졌습니다. 가해자로 지목된 사용자가 범행 수개월 전부터 챗GPT를 통해 총격에 관한 구체적인 대화를 나눴습니다. 그리고, 오픈AI의 내부 시스템은 이를 이미 포착하고 있었다 합니다. 해당 계정은 이미 ‘위험 신호(Red Flag)’로 분류되어 있었다네요. 일부 직원들은 실제 범죄 가능성을 우려해 수사기관 신고를 강력히 주장했다고 합니다. 하지만 회사 측은 끝내 공식적인 신고 절차를 진행하지 않았습니다. 결국 참사가 벌어진 후, 샘 알트만 CEO는 고개를 숙였습니다. 경찰에 사전 위험을 알리지 않은 점에 대해 공식적으로 사과해야만 했습니다.
플랫폼을 넘어선 개입의 주체
이 사건들은 기술 기업의 역할이 근본적으로 변화하고 있음을 시사합니다. 과거의 IT 기업들은 자신들을 그저 사용자가 오가는 ‘광장’으로 규정했습니다. 단순한 정보 전달의 통로, 즉 플랫폼일 뿐이라고 주장해 왔습니다. 그 안에서 벌어지는 일에 대한 법적, 도덕적 책임을 회피하기 위해서였습니다. 하지만 이제 AI는 사용자의 의도와 심리를 깊이 있게 파악할 수 있습니다. 단순한 플랫폼 제공자를 넘어 ‘위험 감지 및 개입의 주체’가 될 수 있는 상황입니다.
사실 AI를 활용한 ‘사전 개입(Proactive Intervention)’은 이미 존재합니다. 메타는 사용자의 게시물과 라이브 방송 패턴을 분석합니다. 자살이나 테러 위험이 감지되면 지역 경찰에 자동으로 신고하는 시스템을 운영 중입니다. 구글과 애플 역시 클라우드 업로드된 이미지들을 분석합니다. 아동 성착취물로 의심될 경우 수사기관에 선제적으로 알리고 있습니다. 미국 경찰이 도입했다 차별 논란으로 폐지된 ‘예측 치안(Predictive Policing)’ 프로그램 사례도 있습니다. 과거 범죄 데이터를 분석해 범죄 발생 확률이 높은 지역에 경찰력을 미리 배치했습니다.
프라이버시와 공공 안전의 딜레마
그렇다면 우리는 AI의 이러한 감시와 신고를 무조건 환영해야 할까요? 여기서 우리는 다시 '마이너리티 리포트'의 딜레마와 마주하게 됩니다. 논쟁의 본질은 AI가 위험 신호를 어디까지 판단하고 언제 개입해야 하는가입니다. 만약 AI가 사용자의 모든 대화와 검색 기록을 실시간으로 감시한다면 어떨까요? 이는 명백한 프라이버시 침해로 이어질 수밖에 없습니다. 조지 오웰(George Orwell)의 소설 '1984' 속 ‘빅브라더(Big Brother)’의 출현입니다. 아직 행동으로 옮기지 않은 생각만으로 잠재적 범죄자 취급을 받을 수 있게 됩니다. 끔찍한 ‘사상 통제’ 사회가 될 위험이 다분합니다. 반대로, 프라이버시 보호를 이유로AI가 명백한 위험 신호를 무시한다면 어떻게 될까요? 캐나다 총기 사건처럼 끔찍한 현실의 피해를 막을 기회를 영영 놓치게 됩니다. 과도한 개입은 개인의 자유를 억압하고, 미개입은 시민의 생명을 위협합니다. 그야말로 진퇴양난입니다.
새로운 기준과 우리의 과제
이러한 사회적 고민은 정치권을 바쁘게 움직이게 하고 있습니다. 캐나다에서는 청소년의 AI 챗봇 사용을 제한하는 논의가 공식 의제로 올랐습니다. 일각에서는 16세 미만 사용 금지까지 검토하는 등 강력한 규제 도입 논의가 본격화되고 있습니다. 오픈AI 역시 동일한 상황이 발생할 경우 수사기관에 즉각 정보를 제공하기로 했습니다. 내부의 안전 프로토콜(Safety Protocol)을 대폭 강화했다고 밝혔습니다.
일련의 사건들은 AI가 현실 세계의 위협과 어떻게 연결될 수 있는지를 보여줍니다. 기술 기업이 어디까지 책임을 져야 하는지를 묻는 중요한 ‘기준 사례’입니다. 기술은 이미 영화 속 ‘프리크라임’의 수준에 빠르게 도달해가고 있습니다. 이제 남은 것은 우리 사회의 성숙한 논의와 합의입니다. 개인의 내밀한 대화를 엿보는 AI의 눈을 어디까지 허용할 것인지 결정해야 합니다. 공공의 안전과 개인의 자유 사이에서 어떤 타협점을 찾을 것인지 치열하게 고민해야 합니다. 스크린 속 톰 크루즈의 고뇌가 이제2026년을 살아가는 우리의 숙제가 되었습니다.
미디어와 비즈니스, AI를 다루는 구독 기반 경제미디어 더코어(The Core)의 대표이자 스타트업 BluedotAI의 공동 창립자이다. 고려대 미디어대학원에서 ‘AI와 저널리즘’을 강의하는 겸임교수로도 활동중이다.
'Neo Touchpoint'를 창업했었다. 창업 전, 동아일보 기자를 거쳐 네이버 등 인터넷 포털에서 전략기획 및 동영상 서비스 업무를 담당했다.
KBS 이사를 역임했고 현재 한겨레신문 사외이사를 맡고 있다. ‘유튜브 트렌드’와 ‘디지털 미디어 인사이트’ 등 6권의 책을 단독 혹은 공동으로 출간했다.
문의 : heenby@gmail.com