청소년 자살 소송 후 AI 챗봇 규제 강화, 연령 인증 시스템 도입

AI Companion(동반자) 서비스 회사 Character.AI가 11월 말부터 18세 미만 사용자의 가상 동반자와의 대화를 전면 금지한다고 발표했습니다. 이는 14세 소년의 자살과 관련된 소송과 의회의 AI 동반자 규제 법안 발의 등 법적 압박이 거세지면서 내린 결정입니다. 회사는 "AI와 청소년을 둘러싼 변화하는 환경을 고려해 18세 미만 플랫폼에 변화를 주고 있다"며 "연령에 맞는 적절한 경험을 제공하는 연령 보증 기능도 도입할 예정"이라고 밝혔습니다.

• 왜 중요하냐면 :