14세소년 자살 후 Character.AI, 미성년자 사용 금지
청소년 자살 소송 후 AI 챗봇 규제 강화, 연령 인증 시스템 도입AI Companion(동반자) 서비스 회사 Character.AI가 11월 말부터 18세 미만 사용자의 가상 동반자와의 대화를 전면 금지한다고 발표했습니다. 이는 14세 소년의 자살과 관련된 소송과 의회의 AI 동반자 규제 법안 발의 등 법적 압박이 거세지면서 내린 결정입니다. 회사는 "AI와 청소년을
청소년 자살 소송 후 AI 챗봇 규제 강화, 연령 인증 시스템 도입AI Companion(동반자) 서비스 회사 Character.AI가 11월 말부터 18세 미만 사용자의 가상 동반자와의 대화를 전면 금지한다고 발표했습니다. 이는 14세 소년의 자살과 관련된 소송과 의회의 AI 동반자 규제 법안 발의 등 법적 압박이 거세지면서 내린 결정입니다. 회사는 "AI와 청소년을