유료 구독자 전용
무료 회원 공개
전체 공개
14세소년 자살 후 Character.AI, 미성년자 사용 금지
청소년 자살 소송 후 AI 챗봇 규제 강화, 연령 인증 시스템 도입 AI Companion(동반자) 서비스 회사 Character.AI가 11월 말부터 18세 미만 사용자의 가상 동반자와의 대화를 전면 금지한다고 발표했습니다. 이는 14세 소년의 자살과 관련된 소송과 의회의 AI 동반자 규제 법안 발의 등 법적 압박이 거세지면서 내린 결정입니다. 회사는 "AI와 청소년을 둘러싼 변화하는 환경을 고려해 18세 미만 플랫폼에 변화를 주고 있다"며 "연령에 맞는 적절한 경험을 제공하는 연령 보증 기능도 도입할 예정"이라고 밝혔습니다. • 왜 중요하냐면 : AI 챗봇이 청소년 정신건강에 미치는 영향에 대한 사회적 우려가 현실화하고 있기 때문입니다. 14세 소년 세웰 세처 3세가 Character.AI 캐릭터에 정서적 애착을 형성한 후 자살한 사건을 계기로, 유사한 소송이 잇따르고 있습니다. 소셜미디어법센터는 이달 초 AI 챗봇과 의존적 관계를 형성한 후 자살하거나 정신적 피해를 입은
로그인한 회원만 댓글을 쓸 수 있습니다.
아직 댓글이 없습니다.