[번역] 뉴스룸을 위한 생성 AI 가이드라인과 사례들
생성 AI를 뉴스룸의 워크플로우에 도입하는 언론사들이 제법 빠르게 늘어나고 있습니다. 확산 속도는 현기증이 날 정도입니다. 기사 생산 영역을 비롯해서 제목, 요약, 이미지 생성, 인터뷰 질문 생성, 개념 설명 등 활용 범위도 점차 넓어지고 있습니다. 생성 AI를 가장 적극적으로 활용하는 주체 중 하나라고 언급할 수 있을 정도입니다. 하지만 생성 AI가 저널리즘 영역에서 윤리적으로 활용되기 위해서는 제한해야 할 요소들이 적지 않습니다. 아직 도입 초기 단계여서 이에 대한 논의가 깊이 이뤄지지는 않고 있지만 반드시 거쳐야 할 과정입니다.
Generative AI in the newsroom을 운영하고 있는 닉 디아코풀러스 교수는 암스테르담 대학 한네스 쿨스 박사와 함께 전세계 생성 AI 가이드라인을 조사하고 분석한 자료를 얼마전 공개했습니다. 각 언론사의 생성 AI 가이드라인이 어떤 영역에 주목하고 있고 무엇을 경계하고 있는지 세밀하게 파헤친 자료입니다. 그리고 마지막엔 가이드라인을 위한 가이드라인까지 제안하며 준비 중인 언론사들에게 도움을 주고 있습니다.
더코어는 닉 디아코풀러스 교수의 허락을 얻어 그 번역번을 여기에 공유합니다. A4 기준으로 약 13장 정도 되는 분량입니다. 현재 전세계 언론사들이 생성 AI 관련 가이드라인을 어떻게 정립하고 운영하고 있는지 한눈에 볼 수 있는 자료입니다. 심지어 각 언론사의 가이드라인 사례의 모든 링크도 제시해두고 있습니다. 현재 가이드라인 작성을 검토 중인 국내 언론사라면 좋은 참고서가 되지 않을까 합니다.
안타깝게도 유료회원에게만 번역본을 무료로 제공해 드립니다. 무료 회원분들께서는 원문(Towards Guidelines for Guidelines on the Use of Generative AI in Newsrooms)을 직접 꼭 읽어보시길 부탁드립니다. 그리고 자체 생성 AI 가이드라인을 제작한 국내 언론사가 있다면 Hannes Cools 박사에게 이메일을 보내 사례를 소개해 주시면 정말 감사하겠습니다.
아래는 목차입니다.
발표된 가이드라인의 준수 사항 2
감독(oversight) 2
투명성(Transparency) 4
금지된 사용 범위와 허용된 사용 범위 5
책무 및 책임 6
개인정보 보호 및 기밀 유지 7
신중한 실험 8
전략적 사용 의도 9
교육(Training) 9
편견 10
가이드라인의 적응성 10
가이드라인에서 덜 언급된 주제 10
공급망 11
법률 준수 11
개인화 11
사용자 피드백 11
가이드라인을 위한 몇 가지 가이드라인 12
기존 윤리 가이드라인 및 강령 검토 12
위험 평가 접근 방식 채택 12
다양한 그룹을 구성하여 가이드라인 초안 작성 13
각주 13