'문체변경 AI 오웰'을 운영하는 덕에 여러 중소 규모 언론사 임원분들을 자주 만납니다. 이들의 공통적인 요구사항 혹은 요청 사항을 하나 꼽는다면 '어떤 원칙으로 활용해야 하느냐'입니다. 가이던스 혹은 가이드라인이라 불리는 내부 활용 원칙을 어떻게 설정해야 하는가에 대한 고민이었습니다. 여러 해외 사례를 들어가며 설명을 드리곤 하지만 부족함이 적지 않았습니다. 이참에 여러 사례를 보여드리면서 가이드라인 설정 때 유의해야 할 가이드를 정리해 보고자 합니다.
업데이트 된 지 조금 지나긴 했지만 그나마 언론사들의 가이드라인 얼개를 볼 수 있는 좋은 자료를 하나 소개해 드리겠습니다. 여기('Overview of selected guidelines on generative AI')를 클릭해 보시기 바랍니다. 전세계 21개 언론사의 AI 가이드라인을 직접 확인해 보실 수 있습니다. 각자의 사정에 맞춰 가이드라인을 작성하기 전에 먼저 훑어보신다면 큰 도움이 되지 않을까 합니다. 하지만 시간이 부족한 분들이 많을 겁니다. 제가 전체를 종합해 드리긴 어렵지만 해외 유력 언론사들의 가이드라인을 바탕으로 대략의 안을 제시해 보도록 하겠습니다.
전체적인 흐름 : 활용 범위를 서서히 구체화하는 추세
ChatGPT가 세상에 이름을 드러낼 때만 하더라도 환각(할루시네이션)에 대한 부정적 효과 때문에 생성 AI 활용을 제약하는 선언이 주를 이루었습니다. 대표적으로 뉴욕타임스나 파이낸셜타임스를 들 수 있습니다. 이 언론사들은 기사 작성 등 편집에 생성 AI를 사용하지 않겠다고 일찌감치 밝혔습니다. 아래는 2023년 5월 6일에 공개된 파이낸셜타임스의 메모 중 일부입니다.