[미디어 브리핑] 언론사는 LLM을 직접 구축해야 할까? 등
[미디어 브리핑] 언론사는 LLM을 직접 구축해야 할까? 등

[1] 대형언어모델 개발 비용 vs 타사 모델 활용의 장점

Prompt : The scene where a giant language model goes into a journalist's laptop, anime artwork, studio anime, highly detailed/ Image by Stable Diffusion

최근 뉴스 조직들은 콘텐츠 제작 및 편집, 뉴스 수집 및 배포에 관련된 작업에서 기회의 보고를 열어줄 수 있는 대형언어모델(LLMs)의 통합 가능성을 탐색하고 있습니다. 그러나 이러한 기술을 전략적으로 그리고 경쟁적으로 활용하는 방안에 대한 질문이 제기됩니다. 과연 뉴스 조직들은 자체 LLMs를 개발해야 할까요?

자원이 한정된 뉴스 조직이 프롬프트 엔지니어링, 파인튜닝 및 검색증강생성(Retrieval Augmented Generation, RAG)을 사용하여 생산성과 서비스를 향상시키는 것이 처음부터 자체 LLMs를 개발하는 것보다 전략적으로 유리할 것이라고 주장합니다. 우선, 자체 모델 개발 및 배치 비용 계산을 설명하겠습니다. 이어서 다른 기법을 활용하여 생성 AI로부터 가치를 얻는 장점과 단점에 대해 상세히 설명하겠습니다.

자체 LLMs 개발의 고가 비용

대규모 데이터셋, 방대한 컴퓨팅 리소스 및 이러한 모델을 개발하고 훈련하기 위한 전문 인력이 필요한 점 때문에, 처음부터 LLMs를 구축하고 훈련하는 것은 도전적입니다. 예를 들어, 금융 분야의 LLM인 BloombergGPT의 훈련 비용은 약 100만 달러로 추산됩니다. 모델을 제공하는 데 필요한 인프라 비용은 공개되지 않았으나, 사용자 수와 관계없이 심지어 중간 크기의 모델조차도 저렴하지 않으며 여섯 자릿수일 가능성이 높습니다. 또한 공정성, 사생활 보호 및 투명성을 보장하는 등 책임감 있는 모델을 구축하면서 윤리적 데이터를 출처로 하는데 필요한 주의와 리소스는 핵심 저널리즘 작업과 보도에 대한 뉴스 조직들의 초점을 분산시킬 수 있습니다.

API 엔드포인트를 통해 접근 가능한 타사 모델을 활용하는 전략적 이점

뉴스 조직은 인프라 비용을 줄이면서도 최신 모델에 접근할 수 있게 해주고 모델 교체의 유연성까지 제공하는 API 엔드포인트를 통해 접근 가능한 타사 모델 활용의 전략적 이점을 고려할 수 있습니다. 예를 들어, HuggingFace Inference Endpoint에서 A10G GPU 당 시간당 $1.3의 비용으로 실험 목적으로 성능이 우수한 오픈소스 Mistral-7B 모델을 배치할 수 있습니다. 그런 다음 Google에서 Gemma-7B로 바꾸면서 계산 비용은 동일하게 지불함으로써 다양한 모델의 신속한 반복 시도와 테스트가 가능합니다.

따라서 프롬프트 엔지니어링, 파인튜닝 및 검색 증강 생성(RAG)의 잠재력을 탐색하는 뉴스 조직은 경쟁력 있는 비용 이점과 애플리케이션 개발 유연성을 가질 수 있으며, API 또는 추론 엔드포인트(예: HuggingFace Inference Endpoint를 통해 배치된 Mistral-7B)를 통해 즉시 사용 가능한 모델(GPT-4나 Claude 등) 활용으로 투자 회수 속도가 빨라질 수 있습니다.

결론 : 저비용으로 LLMs 활용하는 뉴스 조직 전략

위에서 언급된 다양한 요소들에 기반하여 일반적으로 뉴스 조직이 작업에 LLMs를 통합하기 위해 프롬프트와 타사 모델의 파인튜닝 등을 탐구하는 것이 권장됩니다. 이는 종종 가까운 장래에 구식화되고 비효율적일 수 있는 모델들을 교육하고 배치하기 위해 필요한 고가의 인프라 비용과 씨름하는 것보다 선호되는 방법입니다. 인프라 비용이 저렴해지고 LLMs 교육이 더 접근하기 쉬워질 때까지, 뉴스 조직들에게 자체 LLMs 구축을 권장하지 않습니다.


[2] 소셜 미디어와 거리두기 하는 저널리스트들

뉴스 소비자와의 연결, 뉴스 콘텐츠 증폭, 조사 지원 등 소셜 미디어 플랫폼의 중요성에도 불구하고 많은 저널리스트가 소셜 미디어와 거리를 두고 있어요. 온라인상에서의 피로감, 특히 여성 언론인에 대한 온라인 학대, 소셜 미디어 정책 위반으로 해고되는 유명 언론인의 사례 등이 그 이유인데요. 이들은 소셜 미디어와 거리를 두는 것에 대해 '놓치는 것에 대한 두려움'(FOMO)을 느끼고 있을까요? 전혀 그렇지 않다고 해요.

허버드 저널리즘 매스커뮤니케이션 스쿨(Hubbard School of Journalism)의 학부 과정 책임자이자 디지털 미디어 환경이 언론인에게 미치는 영향을 다룬 책 <커넥션의 역설>의 공동 저자인 발레리 벨에어-가뇽은 이렇게 말합니다.

"사람들은 자신의 자기 관리를 우선순위로 삼음으로써 온라인 활동에서 벗어나 기쁨이나 만족감을 찾고 있어요. 이를 통해 더욱 진실하고 자신이 가치 있게 여기는 일을 할 수 있게 되죠."

언론인들 사이에서도 정보 과부하와 디지털 상호작용에 지친 나머지 소셜 미디어와 거리를 두는 것은 건강한 반응이에요.

소셜 미디어에서는 개인과 직업 생활의 경계가 점점 모호해지고 있는데요. 한 언론인의 경우 코로나19 팬데믹 기간에 아무런 금전적 지원이나 조직적 지원을 받지 못했음에도 불구하고 반백신 주장에 대응하기 위해 소셜 미디어 계정을 만들었어요. 이는 언론인들이 더 많은 연결을 유지하고 온라인상에 더 많은 삶을 공개하도록 요구받으면서도 고용주로부터 충분한 지원을 받지 못하는 주요 주제를 보여줍니다.

뉴스룸은 인사팀에 보내거나 휴가를 주는 등 개별적인 솔루션을 제공하는 경향이 있었어요. 또 다른 사람들은 자신과 마찬가지로 고통받는 사람들과 함께 지원 서클에 참여하라는 말을 들었고요.

그녀는 "대부분 혼자 남겨졌다고 느꼈어요"라며 "요가를 하라는 조언도 받았지만, 이는 장기적인 영향을 미치지 못하는 개별적인 노력일 뿐이죠. 다시 업무에 복귀하면 여전히 같은 문제에 직면하기 때문이에요"라고 말합니다.

더 나은 방법은 동료들과의 그룹 토론인데요. 이를 통해 정보를 제공하고 장기적이고 맞춤형이며 포괄적인 정책을 만들 수 있기 때문이에요.


메타, AI 생성 콘텐츠에 "AI 제작" 라벨 도입 예정

메타가 5월부터 비디오, 오디오, 이미지 콘텐츠의 더 넓은 범위에 "AI 제작"이라는 라벨을 부착하기 시작할 것입니다. 🏷️

메타는 현재의 라벨링 정책이 "너무 좁다"고 인정하며, 오늘날 AI가 생성한 콘텐츠와 기타 조작된 콘텐츠의 더 넓은 범위를 다루기 위해 보다 강력한 시스템이 필요하다고 밝혔습니다. 예를 들어, 조 바이든 대통령이 손녀를 부적절하게 만지는 것처럼 보이는 지난 1월의 비디오와 같은 사례들입니다.

라벨은 사용자가 콘텐츠를 게시할 때 자체 공개를 통해, 팩트 체커로부터의 조언 결과로, 또는 메타가 AI 제작 콘텐츠의 보이지 않는 표시를 감지함으로써 생성될 수 있습니다.

메타의 새 정책은 독립적인 감독위원회로부터 받은 피드백에 대한 반응입니다. 이 위원회는 현재 정책에 대한 업데이트를 요구했습니다.

현재 "조작된 미디어" 규칙은 "사람이 말하지 않은 것처럼 보이게 하기 위해 AI로 생성되거나 변경된 비디오"에만 적용됩니다. 2월부터 회사는 메타 AI 기능으로 만들어진 사실적인 이미지에 "AI 상상" 라벨을 추가하기 시작했습니다.

"우리는 이 콘텐츠를 우리 플랫폼에서 계속 유지하여 라벨과 맥락을 추가할 수 있도록 할 것입니다."라고 컨텐츠 정책 담당 부사장인 모니카 비커트가 블로그 포스트에서 주장하며, 추가적인 투명성이 콘텐츠 검열보다 낫다고 주장합니다. 그러나 메타는 "AI나 사람에 의해 생성된 콘텐츠와 관계없이, 우리의 정책을 위반하는 내용(유권자 방해, 괴롭힘 및 학대, 폭력 및 선동 등)이라면 삭제할 것입니다."라고 비커트가 작성했습니다.

Newsletter
디지털 시대, 새로운 정보를 받아보세요!
작가와 대화를 시작하세요
더코어 스토어