제가 대규모 언어모델에 관심이 많은 건 잘 아실 겁니다. 앞으로 기자의 업무 향상 등에 가장 영향을 미치게 될 관련 기술이라고 보기 때문인데요. 최근 들어 규모 측면에서나 성능 측면에서나 괄목할 만한 성과가 계속 발표되는 중인 듯합니다.
구글 I/O 2022에서 소개된 구글의 LaMDA2(이하 람다2, 테스트 키친 포함)나 지난 4월 공개된 오픈AI의 DALE2 등도 계속 유심히 살펴보는 중인데요. 특히 람다2는 기존 언어모델에 자체 도구 학습 모델을 적용한 것이 눈에 띌 정도였습니다. 언어모델이 자체 검색을 하고 이 결과값을 반영해 가는 과정이 제법 검색을 통한 '팩트체크'와 닮은 듯했습니다. 아직 갈 길이 멀지만요.
다름 아니라 언어모델이 가져올 몇 년 뒤의 모습을 제법 구체적으로 설명한 글이 있어서 여기 번역했습니다. 러셀 캐플란 Scale AI 엔지니어링 디렉터가 트위터에 쓴 글입니다. 이 분은 테슬라에서 오토파일럿 개발에 참여한 경력도 가지고 있습니다. 제법 훌륭한 통찰을 제공하고 있기에 소개할 만해서 이렇게 가져왔습니다.
가장 인상적인 문구는 언어모델이 새로운 플랫폼 게이트키퍼가 될 것이라는 전망입니다. 아시다시피 언어모델을 개발할 수 있는 기업은 한정돼 있습니다. 어머어마한 규모의 컴퓨팅 자원이 없으면 감히 시도할 수가 없습니다. 그 방대한 학습용 데이터를 또 어떻게 조달을 할 수 있을까요? 결국 계속 이 자원을 빌려쓰게 될 것이고, 그 편리함에 빠져나오기도 어려울 것입니다. 비용 지출을 계속 될 것이고요. (결국 정부 지원과 자원을 필요로 하게 되지 않을까 싶기도 합니다.)