인공지능은 세계를 정복하지 않습니다. 인공지능은 세계를 바꿀 것입니다. 그 변화는 지금 현재 일어나고 있습니다. 3월에 있었던 몇가지 주요 발표를 나열해 보겠습니다.
- 구글은 Gmail, Doc 그리고 Meet에 생성 AI 도구를 통합한다고 밝혔습니다(구글 블로그).
- 구글은 자사 챗봇 바드(Bard)를 공개했습니다. 일단 미국과 영국에 거주하는 사람만 이용할 수 있습니다(구글 트위터).
- 마이크로소프트는 워드, 엑셀, 파워포인트 그리고 아웃룩에 Copilot이란 이름으로 생성 AI 도구를 도입했습니다(마이크로소프트 블로그).
- 마이크로소프트는 Dall-E를 새로운 빙 서비스에 통합시켰습니다, 이로써 빙은 텍스트뿐 아니라 이미지도 생성할 수 있습니다(마이크로소프트 블로그).
- OpenAI는 GPT-3.5의 후속 언어모델로 GPT-4를 공개했습니다. 가장 큰 특징은 이미지도 이해할 수 있는 멀티모달(multimodal)입니다(OpenAI). OpenAI는 API와 플러그인으로 시장을 재편하고자 합니다(테제 1 참조).
- 구글이 투자한 스타트업 Anthropic은 챗GPT의 경쟁 서비스 Claude를 런칭했습니다. Claude는 이미 Quora와 DuckDuckGo에 적용되고 있습니다(Anthropic).
- 미드저니는 버전 5를 공개했습니다. 손가락을 6개 또는 7개로 그리는 오류도 버전 5에서는 수정되었습니다(미드저니 트위터).
- 어도비(Adobe)는 Firefly라는 이름의 생성 AI 도구를 플러그인으로 제공합니다. 가장 큰 특징은 저작권 논쟁을 피하기 위해 Firefly는 퍼블릭 도메인(public domain) 이미지로만 학습되었습니다(어도비).
- 로블록스(Roblox)는 코딩을 모르더라도 게임을 만들 수 있는 인공지능 Code Assist를 공개할 계획입니다(로블록스).
하나 하나가 중요한 일이고 The Core가 분석하고픈 서비스입니다. 바드가 웹 검색을 바꿀 수 있을까요(Platformer 참조)? 로블록스의 Code Assist로 누구나 자신만의 동영상 게임을 만들 수 있을까요(Ars Technica참조)? 냅킨에 손으로 그린 스케치만 있으면 웹 페이지 전체를 코딩할 수 있는 GPT-4는 앞으로 어떤 변화를 가져올까요(뉴욕타임스 참조)? 개별 질문에 집중하는 것도 중요하지만 현재 진행되고 있는 인공지능의 진화와 그 속도를 관통하는 인사이트가 필요한 시점입니다. 그 배경에서 7가지 테제를 도출해 보았습니다.
테제 1. 챗GPT는 사라지면서 시장을 새롭게 재편합니다: Give me convenience, or give me death!
첫 번째 테제는 아래 글에 담았습니다.

테제 2. 인공지능은 (아직) 지능(Intelligence)과 관계 없습니다.
23년 2월 말 OpenAI 창업자 샘 알트만은 "인공일반지능과 그 너머를 위해 계획(Planning for AGI and beyond)"이라는 제목의 블로그 포스트를 게시했습니다. AGI는 Artificial General Intelligence의 약자로서 특정 과제나 작업에서 인간보다 뛰어날 뿐 아니라 이떤 지적 도전도 해결할 수 있는 소프트웨어를 뜻합니다. AGI는 스스로 학습하고 기능을 스스로 확장할 수 있어야 합니다.
- 알트만은 AGI의 출현을 시간 문제로 보고 있습니다. 그러나 연구자 사이에서 합의가 이루어진 것은 아니며 AGI를 어떻게 정의하는가에 따라 많은 부분이 달라집니다. 대다수 연구자들은 의식을 가진 기계의 출현 가능성은 의심하지만(AI Multiple 참조), AI가 향후 수십년 내로 인간 수준의 지능에 도달할 수 있다고 믿고 있습니다(Our World in Data 참조).
- 중요한 점은 GPT-4 등 현재의 대규모 언어모델(LLM)은 AGI와 아무런 관련이 없습니다. 현재 LLM은 특정 작업 및 과제를 잘 수행하지만 개성이나 인성을 가지고 있지 않으며 스스로 진화하지 않습니다. AGI와 공통점이 없다는 점은 추천 알고리즘, 자율 주행 등 우리가 인공지능이라고 부르는 다른 모든 것에도 해당됩니다.
- 또한 인공지능과 지능(intelligence)는 명확하게 구별할 필요가 있습니다. 지난 3월 8일 뉴욕타임스 노엄 촘스키의 칼럼에 나온 그의 아래 주장에 동의합니다.
테제 3. 인공지능은 기술 혁명을 위해 의식을 가질 필요가 없습니다.
인공지능과 공상과학 소설의 모든 시나리오에 대한 논쟁은 중요할 수 있습니다. 그러나 이러한 논쟁은 적어도 현재 수준에선 추상적이고 가상의 이야기일 뿐입니다. 더욱 중요한 것은 '멍청한' 인공지능이 이미 제기하고 있는 도전들에 눈을 돌리는 겁니다.
- 인공지능은 감정, 의식 그리고 욕망 없이도 급격한 발전을 이룰 수 있습니다. 인공지능이 이미 블로그 포스트를 작성하고 소설을 창작하고 핵물리학을 마스터하고 봄을 애틋하게 표현하는 것은 감정, 의식 그리고 욕망과 아무 관계가 없습니다.
- 직업은 복수의 작업으로 구성되어 있습니다. 기술 진보를 통해 기계는 인간보다 특정한 작업을 더 잘 수행합니다. 기계는 작업을 대체하는 방식으로 일자리에 변화를 가져옵니다.
- 일부 논의는 인공지능의 단점 및 한계에 초점을 맞추고 있습니다. 챗GPT가 이 시험 또는 저 시험에서 실패하고 인공지능이 작곡한 음악은 인간의 그것보다 그 수준이 훨씬 떨어집니다. 그러나 우리는 많은 영역에서 "아직"이라는 단어를 추가해야 합니다. 중요한 질문은 인공지능이 무엇을 할 수 없는지가 아니라 무엇을 이미 할 수 있는지이며 그리고 무엇을 곧 할 수 있은지입니다(AI Snake Oil 참조).
- 일부에서는 인공지능이 인간을 대체해서는 안된다고 주장합니다. 이는 안타깝게도 희망사항에 불과합니다. 인공지능은 반복적인 작업을 인간 대신 담당하며 멍청하고 불필요한 작업-상사의 지시 중 가끔 있는-을 쉽게 만들어 줍니다. 다시한번 강조합니다. 인간 직업(job)은 복수의 작업(task)으로 구성되어 있습니다.
- 인공지능은 까다롭지 않은 사무 작업뿐 아니라 개발자, 변호사, 건축사, 세무사, 번역가, 저널리스트의 다양한 작업을 대신할 수 있습니다.
- 인공지능은 대량 실업을 결과하지 않습니다. 일자리와 관련해서 인공지능 혁명은 오히려 진화(evolution)에 가깝습니다. 일자리는 즉시 사라지는 것이 아니라 변화합니다. 사람들은 점차 인공지능을 업무에 통합시키고 이에 적응할 수 있습니다.
- 일부 기술(진화)에 익숙하지 않은 사람은 생성 AI가 가져올 변화의 크기를 아직 이해하지 못하고 있습니다. 또 다른 일부 기술 전문가들은 "이제 다 됐어"라며 인공지능의 효용성을 과장합니다.
- 우리가 지난 몇 주 또는 지난 몇 달 동안 목격하고 있는 것은, 스마트폰 도입보다 (중장기적으로) 더 큰 영향을 가져올 사회적, 기술적 그리고 문화적 격변입니다.
테제 4. 인공지능을 의인화하는 것은 인간입니다.
어떤 사람들은 LLM을 확률적 앵무새(뉴욕 매거진 참조), 웹의 흐릿한 JPEG(테드 창, 뉴욕커 참조) 또는 자동 완성 기계라고 부르고 있습니다. 챗봇은 통계적 확률에 따라 다음 단어를 앵무새처럼 따라하고 계산하기 때문에 이러한 비하가 완전히 틀린 것은 아닙니다.
- 트위터, 래딧(reddit)에는 너드들이 많습니다. 이들은 챗GPT에 인간의 특성을 대입해 이를 조롱하곤 합니다. 그들이 틀리지 않습니다. LLM은 감정이나 개성이 없습니다.
- 그러나 이는 진술의 일부입니다. 사람들은 (이유를 정확하게 알 수 없지만) 인공지능을 의인화하는 경향을 보이고 있습니다.
- 두 사례가 이를 잘 보여줍니다. 벤 톰슨(Ben Thompson)과 케빈 루스(Kevin Roose)입니다. 이들은 탁월한 기술 전문가입니다. 인공지능을 이성적으로 정확하게 분석할 수 있는 뛰어난 능력을 가지고 있습니다.
- 벤 톰슨은 시드니(Sydney)의 숨겨진 개성을 가지고 있는 빙(Bing)을 경험한 이후 아래와 같이 쓰고 있습니다(From Bing to Sydney 참조).
- 케빈 루스의 경험은 훨씬 더 극적입니다. 시드니는 케빈을 사랑한다고 선언했고, 그의 결혼 생활은 불행하며 그는 이혼이 필요하다고 주장했습니다. 케빈 루스의 결론은 아래입니다(뉴욕타임스 참조).
- 지극히 이성적이고 기술에 정통한 벤 톰슨과 케빈 루스가 이렇게 감정적으로 반응한다면, '보통 사람'에게 인공지능은 어떤 반응을 일으킬까요?
- 인공지능 (연인) 대화 서비스인 Replika는 다수 이용자가 인공지능과 사랑에 빠진다고 주장하자 소프트웨어 업데이트를 통해 인공지능을 덜 인간적으로 보이도록 조정했습니다(Insider 참조).
- 핵심은, 사람이 직접 감정을 느끼지 않더라도 인공지능은 사람의 감정을 유발한다는 점입니다. 제임스 빈센트(James Vincent)는 이를 '인공지능 거울 테스트'라는 비유로 설명합니다(The Verge 참조). 인간은 거울을 통해 자신을 인식하지만, 동물은 그렇게 하지 못하고 다른 생물을 보고 있다고 믿습니다. 이제 사람들은 인공지능을 통해 동일한 경험을 하고 있습니다.
테제 5. 인공지능을 다룰 수 있는 능력은 이제 중요한 문화 기술입니다.
바로 위에서 설명한 거울 테스트는 인간이 인공지능을 다루는 방법을 배워야 하는 많은 이유 중 하나에 불과합니다. 인공지능이 확산될 수록 인공지능을 다루는 기술은 더욱 중요해질 겁니다.
- 이 기술은 적극적인 상호작용과 관련이 있습니다. 풍부한 텍스트 입력(prompt 입력)을 통해 이미 인공지능과 소통하는 방법을 아는 사람을 위한 취업 시장이 형성되고 있습니다(워싱턴 포스트 참조: Prompt Engineer). 프롬프트 엔지니어 또는 프롬프트 해커는 인공지능의 취약점과 버그를 발견하고 인공지능을 활용방도를 터득하며 인공지능의 보안을 강화하는데 도움을 줍니다.
- 이러한 전문가 외에도 거의 모든 사람들이 매일 생성 AI와 상호작용하게 될 것입니다. 목표에 맞는 방식으로 LLM을 다루고 사용하는 것은 스마트폰을 다루는 것만큼 자연스러워질 것입니다.
- 따라서 학교와 대학은 인공지능 도구의 발전 그리고 그 활용에 반대하는 것이 아니라 생성 AI 도구와 협력해야 합니다. 교실에서 챗GPT를 금지하는 것이 아니라 지식 전달과 시험 및 평가를 근본적으로 바꿔야 합니다(One Useful Thing 참조).
- 한편 이용자는 인공지능과 인공지능이 생성한 콘텐츠를 소극적으로 다루는 방법도 배워야 합니다. 무엇보다 인간과 인공지능, 진짜 콘텐츠와 인공 콘텐츠를 구별하는 능력이 필요합니다.
- 진짜 또는 진정성(authenticity)은 완전히 새로운 의미를 가지게 될 것입니다. 이미 소셜미디어에는 사진이나 동영상을 AI가 생성한 콘텐츠로 대신하는 이용자 계정이 증가하고 있습니다(The Verge 참조). 반대로 인상적인 인물 사진을 미드저니가 만든 것이라고 주장하는 인플루언서도 있습니다(Ars Technica 참조).
- 사람들이 기계를 사람으로, 사람을 기계로 착각하게 될 가능성이 높습니다. 아마 다양한 인식 기술이 등장하여 사람과 기계를 식별하게 될 것입니다.
테제 6. 인공지능의 위험성은 현실적 위협입니다. 그러나 공포는 필요 없습니다.
생성 AI 도구가 악의적인 사람들에 의해 악용될 가능성은 매우 높습니다(예: 금융 사기). 범죄자와 사기꾼은 이를 이용해 속임수를 쓸 것이며, 허위 정보와 선전선동의 양과 질이 급격히 증가할 것입니다.
- 오디오 Deepfake는 이미 놀라울 정도로 실제와 유사하며(Daring Fireball 참조), 몇 줄의 텍스트로 몇 초만에 트럼프 전 미국대통령이 체포되는 것으로 추정되는 가짜 이미지가 만들어졌습니다(아래 트위터 참조).
Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023
- 아직 이러한 가짜는 어렵지 않게 가짜로 인식할 수 있습니다(Wired 참조). 그러나 가짜는 기술적으로 곧 완벽해질 것입니다. 그렇다면 조심, 주의, 회의가 필요합니다. 우리는 우리 자신의 눈과 귀를 불신하는 법을 배워야 합니다.
- 이러한 위험은 실제하지만(Vox 참조), 때때로 관련된 공포는 터무니없습니다. 이러한 위험이 핵무기와 비교되기도 합니다.
- 이러한 터미네이터 시나리오가 문제인 이유는 우리가 실제 문제에 집중하지 못하게 하기 때문입니다. 우리는 이러한 디스토피아를 무시해야 합니다.
테제 7. 인공지능은 개방과 규제를 필요로 합니다.
소셜미디어 초기 실리콘 벨리에서 통용되었던 표현 중 하나는 "Move fast and break things"입니다. 이는 실수였습니다. 인공지는은 페이스북, 인스타그램 그리고 틱톡보다 더 큰 파괴력과 잠재력을 가지고 있습니다.
- 아마도 가장 좋은 방법은 인공지능의 개발 속도를 늦추는 겁니다. 모든 관련 기업이 업그레이드를 중단하고 대신 위험 영향 평가를 수행하고 안전과 윤리에 더 높은 가중치를 부여하자는 주장도 있습니다. 이 시나리오는 바람직할 순 있어도 비현실적입니다(Vox 참조).
- 마이크로소프트, 구글, 메타, 오픈AI 등만 서로 경쟁하는 것이 아닙니다. 미국과 중국도 AI 경쟁에 뛰어들었습니다. 브레이크를 밟는 쪽이 지게 됩니다.
- OpenAI는 이름에 걸맞지 않게 자사 LLM의 교육 자료와 방법을 숨기고 있습니다.
- 인공지능은 이렇게 비밀에 부치기에는 너무나 강력합니다. 소셜미디어 추천 알고리즘은 과거나 지금이나 여전히 블랙박스입니다. LLM은 더 개방적이어야 합니다(Mozilla 제안 참조).
- 인공지능 기업이 자발적으로 개방하지 않을 것이므로 투명성을 의무화하고 한계를 설정하는 법률이 필요합니다.
- 인공지능의 힘과 발전을 제한해서는 안됩니다. 인공지능을 제어하는 사람의 힘을 제한하는 것이 중요합니다.