아마존 AWS가 노바(Nova)라는 차세대 거대언어모델(LLM)을 발표했습니다. 최고 수준의 LLM을 최저 가격에 이용할 수 있습니다. 또한 11월 말에는 트레이니엄2라는 AI 모델 훈련용 칩을 공개했습니다. 또한 HPCaaS라는 세계 최대 규모의 분산형 슈퍼컴퓨터 계획은 예상을 뛰어넘는 일입니다.
지금까지 “아마존은 AI를 놓치고 있다”는 평가를 받아왔습니다. 아마존은 미국 빅테크 기업 중 자체 거대언어모델이 없는 유일한 기업이었습니다. 아마존은 알렉사(Alexa) 플랫폼을 통해 일찌감치 음성 어시스턴트에 많은 자원을 투자하고 여기에 접근할 수 있는 에코라는 하드웨어를 판매해 왔습니다. 그러나 거대언어모델 정확하게는 트랜스포머 모델이 확산되지 이전에 출시된 대다수 음성 어시스턴트 서비스가 실패한 것처럼, 알렉사는 저성능 AI입니다.
AWS는 2023년부터 아마존 베드락(Amazon Bedrock)이라는 타사의 거대언어모델을 API를 통해 쉽게 사용할 수 있는 인터페이스만을 제공해 왔습니다. 베드락에서 AWS는 AWS 고객이 Anthropic, Cohere, Meta, Mistral AI, Stability AI 등이 제공하는 100여개 거대언어모델을 표준화된 API로 자연스럽게 접근할 수 있도록 도와왔습니다. 이것은 AWS가 추상화와 표준화를 통해 수 많은 고객이 최대한 많은 도구에 최대한 쉽게 접근할 수 있도록 돕는 익숙한 방식입니다. 그러나 지난 11월까지 아마존과 AWS에 부족했던 것은 그들만의 강력한 그리고 독점적인 거대언어모델이었습니다.
Anthropic이 좋은 예입니다. Anthropic은 AWS에 있어서 마이크로소프트 애저(Azure)의 OpenAI와 같은 존재입니다. 아마존은 지금까지 Anthropic에 80억 달러를 투자했고, Anthropic은 이 돈으로 아마존의 컴퓨팅 파워를 이용하고 있습니다. 이는 OpenAI에 대한 마이크로소프트의 투자 방식과 유사합니다. 문제는 Anthropic의 클로드를 구글 클라우드의 버텍스(Vertex) AI 플랫폼을 통해 이용할 수 있다는데 있습니다. 다시말해 고객입장에서 굳이 AWS가 아니더라도 아마존 베드락에 제공하는 다양한 거대언어모델을 이용하는데 큰 어려움이 없습니다. AWS에서만 사용할 수 있는 AI 모델이 없다는 점은 AWS의 큰 약점이었습니다. 노바(Nova)로 이제 상황이 바뀌었습니다.