.jpg)
Max A. CherneyㆍKrystal HuㆍDeepa Seetharaman
샌프란시스코, 2월02일 (로이터) - 오픈AI는 엔비디아의 최신 인공 지능 칩 중 일부에 만족하지 못하며 작년부터 대안을 모색했다고 이 문제에 정통한 8명의 소식통이 말했다. 이는 잠재적으로 AI 붐에서 가장 유명한 두 업체 간의 관계를 복잡하게 만들 수 있다.
여기에서 처음 보도된 챗GPT 제조업체의 전략 변화는 챗GPT 앱을 구동하는 것과 같은 AI 모델이 고객 문의 및 요청에 응답하는 프로세스인 AI 추론의 특정 요소를 수행하는 데 사용되는 칩에 대한 강조가 증가하고 있다는 점이다. 대규모 AI 모델 학습용 칩 분야에서는 여전히 엔비디아가 우위를 점하고 있지만, 추론은 경쟁의 새로운 전선이 됐다.
추론 칩 시장에서 대안을 모색하려는 오픈AI와 다른 업체들(link) )의 이번 결정은 엔비디아의 AI 지배력에 대한 중요한 시험대이며, 두 회사가 투자 협상을 진행 중인 가운데 나온 것이다.
지난 9월, 엔비디아는 이 칩 제조업체에 스타트업의 지분을 제공하고 오픈AI가 첨단 칩을 구매하는 데 필요한 현금을 제공하는 거래의 일환으로 오픈AI(link)에 1,000억 달러를 투자할 계획이라고 밝혔다.
이 거래는 몇 주 안에 성사될 것으로 예상되었다고 로이터 통신은 보도했다. 하지만 협상은 몇 달 동안 계속됐다. 그 기간 동안 오픈AI는 AMD AMD.O 및 기타 업체들과 엔비디아에 필적하는 GPU에 대한 계약을 체결했다. 그러나 제품 로드맵의 변화로 인해 필요한 컴퓨팅 리소스의 종류가 바뀌면서 엔비디아와의 협상이 난항을 겪고 있다고 이 문제에 정통한 한 관계자가 말했다.
토요일, 엔비디아의 CEO인 젠슨 황은 OpenAI와의 긴장 관계에 대한 보도에 대해 "말도 안 되는 소리"라고 일축했으며 (link) 엔비디아는 OpenAI에 대한 막대한 투자를 계획하고 있다고 말했다.
"고객들은 추론 분야에서 최고의 성능과 총소유비용을 대규모로 제공하기 때문에 계속해서 NVIDIA를 선택하고 있다."라고 Nvidia는 성명에서 밝혔다.
오픈AI의 대변인은 별도의 성명에서 이 회사가 추론 제품군의 대부분을 엔비디아에 의존하고 있으며, 엔비디아는 추론에 있어 달러당 최고의 성능을 제공한다고 말했다.
7명의 소식통에 따르면 오픈AI는 소프트웨어 개발 및 다른 소프트웨어와 통신하는 AI와 같은 특정 유형의 문제에 대해 엔비디아의 하드웨어가 챗GPT 사용자에게 답변을 내보내는 속도에 만족하지 못한다고 말했다. 한 소식통은 향후 오픈AI의 추론 컴퓨팅 수요의 약 10%를 충족할 수 있는 새로운 하드웨어가 필요하다고 로이터에 말했다.
두 소식통에 따르면 챗GPT 제조업체는 더 빠른 추론을 위한 칩을 제공하기 위해 Cerebras 및 Groq을 포함한 스타트업과 협력하는 방안을 논의했다고 말했다. 그러나 엔비디아가 Groq과 200억 달러 규모의 라이선스 계약을 체결하면서 오픈AI의 논의가 중단되었다고 한 소식통은 로이터에 말했다.
칩 업계 임원들은 엔비디아가 Groq의 (link) 핵심 인재 (link) 를 영입하기로 한 결정은 급변하는 AI 산업에서 더 나은 경쟁력을 갖추기 위해 기술 포트폴리오를 강화하려는 노력으로 보인다고 말했다. 엔비디아는 성명에서 Groq의 지적 재산이 엔비디아의 제품 로드맵에 매우 보완적이라고 말했다.
엔비디아의 대안
엔비디아의 그래픽 처리 칩은 현재까지 전 세계적으로 AI의 폭발적인 성장을 뒷받침한 챗GPT와 같은 대규모 AI 모델을 훈련하는 데 필요한 대규모 데이터 크런칭에 매우 적합하다. 그러나 AI의 발전은 추론과 추론을 위해 훈련된 모델을 사용하는 데 점점 더 초점을 맞추고 있으며, 이는 AI의 새롭고 더 큰 단계가 될 수 있고 오픈AI의 노력에 영감을 불어넣고 있다.
작년부터 GPU 대안을 모색한 챗GPT 제조업체는 나머지 칩과 동일한 실리콘 조각에 대량의 메모리를 내장한 칩을 만드는 회사, 즉 SRAM에 초점을 맞췄다. 각 칩에 최대한 많은 고가의 SRAM을 탑재하면 수백만 명의 사용자 요청을 처리하는 챗봇과 기타 AI 시스템에 속도 이점을 제공할 수 있다.
추론은 수학적 연산을 수행하는 것보다 메모리에서 데이터를 가져오는 데 상대적으로 더 많은 시간을 소비해야 하므로 훈련보다 더 많은 메모리가 필요하다. Nvidia와 AMD GPU 기술은 외부 메모리에 의존하기 때문에 처리 시간이 길어지고 사용자가 챗봇과 상호작용하는 속도가 느려진다.
오픈AI 내부에서는 이 문제가 특히 이 회사가 공격적으로 마케팅하고 있는 컴퓨터 코드 작성용 제품인 코덱스에서 두드러졌다고 소식통 중 한 명은 덧붙였다. 한 소식통은 오픈AI 직원들이 코덱스의 약점 중 일부를 엔비디아의 GPU 기반 하드웨어 탓으로 돌렸다고 말했다.
1월 30일 기자들과의 통화에서 샘 알트먼 최고경영자(CEO)는 오픈AI의 코딩 모델을 사용하는 고객들은 "코딩 작업의 속도에 큰 프리미엄을 부여할 것"이라고 말했다.
알트만은 오픈AI가 이러한 수요를 충족시킬 수 있는 한 가지 방법은 최근 Cerebras와의 계약을 통해서라고 말하며, 일반 챗GPT 사용자에게는 속도가 그다지 중요하지 않다고 덧붙였다.
Anthropic의 Claude와 Google의 Gemini와 같은 경쟁 제품은 추론에 필요한 종류의 계산을 위해 설계된 텐서 처리 장치 또는 TPU라고 하는 구글이 자체 제작한 칩에 더 많이 의존하는 배포의 이점을 누리며 Nvidia에서 설계한 GPU와 같은 범용 AI 칩보다 성능 이점을 제공할 수 있다.
움직이는 엔비디아
오픈AI가 엔비디아 기술에 대한 유보적인 입장을 분명히 밝히자, 엔비디아는 Cerebras와 Groq 등 SRAM을 많이 사용하는 칩을 개발하는 회사들에게 잠재적인 인수에 대해 접근했다고 관계자들은 말했다. Cerebras는 이를 거절하고 지난달에 발표된 오픈AI와 상업적 계약을 체결했다. 세레브라스는 이에 대해 논평을 거부했다.
이 논의에 정통한 사람들에 따르면 Groq은 오픈AI와 컴퓨팅 파워 제공 계약을 위한 협상을 진행했으며, 약 140억 달러의 가치로 투자자들의 관심을 받았다고 말했다. Groq은 논평을 거부했다.
그러나 소식통에 따르면 12월에 엔비디아는 비독점적 전액 현금 거래로 Groq의 기술을 라이선스하기로 결정했다고 말했다. 이 거래를 통해 다른 회사들도 Groq의 기술을 라이선스할 수 있게 되었지만, Nvidia는 Groq의 칩 설계자를 고용하면서 현재 클라우드 기반 소프트웨어 판매에 집중하고 있다.