tradingkey.logo
tradingkey.logo
검색

엔비디아의 200억 달러짜리 AI 칩이 ChatGPT의 기능을 능가할 수도 있다

CryptopolitanMar 14, 2026 7:15 AM

반도체 업계의 거물 엔비디아가 챗봇과 기타 인공지능 도구의 응답 속도를 향상시키도록 설계된 강력한 신형 인공지능 프로세서를 공개할 준비를 하고 있습니다. 이 프로세서가 출시되면 현재 챗GPT 상대적으로 느려 보일 가능성이 있습니다.

엔비디아의 연례 GTC 개발자 컨퍼런스에서 공개될 예정인 이 새로운 플랫폼은 AI 추론, 즉 학습된 모델이 사용자 질문에 대한 답변을 생성하는 단계에 최적화되어 있습니다. 학습과 추론 모두를 처리하도록 설계된 기존 GPU와 달리, 이 차세대 프로세서는 더욱 빠르고 효율적인 응답 제공에 특화되어 있습니다.

해당 제품이 출시된다면, 고속 AI 처리 하드웨어 전문 기업인 Groq의 창업자들이

지난해 말, 엔비디아는 칩 스타트업 그록(Groq)의 기술 라이선스 취득과 CEO를 포함한 핵심 인력 영입에 약 200억 달러를 투자한 것으로 알려졌습니다. 같은 시기에 엔비디아 CEO 젠슨 황은 직원들에게 "그록의 저지연 프로세서를 엔비디아 AI 팩토리 아키텍처에 통합하여 플랫폼을 확장하고 더욱 광범위한 AI 추론 및 실시간 워크로드를 지원할 계획"이라고 밝혔습니다

, 새로운 추론 칩은 복잡한 AI 쿼리를 고속으로 처리할 수 있을 것으로 예상되며, 오픈아이디어(OpenAI) 를 비롯한 주요 고객사들이 이를 도입할 가능성이 높다고 합니다. 또한, 이 보고서는 새로운 칩이 오픈아이디어 추론 작업량의 약 10%를 처리할 수 있을 것으로 예측했습니다.

소식통에 따르면 그로크(Groq) 스타일 칩은 SRAM을 사용할 것이라고 합니다

최근 실적 발표에서 엔비디아 CEO는 흔히 '인공지능계의 슈퍼볼'로 불리는 GTC 행사에서 여러 신제품을 공개할 것이라고 암시했습니다. 그는 "GTC에서 여러분과 공유하고 싶은 멋진 아이디어들이 있습니다."라고 말했습니다.

대부분의 분석가들은 Groq 방식의 칩이 제품 라인업에 포함될 가능성이 높다고 보고 있습니다. 또한, 이 칩의 설계는 NVIDIA가 추론 컴퓨팅에서 메모리 제약을 어떻게 해결하고자 하는지에 대한 단서를 제공할 수 있다고 언급했습니다. 이러한 플랫폼은 일반적으로 고대역폭 메모리(HBM)를 사용하지만, 최근 HBM 공급이 어려워지고 있습니다.

내부 관계자에 따르면 해당 회사는 HBM과 관련된 동적 RAM 대신 SRAM을 칩에 사용할 계획이라고 합니다. SRAM은 접근성이 더 뛰어나고 AI 추론 작업 부하의 성능을 향상시킬 수 있다는 장점이 있습니다.

만약 이 칩이 공개된다면, 칩 제조업체인 엔비디아와 AI 학습 모델 개발에 있어 큰 진전이 될 수 있을 것입니다. 그러나 d-Matrix의 설립자이자 CEO인 시드 셰스는 이 칩의 출시 가능성에 대해 회의적인 반응을 보였습니다. 그는 엔비디아가 AI 학습 분야에서는 명실상부한 선두주자이지만, 추론 분야는 완전히 다른 양상을 띤다고 지적했습니다. 그는 "완성된 AI 모델을 실행하는 데에는 학습 과정과는 다른 종류의 프로그래밍이 필요하기 때문에 개발자들은 엔비디아 외의 다른 경쟁사 제품을 고려할 수도 있다"고 말했습니다 

하지만 다른 거대 기술 기업들도 추론 컴퓨팅 분야를 발전시키고 있습니다. 메타(Meta)는 이번 주 추론에 특화된 4가지 프로세서를 공개했는데, 이에 실리콘 밸리의 한 투자자는 업계가 "엔비디아 독점" 시대에서 벗어나고 있을지도 모른다고 말했습니다.

하지만 최근 엔비디아의 경쟁사인 퓨리오사AI의 CEO인 준 파이크는 손쉽게 배포 가능한 추론 컴퓨팅의 이점에 대해 언급하면서 대부분의 데이터 센터가 최신 액체 냉각 GPU를 수용할 수 없다고 경고했습니다.

그럼에도 불구하고, 그의 우려에도 불구하고 뱅크 오브 아메리카의 분석가들은 2030년까지 AI 데이터 센터 지출에서 추론 워크로드가 차지하는 비중이 75%에 달할 것으로 예상하며, 시장 규모는 약 1조 2천억 달러에 이를 것으로 전망하고 있습니다. 이는 작년의 약 50%에서 크게 증가한 수치입니다. 크리에이티브 스트래티지스의 기술 분석가인 벤 바자린 또한 미래의 데이터 센터는 획일적인 모델로 구현되지 않을 것이며, 기업들은 칩과 시설 개발에 있어 각기 다른 접근 방식을 취할 것이라고 주장했습니다.

NVIDIA는 2026년 하반기에 Vera Rubin 칩을 출시할 것으로 예상됩니다

NVIDIA는 최근 차세대 AI 칩인 Vera Rubin AI 칩을 출시하며, DeepSeek 컴퓨팅 수요가 더욱 증가할 것으로 예상했습니다. NVIDIA는 이 칩이 더 큰 AI 모델을 학습시키고 더 많은 사용자에게 더욱 정교한 결과물을 제공하는 데 도움이 될 것이라고 밝혔습니다.

황 대표에 따르면 루빈 역시 2026년 하반기에 출시될 예정이며, 최고급 버전인 "울트라" 버전은 2027년에 출시될 예정이다.

그는 또한 루빈 시스템 하나가 576개의 개별 GPU를 하나의 칩으로 결합할 것이라고 설명했습니다. 현재 NVIDIA의 블랙웰 칩은 NVL72 시스템에 72개의 GPU를 클러스터링하고 있는데, 이는 루빈이 훨씬 더 발전된 메모리를 탑재할 것임을 의미합니다.

암호화폐 분야의 최고 전문가들이 이미 저희 뉴스레터를 구독하고 있습니다. 함께하고 싶으신가요? 지금 바로 참여하세요 .

면책 조항: 이 웹사이트에서 제공되는 정보는 교육적이고 정보 제공을 위한 목적으로만 사용되며, 금융 또는 투자 조언으로 간주되어서는 안 됩니다.

추천 기사

KeyAI