엔비디아의 2026회계연도 4분기 예상 매출은 650억~658억 달러로, 전년 대비 67% 증가하며 블랙웰 아키텍처의 높은 성장세를 반영한다. 데이터센터 매출이 전체의 90%를 차지하며, 조정 주당순이익은 1.46~1.53달러로 예상된다. 3분기 하락했던 매출총이익률은 75.0%로 회복을 시도하지만, 메모리 가격 상승이 향후 이익률에 하방 압력으로 작용할 가능성이 있다.
주가 상승세는 경쟁사 대비 둔화되었으며, 주요 빅테크 기업들의 자본 지출 증대가 엔비디아 GPU 매출 증가로 직결되지 않는 모습이다. 구글의 TPU는 내부 AI 훈련 및 추론에서 엔비디아 GPU를 대체하고 있으나, 외부 클라우드 고객은 여전히 엔비디아 GPU를 선호한다.
AI 산업의 추론 단계 중요성 부각으로 CPU의 역할이 커지고 있으며, AMD는 CPU 시장에서 경쟁력을 강화하고 있다. 엔비디아는 GPU, CPU, 네트워킹을 통합한 자체 생태계 구축으로 경쟁 우위를 확보하려 한다.

이번 주 엔비디아가 2026회계연도 4분기 실적을 발표함에 따라 모든 시선이 집중되고 있다.
지표 | 2026회계연도 4분기 추정치 | 전년 동기 대비(YoY) 성장률 | 세부 내용 |
매출 | 650억~658억 달러 | 약 67% | 2025회계연도 4분기 393억 달러에서 증가. 블랙웰(Blackwell) 생산 증대(램프업)의 정점을 반영함. |
조정 주당순이익(EPS) | 1.46~1.53 달러 | 약 71% | 지난해 0.89달러에서 대폭 증가. |
매출총이익률 | 약 75.0% | +140bps | 3분기의 73.6% '하락' 이후 회복을 시도함. |
데이터센터 매출 | 약 599억 달러 | 약 66% | 전체 매출의 약 90%. |
엔비디아의 2026회계연도 4분기 예상 실적은 이 회사가 여전히 정점의 성장 단계에 있음을 보여준다. 매출은 650억 달러에서 658억 달러 사이로 추정되며, 이는 2025회계연도 4분기에 기록한 393억 달러 대비 67% 증가한 수치다. 이러한 급증은 생산 증대가 정점에 달한 '블랙웰' 아키텍처가 주로 견인하고 있다. 데이터센터 부문은 약 599억 달러, 즉 전체 매출의 90%를 차지하며 회사의 독보적인 엔진 역할을 이어가고 있다.
수익성 또한 안정화 조짐을 보이고 있다. 조정 주당순이익(EPS)은 지난해 0.89달러에서 크게 도약한 1.46~1.53달러로 급증할 것으로 예상된다. 투자자들에게 아마도 가장 중요한 점은 매출총이익률이 75.0%로 회복될 것으로 보인다는 사실이다. 이는 복잡한 블랙웰 시리즈의 초기 수율 저하와 45억 달러의 재고 상각으로 인해 3분기에 73.6%까지 일시적으로 하락했던 것에 따른 것이다. 하지만 새로운 도전도 기다리고 있다. 메모리 가격이 25~30% 상승하면서 이익률에 하방 압력을 가할 수 있으며, 이는 향후 몇 분기 동안 2~3%포인트의 역풍을 일으킬 가능성이 있다.
실적 발표 컨퍼런스 콜에서 투자자들은 제품군과 관련된 업데이트 사항에도 면밀히 주목할 것이다.
세대 | 아키텍처 | 연도 | GPU 모델 | CPU 모델 | 주요 발전 사항 |
출시 예정 | 파인만(Feynman) | 2028년 | F100 | 베라 넥스트(Vera Next) | 차세대 '물리적 AI'를 겨냥함. |
현재 / 미래 | 루빈(Rubin) | 2026년 | R100 / 루빈 울트라(Rubin Ultra) | 베라(Vera) (88코어) | HBM4 메모리, 3nm 공정, 1.8 TB/s NVLink. |
최신작 | 블랙웰(Blackwell) | 2024-25년 | B100, B200, B300 | Grace (72코어) | 최초의 "듀얼 다이" GPU; 2,080억 개의 트랜지스터. |
레거시 / 성숙기 | Hopper | 2022-23 | H100, H200 | Grace | LLM을 위한 "트랜스포머 엔진" 도입. |

출처: TradingView
이러한 "인상적인 수치"에도 불구하고, NVIDIA의 주가는 지난 6개월 동안 10% 상승하는 데 그쳤습니다. 이를 비교해 보면, 같은 기간 주요 경쟁사인 AMD는 23% 상승했으며 광범위한 SOX 반도체 지수는 48% 급등했습니다. 아마존, 알파벳, 메타, 마이크로소프트 등 "하이퍼스케일러"들이 모두 2026년 자본 지출(Capex) 가이던스를 대폭 상향했다는 점을 고려하면 이러한 수익률 저조는 특히 의문스러운 부분입니다.
논리적으로 이들 빅테크 기업의 자본 지출 증가는 NVIDIA GPU의 매출 증가와 직결되어야 합니다. 그러나 아마존이 자본 지출을 2,000억 달러로 56% 늘린다고 발표했을 때 NVIDIA 주가는 보합권에 머물렀습니다. 알파벳(+98%)과 메타(+74%)의 대규모 가이던스 상향 발표 이후에도 비슷한 반응이 나타났습니다.
기업 | 2026년 자본 지출 가이던스 | 전년 대비(YoY) 증가율 | NVDA 주가 반응 |
아마존 | 2,000억 달러 | +56% | 보합 / -1.2% |
알파벳 | 1,800억 달러 | +98% | 보합 / +0.5% |
메타 | 1,250억 달러 | +74% | 보합 / -0.8% |
마이크로소프트 | 1,400억 달러 | +59% | 보합 / -2.1% |
NVIDIA의 지배력에 대한 가장 두드러진 위협은 Google의 텐서 처리 장치(TPU)에서 발생한다. Google은 가장 중요한 내부 워크로드에 대해 NVIDIA를 우회할 수 있음을 성공적으로 입증했다. 현재 Gemini 3와 4는 거의 전적으로(95~100%) Google 내부 TPU에서 훈련되고 있으며, NVIDIA GPU는 해당 특정 워크로드의 사실상 0~5%만을 담당하고 있다. 검색 및 YouTube를 구동하는 작업과 같은 내부 추론 작업의 경우, TPU는 여전히 전체 물량의 약 85~90%를 처리한다.
이러한 변화는 투자자들에게 서사적 전환을 불러일으킨다. AI 모델의 선두주자가 NVIDIA에서 멀어지고 있다면 다른 기업들도 이를 따를 것인가? 하지만 Google을 두 개의 별개 주체로 볼 때 실상은 더 복잡하다. '내부 Google'은 자급자족이 가능하지만, '외부 Google Cloud'는 고객 만족을 위해 여전히 NVIDIA에 크게 의존하고 있다. 외부 고객들은 워크로드의 약 60~65%에 대해 계속해서 NVIDIA GPU를 선호하는데, 이는 주로 Google TPU가 고객의 특정 아키텍처 요구 사항에 맞지 않을 수 있거나 고객이 CUDA 소프트웨어 생태계에 종속되어 있기 때문이다.
워크로드 유형 | Google TPU 처리 비중(%) | NVIDIA GPU 처리 비중(%) |
내부 AI 훈련 (Gemini 3/4) | ~95% - 100% | ~0% - 5% |
내부 AI 추론 (Search/YouTube) | ~85% - 90% | ~10% - 15% |
외부 Google Cloud (고객 대여) | ~35% - 40% | ~60% - 65% |
AI 산업이 성숙기에 접어들면서, 초점이 모델 학습에서 학습된 모델을 실행해 사용자 질의에 답하는 '추론(inference)' 단계로 옮겨가고 있다. 이 새로운 국면에서 중앙처리장치(CPU)의 중요성이 다시 부각되고 있다. GPU의 강력한 병렬 연산 능력이 요구되는 학습과 달리, 추론은 CPU가 더 효율적으로 처리할 수 있는 일련의 신속한 'if/then' 결정 구조인 '분기형(branchy)' 로직을 수반하는 경우가 많기 때문이다.
이러한 변화는 AMD에 유리하게 작용하고 있다. AMD의 CPU는 단독 성능 기준으로 NVIDIA의 'Grace'나 'Vera' 제품보다 더 강력하고 가성비가 높다는 평가를 받는 경우가 많다. 현재 시장의 많은 외부 클라우드 고객들은 NVIDIA GPU와 AMD CPU를 조합하는 '하이브리드' 방식을 채택하고 있다. AMD가 제공하는 이 '단품(a-la-carte)' 비즈니스 모델은 GPU와 CPU를 하나의 긴밀하게 통합된 패키지로 판매하려는 NVIDIA의 '세트(set meal)' 방식과 대조를 이룬다.
NVIDIA의 목표는 자사의 CPU(Vera 모델 등)가 제3자인 AMD의 'Venice' CPU보다 자사 생태계 내에서 더 원활하게 작동한다는 점을 입증함으로써 이러한 하이브리드 추세를 깨는 것이다. AMD가 '순수 로직'과 IPC(사이클당 명령어 처리 횟수) 면에서 우위에 있는 반면, NVIDIA의 Vera CPU는 ARM 기반 아키텍처를 통해 초고효율 전력 성능을 제공하며 AI 특화 소프트웨어에 고도로 최적화되어 있다.
| 선호되는 GPU | 선호되는 CPU |
구글 내부 사용량 | 구글 TPU | 구글 Axion |
구글 외부 고객사 | NVIDIA GPU | AMD CPU |
NVIDIA 해자의 진정한 강점은 종종 간과되는 부문인 네트워킹에 있다. 네트워킹은 현재 전체 데이터 센터 매출의 약 15%인 약 82억 달러를 차지하고 있으며, 전년 대비 162%라는 경이적인 성장세를 기록 중이다. 이는 경쟁사들이 모방하기 어려운 CPU와 GPU 간의 가교를 형성한다는 점에서 NVIDIA의 "숨겨진 무기"가 되고 있다.
예를 들어, 고객이 AMD CPU와 NVIDIA GPU를 함께 사용하는 경우 PCIe 6.0 연결 속도에 의해 최대 128 GB/s로 제한된다. 반면, 전체를 NVIDIA 스택(Vera CPU 및 Rubin GPU)으로 구성할 경우 독자적인 NVLink 5.0 네트워킹 장비를 통해 표준 연결보다 14배 이상 빠른 1,800 GB/s의 속도를 구현할 수 있다.
지표 | AMD EPYC "Venice" | NVIDIA "Vera" CPU |
순수 CPU 로직 | 우위 (높은 IPC / x86) | 양호 (ARM Neoverse) |
CPU-GPU 간 속도 | 128 GB/s (PCIe 6.0) | 1,800 GB/s (NVLink) |
전력 효율성 | 높음 | 초고효율 (ARM) |
소프트웨어 선택권 | 개방형 (모든 환경 구동 가능) | 폐쇄형 (AI 최적화) |
이러한 성능 차이는 NVIDIA가 고객들에게 AMD CPU 대신 자사 제품으로 전환하도록 설득하는 주요 촉매제가 된다. 전체 시스템 속도가 병목 현상을 일으킨다면 AMD CPU의 "순수 로직" 이점은 무의미해지기 때문이다. 최근 Meta가 대량의 NVIDIA CPU를 구매한 사례는 네트워킹 통합을 통해 CPU 사업을 확장하려는 이러한 장기 전략이 효과를 거두기 시작했음을 시사한다.
NVIDIA는 더 이상 단순한 칩 제조사가 아니라 풀시스템 제공업체다. 'GPU 전쟁'은 수년 전에 승리했지만, 'AI CPU 전쟁'은 이제 막 시작되었다. 현재 시장의 회의론은 업계가 추론과 맞춤형 실리콘으로 전환됨에 따라 NVIDIA가 높은 가격을 결정하거나 지배력을 유지하지 못할 수도 있다는 우려를 반영한다. 다만 GPU, CPU 및 고속 네트워킹을 폐쇄적이고 최적화된 생태계로 통합함으로써 NVIDIA는 '단품(a-la-carte)' 구성 요소로는 극복하기 어려운 해자를 구축하고 있다. 다가오는 실적 발표에서 젠슨 황 CEO는 경쟁 심화에도 불구하고 75%의 마진을 유지하기 위한 핵심 열쇠로 이러한 풀스택 지배력을 강조할 것으로 보인다.
이 콘텐츠는 AI를 활용하여 번역되었으며, 명확성을 확보할 수 있도록 검토 과정을 거쳤습니다. 정보 제공 용도로만 제공됩니다.