
在 AI 需求帶動本輪存儲 “超級” 週期的情況下,存儲行業在昨晚再次迎來大漲($Sandisk(SNDK.US) +27%,$美光科技(MU.US) +10%),而這主要是黃仁勳在 CES2026 上的演講給原本火熱的存儲市場又添上了 “一把火”。
Source:Longport.app
首先我們回顧一下,黃仁勳在 CES2026 大會上的核心內容,一方面是談物理 AI 的廣闊前景和落地場景;另一方面就是 Rubin 架構的進展和提升。而本次存儲領域的大漲,正是由 Rubin 架構中更大的存儲需求帶來的。
整體來看:$英偉達(NVDA.US) Rubin 中變化最大的就是,在 “算力層 + 網絡層” 的基礎上,又新增了 “存儲和安全層”。下游需求的增長,無疑會加劇存儲市場的 “供需失衡” 的狀態。
Rubin 對存儲的影響,具體細分:①HBM 符合預期。升級至 HBM4,但單 GPU 搭載的容量不變;②DDR 略好於預期。單 CPU 搭載的 DDR 量提升至原來的 3 倍,綜合來看 2026 年大致對應關係是單卡 GPU 配置 0.5TB 的 DDR 量;③NAND 是最超預期的部分,新增的推理 “上下文存儲平臺”(ICMS 平臺),通過利用 NAND 擔任爲 “外掛內存”,減輕 HBM 原有的壓力。
整體來看,在本次老黃 CES2026 演講後,HBM 的需求量預期未變;DDR 的需求量增加了 1EB 左右,對應供需缺口擴大 1% 左右;對 NAND 需求量直接影響是增加了 45EB 左右,對應的供需缺口將擴大 4-5% 左右。
由於 NAND 是最爲受益的部分,從昨天至今的股價表現也能看出,閃迪和鎧俠的股價漲幅更爲明顯,海力士、三星的股價表現相對更弱。
以下是海豚君關於 Rubin 及老黃在 CES2026 演講的核心內容:
一、Rubin 架構對存儲需求的影響:
從 Blackwell 到 Rubin,HBM 依然是 AI 服務器中最爲核心的部分,不會被新增的存儲層(NAND)所替代。隨着推理模型越來越大,HBM 會有容量壓力。而將一部分原本塞入 HBM 的 KV cache 遷移至 BlueField-4+NAND 上,一定程度上減輕了 HBM 的壓力。
黃仁勳在演講中提到 Rubin 將從 NVL144 改回 NVL72,實質上是一樣的。因爲此前 144 是以 die 的個數來計算,而這次 72 是以 GPU 個數(1 個 GPU=2 個 die)來計。因而,在下面的需求量考慮中,海豚君也用 NVL72 的口徑來預估。
1.1 HBM 的影響:不可替代的剛需
相比於 Blackwell,Rubin 將使用 HBM4 芯片。雖然 HBM4 在單 GPU 帶寬有望達到 22TB/s(是 HBM3E 的 2.8 倍),但單 GPU 的 HBM4 容量將和 HBM3E 同樣爲 288GB,增長主要來自於 GPU 出貨量的帶動,是符合市場預期的;
1.2 DDR 的影響:主要在 CPU 中負責系統控制、數據預處理與上下文管理
相比於 Grace,單顆 Vera CPU 的 DDR 需求量將提升至 1.5TB(是 Grace 的 3 倍),基於單個 NVL72(72GPU+36CPU)來看,大約對 DDR 的需求量爲 54TB,是此前的 3 倍左右(Blackwell 約爲 18TB)。
從市場對英偉達 CoWoS 的預期來看,2026 年英偉達的 CoWoS 中大約是 B300 和 Rubin 是 1:1,以平均值預估 2026 年單個 NVL72 對 DDR 的需求量約爲 36TB。換算來看,大致對應關係是 1 個 GPU 需要 0.5TB 的 DDR(略好於市場預期)。
結合當前市場預期的 2026 年 CoWoS 的總量來看,海豚君預估 2026 年 AI 服務器對傳統 DDR 的需求將達到 91.9 億 GB(9.2EB),同比增長 250%,比市場原有預期提升了 1EB 左右。
具體來看,AI 服務器在 CoWoS 產量提升和單臺配置數量提升的帶動下,2026 年 AI 服務器領域對傳統 DDR 的需求增量將達到 66 億 GB 左右(6.6EB),佔 DRAM 整體市場供應量的 15-20%,這將直接侵蝕原有 PC、手機等領域的供應量。
1.3 NAND 的影響:用於系統啓動和模型權重的預加載,Rubin 引入了 “推理上下文存儲平臺”
NAND 原本在 Blackwell 架構中,主要是用在系統中,負責系統啓動和模型權重的預加載,單個 NVL72 大約需要是 500-1200TB 的容量(取中值 850TB)。
在本次老黃的演講中,英偉達將在 Rubin 結構中新增 “推理上下文存儲平臺”(ICMS 平臺),這是超預期的。新增的 ICMS 專用上下文存儲,將 KV Cache 從 HBM 下沉至更具性價比的存儲介質,釋放 HBM 帶寬用於計算,是推理成本降低 90% 的核心創新之一。
其中每個 Rubin GPU 可以額外擴展 16TB 的 NAND(作爲 “外掛內存”),對於單個 NVL72 可以拓展 1152TB 的 NAND 需求。由於在 Rubin 結構中仍然需要 850TB 左右的 NVMe SSD,單個 NVL72 的合計 NAND 需求量將達到 2000TB 左右。
當前市場預估 2026 年英偉達 Rubin 的 CoWoS 量約爲 35 萬片,進而測算大約能生產 3.9 萬臺 NVL72 機櫃。由於單個機櫃將新增了 1152TB 的 NAND 需求(最超預期的部分),那麼老黃本次演講後讓英偉達 Rubin 對 2026 年的 NAND 需求量將再次提升 44.8EB,這相當於 2025 年全球 NAND 供應總量的 4-5%,加大了供需缺口,給原本緊張的 NAND 供需格局又 “添了一把火”。
二、老黃的 CES2026:從 GPU 廠商轉型爲 AI 全棧基礎設施提供商
英偉達 CEO 黃仁勳在 CES2026 發表主題演講,最主要是圍繞物理 AI 和 Vera Rubin 架構兩大方面展開。
2.1 物理 AI-“ChatGPT 時刻”
AI 的發展過程:感知 AI->生成式 AI->AI 智能體->物理 AI
物理 AI 的定義:讓 AI 理解重力、慣性、因果關係等物理定律,具備在真實世界中推理、規劃、行動和解釋的能力。不再僅僅是預先錄製的程序,而是能實時 “思考” 的智能體。
技術原理:①通過合成數據生成(基於物理定律的基準真理)解決物理 AI 訓練數據稀缺問題;②依賴三臺計算機協同(訓練 AI 的 GPU、推理用機器人計算機、模擬用 Omniverse 系統);③核心模型(Cosmos 世界基礎模型、GR00T 人形機器人系統)實現物理世界理解與交互;
落地場景:①自動駕駛(Alpamayo 端到端訓練,從攝像頭輸入到執行輸出,支持推理與軌跡規劃);②工業製造(西門子合作,數字孿生、工廠自動化、芯片設計模擬);③機器人(人形機器人、移動機器人、手術機器人的動作與環境交互);④天氣預測(Earth 2 結合 ForecastNet/Cordiff 革新預測方式)。
2.2 NVIDIA Rubin 平臺:最大增量 Context Memory
在本次 CES2026 大會上,老黃宣佈 NVIDIA Rubin 平臺已經進入全面生產階段,並預計將於 2026 年下半年開始出貨。
當前 AI 行業正經歷從訓練主導到推理主導的結構性轉變:①訓練需求趨於穩定,而推理需求呈指數級增長;推理 token 成本已成爲 AI 應用商業化的最大瓶頸,決定了產品定價與盈利能力。黃仁勳在本次 CES2026 演講中,提到了本次 Rubin 將通過 “六芯片全系統重構” 的方式,將推理 token 成本降至 Blackwell 平臺的約 1/10。
NVIDIA Rubin 平臺將由6 款全新的定製芯片(Vera CPU+Rubin GPU+ConnectX-9+BlueField-4+NVLink 6 Switch+Spectrum-6)組成。具體來看,英偉達從 Blackwell 架構到 Rubin 架構,在整體結構上實現了從 “算力層 + 網絡層” 升級成了 “算力層 + 網絡層 + 存儲與安全層”。其中存儲與安全層是在 Rubin 架構下最爲明顯的增量,這也是帶動昨夜存儲大漲的主要原因。
1)算力層:核心依然是 Vera CPU+ Rubin GPU。
①Vera CPU:專爲大規模 AI 工廠的代理推理(Agentic Reasoning)設計,承擔模型協同、任務拆解與算力分配的 “調度” 角色。
Vera CPU採用 88 個定製化 Olympus 核心,支持空間多線程(Spatial Multi-Threading),176 個全性能線程。具有 1.8TB/s NVLink-C2C 互連速率、1.5TB LPDDR5X 系統內存(爲前代 Grace CPU 的 3 倍),內存帶寬 1.2TB/s;
②Rubin GPU:還是超大規模模型訓練與高吞吐量推理的“算力引擎”。
Rubin GPU的推理算力爲 50 PFLOPS(NVFP4 精度下,爲 Blackwell GPU 的 5 倍),訓練算力爲 35 PFLOPS(NVFP4 精度下,爲 Blackwell 的 3.5 倍)。搭載的 HBM4 內存帶寬將達到 22TB/s(爲 Blackwell 的 2.8 倍),NVLink 帶寬也將是單 GPU 3.6TB/s(爲 Blackwell 的 2 倍)。
2)網絡層:ConnectX-9+ Spectrum-6 的“AI 以太網”
①ConnectX-9負責處理節點間的 AI 流量,解決傳統以太網在 AI 場景下的 “高延遲、易擁堵” 問題。具有 800Gb/s 以太網速率(單端口),支持 200G PAM4 串並轉換技術;
②Spectrum-6負責連接數千個 Rubin 機架,支持吉瓦級數據中心的規模化部署。支持 128 個 800Gb/s 或 512 個 200Gb/s 端口,實現 102.4Tb/s 的可擴展交換架構。
3)存儲與安全層(新增):BlueField-4
當 AI 服務器的重心從訓練側轉向推理側的過程中,明顯遇到了 AI 推理階段 “上下文內存不足” 的問題。針對於這一問題,英偉達在 Rubin 結構中增加了 BlueField-4 芯片,來承擔起存儲卸載、安全隔離、KV 緩存管理三大角色。
通過 BlueField-4,Rubin 平臺實現了機架級 KV 緩存共享池和安全隔離:
a)每臺 BlueField-4 可管理 150TB 上下文內存,爲每個 Rubin GPU 額外擴展 16TB 的 NAND(作爲 “外掛內存”),滿足 10 萬字長文檔理解、數小時多輪對話等場景;
b)與傳統存儲相比,KV 緩存訪問速度提升 5 倍,每秒 Token 處理量(推理吞吐量)和能效同步提升 5 倍,也能避免 GPU 因等待數據空轉的問題;
c)通過高級安全可信資源架構(ASTRA)構建系統級安全屏障,解決 “數據隱私” 與 “多租戶隔離” 難題:實現全鏈路加密、多租戶隔離和可追溯性。
整體來看,從黃仁勳在本次 CES2026 的演講來看,英偉達將從 GPU 廠商轉型爲 AI 全棧基礎設施提供商。而公司在 AI 領域也已經開始了全棧佈局:①芯片層(Vera CPU、Rubin GPU、Orin/Thor 芯片);②硬件系統層(Vera Rubin 超級計算機、DGX Cloud);③模型層(NeMo Tron、Cosmos 等開源基礎模型 + 垂直領域模型);④工具層(NeMo 系列庫、藍圖構建框架);⑤生態層(聯合 Palantir、西門子等企業)。
<此處結束>
海豚君近期關於存儲類及英偉達的相關文章回溯:
2026 年 1 月 6 日 AI 存儲熱點《存儲猛拉,AI 存力超級週期到底有多神?》
2025 年 12 月 18 日美光電話會《美光(分析師小會):現金優先用於擴大生產,HBM4 良率爬坡更快》
2025 年 12 月 18 日美光電話會《美光(紀要):毛利率繼續提升,幅度會放緩》
2025 年 12 月 18 日美光財報點評《美光 MU:AI 點燃存力,存儲大週期啓幕?》
2025 年 12 月 9 日英偉達熱點《H200 放行:英偉達 6 萬億市值路的 “穿雲箭”?》
2025 年 11 月 20 日英偉達紀要《英偉達(紀要):明年目標毛利率 75%,Open AI 的合作並不盲目》
2025 年 11 月 20 日英偉達財報《比非農還重要!英偉達能再拯救美股嗎?》
本文的風險披露與聲明:海豚君免責聲明及一般披露