從HBM到CXL:三星、SK海力士、美光角逐CXL賽道!CXL會是AI資料中心時代下一個風口嗎?
三星展示 CXL 記憶體系統 Pangea v2,強調其數據傳輸能力較傳統方案提升 10.2 倍,能整合 22 個 CXL DRAM 模組達成 5.5TB 共享記憶體池。CXL 作為一種互連協定,旨在透過記憶體池化擴充伺服器記憶體容量並降低成本,解決「記憶體牆」問題,與高頻寬的 HBM 共同支援 AI 伺服器。SK 海力士、美光、英特爾、輝達等大廠亦積極投入 CXL 相關產品與技術。CXL 的普及將提升記憶體廠商話語權,並可能改變記憶體產業的週期股估值邏輯,轉向成長股。然而,跨行業的生態協同複雜性仍是 CXL 大規模商用的主要挑戰。

TradingKey - 據韓國媒體《韓國經濟》報導,三星近期披露其 CXL 記憶體系統 "Pangea v2" 的最新進展。
CXL,即 Compute Express Link,意為運算快速連結,被認為是三星在 HBM 之後的又一個潛在殺手鐧。在 AI 算力與記憶體晶片需求持續增長的當下,CXL 正從小眾技術走向焦點,可能成為記憶體領域的下一個風口。
什麼是HBM?什麼是CXL?
當前全球市場供應短缺的 HBM,即 High Bandwidth Memory,意為高頻寬記憶體。頻寬是指單位時間內能傳輸的數據總量。美光(MU)、SK 海力士和三星是目前全球 HBM 的主流量產供應商,輝達(NVDA)的 H100/B200 晶片都高度依賴於此。
截至目前,已進入量產階段的最新技術標準是 HBM4,即第六代高頻寬記憶體,HBM4 已成為輝達 Vera Rubin 平台及 AMD MI450 的標配。更先進、更高效的 HBM4E 尚未進入量產階段,但已出現在各大廠的路線圖中。
HBM 是一種硬體結構,透過對 DRAM 晶片進行 3D 堆疊,並直接將晶片封裝在處理器旁邊,從而提升頻寬。其技術優勢在於:記憶體和處理器距離近,因此數據傳輸路徑極短;3D 堆疊所採用的核心 TSV(矽通孔)技術,等同於在 DRAM 晶片上打通成千上萬個垂直電訊號通路,讓電訊號能垂直穿透所有層級。
不同於作為硬體結構的 HBM,CXL 是一種互連協定。CXL 用於連接 CPU 和外部設備,旨在解決通訊瓶頸,追求靈活性和擴充性。但相同之處在於,這兩種技術都是為了解決「記憶體牆」問題,即晶片無法足夠快地存取數據,迫使使用者等待更長的響應時間這一問題。
相比 HBM,CXL 的優勢在於大容量記憶體。其數據傳輸速度遜於 HBM,但 CXL 能突破伺服器的插槽限制,提供 TB 等級的記憶體容量,並實現多個處理器間的記憶體共享,即所謂的「記憶體池化」。相比 HBM,CXL 成本更低且更易擴充,是性價比更高的大規模記憶體解決方案。
未來,HBM 和 CXL 將共同服務於 AI 伺服器:提供高頻寬的 HBM 可用於模型核心運算,CXL 則用於提供大容量記憶體,作為記憶體池支撐海量數據存取。
數據中心時代的CXL:終結「記憶體牆」問題
之所以未來的數據中心需要 CXL,也正是因為 CXL 的特性:能實現記憶體的外接拓展,且透過記憶體池化來實現記憶體共用,降低成本,同時解決數據傳輸速度慢的問題。
傳統的伺服器記憶體插槽直接連在 CPU 上,當記憶體告急時,只能再買一台伺服器。而如果應用上 CXL 技術,記憶體就可以像硬碟一樣透過 PCIe 介面外接,突破了主機板插槽的物理限制。理論上來說,只要伺服器的 PCIe 槽位夠多,記憶體容量就能一直增加。
另一方面,傳統數據中心裡,不同的伺服器無法共享記憶體,因為存在物理隔絕。但 CXL 2.0 引入了記憶體池化,所有的記憶體都放在一個池子裡,哪台伺服器需要多一點記憶體,CXL 交換機就能即時進行分配,提高了資源利用率。在當下記憶體價格持續上漲的背景下,此舉無疑大大降低了成本。
數據傳輸速度方面,傳統的數據中心裡,加速器之間的通訊使用的是普通 PCIe 協定,必須先把數據打包成「數據包」,再經過軟體堆疊處理,速度慢且延遲高。但在應用了 CXL 之後,由於基於 CXL 協定的記憶體一致性,加速器之間可直接對池化資源進行硬體級讀寫存取,極大地縮短了數據傳輸路徑。
儘管 CXL 的應用將帶來數據中心技術的極大飛躍,但其大規模商用仍面臨關鍵制約,因為該技術要求數據中心內的 CPU、GPU、記憶體及網路設備全部支援同一標準。CXL 的跨行業生態協同的複雜性,依然是其普及路徑上最難逾越的門檻。
三星Pangea v2:CXL 2.0時代最高水準
據《韓國經濟》報導,在效能層面,三星 CXL 記憶體系統『Pangea v2』表現出色,數據傳輸能力較傳統 RDMA 方案提升 10.2 倍,瓶頸改善幅度高達 96%,被視為 CXL 領域的重要技術突破。
該系統基於英特爾(INTC)、輝達等企業於 2020 年聯合推出的 CXL 2.0 標準,該標準要求將 22 個 CXL DRAM 模組(即 CMM-D,CXL Memory Module-DRAM,意為基於 CXL 的 DRAM 記憶體模組)整合為單一共享記憶體池,可支援多台伺服器存取最高 5.5TB 的記憶體容量。
三星的『Pangea v2』可以代表目前 CXL 2.0 時代最高水準的系統,但鑒於 CXL 領域技術更新疊代的速度之快,v2 的地位在於為 CXL 2.0 時代的技術水準樹立標竿,而非作為永恆的最強者存在。
CXL 標準目前已疊代至 3.2 版本,三星表示計劃於 2026 年內發布基於最新規範的『Pangea v3』。v3 預計將引入更強大的光通訊支援和更高的單口頻寬,表現將超越 v2。
CXL版圖:SK海力士、美光、英特爾、輝達的集體轉向
除了三星之外,其競爭對手 SK 海力士和美光均已推出 CXL 領域的成熟產品。今年 3 月,SK 海力士在 CFMS 2026 全球快閃記憶體峰會上展出了旗下 CMM-DDR5 CXL 記憶體模組,且早在更早之前就推出了為 CXL 運行而開發的軟體 HMSDK。美光在 2023 年也推出了 CZ120 記憶體擴充模組。
目前,已推出成熟產品的科技公司仍是少數。除了以上公司,還有一些科技巨頭推出了支援 CXL 的產品。例如,英特爾的 Xeon 第五代及最新的 Granite Rapids 處理器已全面支援 CXL 2.0,部分功能支援 CXL 3.0。AMD(AMD)的 EPYC Genoa 和 Turin 系列已量產,均支援 CXL 記憶體擴充。
此外,有些科技公司正在研發支援 CXL 的晶片。輝達計劃在今年晚些時候推出的 Vera CPU 中支援 CXL 3.1 標準,此舉被業內視為迄今規模最大的 CXL 實戰檢驗。
據 The Information 報導,Google(GOOG)(GOOGL)已在數據中心開始部署 CXL,並著手安裝控制器以管理 CPU 與大型外部記憶體池之間的數據流量。
記憶體產業轉向CXL 週期股變成長股?
過去記憶體產業的核心是 DRAM 顆粒,例如 HBM 就是對 DRAM 晶片進行 3D 堆疊。記憶體三巨頭三星、SK 海力士、美光在該領域的競爭,就是看誰能堆疊更多層數。
CXL 則開闢了一條全新的賽道,其競爭核心是軟硬協同:要看哪一家的 CXL 和英特爾、AMD、輝達的處理器配合得更好,CXL 控制器延遲更低,管理軟體更好用。這不僅要求記憶體企業要有前沿的晶片技術,還必須具備更強的邏輯晶片設計能力。CXL 的出現使得記憶體產業迎來重新洗牌的機會,也帶來新的利潤增長點。
具體來看,CXL 打破了記憶體(如 DRAM)和硬碟(如 SSD)之間的鴻溝,本質上是讓記憶體更大、硬碟更快。對記憶體三大巨頭來說,原本只有 HBM 享有 AI 數據中心需求帶來的高溢價,未來搭載 SSD 的 CXL 贏得主流市場後,其 SSD 產品也能享有同樣的高溢價。
此外,記憶體產業將因為 CXL 的主流化而形成分級:追求極致頻寬的 HBM 因技術前沿及生產良率低,依然處於金字塔尖;傳統的 DDR5 兼顧延遲與容量,依然有固定的市場;而 CXL 擴展記憶體將專攻 TB 級超大容量。這種分化可以使得記憶體廠商形成分工,研發特定產品,提高整個產業鏈的協同度。
以往的記憶體研發模式是處理器支援什麼規格,記憶體就生產什麼規格,記憶體產業在晶片領域話語權相對較低。但隨著 CXL 走向主流市場,未來數據中心可能不再以 CPU 數量為核心,而變成以記憶體池為中心的架構,這將大幅提升記憶體企業的估值,記憶體產業的估值邏輯將從週期股轉向成長股。
本內容經由 AI 翻譯並經人工審閱,僅供參考與一般資訊用途,不構成投資建議。












