
路透拉斯維加斯1月5日 - Nvidia(輝達/英偉達)NVDA.O執行長黃仁勳周一表示,該公司下一代芯片已進入“全面投產”,並稱這些芯片在運行聊天機器人及其他人工智能應用時,能提供相當於前一代芯片五倍的人工智能運算能力。
在拉斯維加斯舉行的消費電子展(CES)演講中,這家全球市值最高公司的掌舵人披露其芯片的新細節,這些芯片將於今年稍後面世。Nvidia高管告訴路透,這些芯片目前已在公司實驗室接受人工智能公司的測試。
由六個獨立Nvidia芯片組成的Vera Rubin平台預計將於今年稍後亮相,這款旗艦伺服器將搭載72個公司圖形處理單元以及36個新款中央處理器。黃仁勳展示了這些芯片如何串聯成超過1,000個Rubin芯片的"模組化集群“”,並表示它們可將生成所謂“token”的效率提升10倍。token指的是人工智能系統中模型處理的基本單位。
黃仁勳表示,為了達到新的性能表現,Rubin芯片採用了該公司專有的一種數據格式,並希望業界能廣泛採用這種格式。
黃仁勳表示:“這就是我們能在僅增加1.6倍晶體管數量的情況下,實現如此巨大的性能躍升的原因。”
雖然Nvidia仍在人工智能模型訓練市場占據主導地位,但在將這些模型的成果交付給數億名聊天機器人及其他技術的使用者方面,面臨更激烈的競爭——這些競爭不僅來自傳統對手如AMD AMD.O,也來自其客戶,例如Alphabet旗下的谷歌 GOOGL.O。
黃仁勳的演講大部分聚焦於新芯片在這項任務上的優勢,其中包括新增一層名為“上下文記憶存儲”(context memory storage)的存儲技術,旨在幫助聊天機器人對冗長問題和對話做出更迅速的回應。
Nvidia表示,CoreWeave CRWV.O 將成為首批採用新型Vera Rubin系統的公司,預計微軟 MSFT.O 、甲骨文 ORCL.N 、亞馬遜 AMZN.O 和Alphabet 也將採用此系統。
H200輸華許可證等待獲批
在其他發布的信息中,黃仁勳強調了一款新軟件,可幫助自動駕駛汽車決策行駛路徑,並留下可供工程師後續使用的記錄。Nvidia去年底展示了這款名為Alpamayo的軟件研究,黃仁勳周一表示,該軟件將更廣泛發布,並會提供用於訓練的數據,以便汽車製造商進行評估。
黃仁勳在拉斯維加斯的舞台上表示:“我們不僅將模型開源,還會開源用於訓練這些模型的數據,因為只有這樣,你才能真正信任這些模型是如何誕生的。”
上個月,Nvidia 從初創公司 Groq 那里挖走了人才和芯片技術,其中包括幫助 Alphabet 旗下谷歌設計自己的人工智能芯片的高管。在演講結束後與金融分析師的問答環節中,黃仁勳表示,與Groq的交易 "不會影響我們的核心業務",但可能會帶來新產品,擴大產品線。
同時,Nvidia迫切希望證明其最新產品能超越舊款芯片,例如H200——這款芯片是“Blackwell”芯片的前一代產品,美國總統特朗普已允許H200芯片出口至中國。路透此前報導H200在中國需求旺盛,這一情況引發美國政界對華強硬派的擔憂。
黃仁勳在主題演講後對金融分析師表示,H200芯片在中國的需求強勁;首席財務官Colette Kress則說,Nvidia已申請將這些芯片運往中國的許可證,但正等待美國及其他國家政府的批準。(完)