路透舊金山6月4日 - 周三發布的新數據顯示,NvidiaNVDA.O最新芯片在訓練大型人工智慧(AI)系統方面取得進展,訓練大型語言模型所需的芯片數量大幅下降。
MLCommons是一家發布AI系統指標效能結果的非營利組織,該組織發布了有關Nvidia和AMD(超威/超微)AMD.O 等業者的芯片在訓練處理大量數據學習的AI系統的新數據。儘管股市中大部分的注意力已經轉移到更大的AI推理市場(即利用人工智慧系統處理用戶的問題),但訓練系統所需的芯片數量仍然是一個關鍵的競爭問題。中國的DeepSeek聲稱,他們打造出一款具有競爭力的聊天機器人,其系統使用的芯片比美國競爭對手少得多。
這是 MLCommons 首次發布關於芯片在訓練AI系統方面表現的結果,例如Meta Platforms META.O發布的開源AI模型 Llama 3.1 405B,該模型具有足夠多的所謂“參數”,可以表明芯片在世界上一些最複雜的訓練任務中的表現,這些任務可能涉及數萬億個參數。
Nvidia 及其合作夥伴是唯一提交有關訓練該大型模型的數據的測試者,數據顯示,Nvidia 的新款 Blackwell 芯片的單芯片速度比上一代 Hopper 芯片快兩倍多。
Nvidia新芯片最快的成績是,用2,496塊Blackwell芯片在27分鐘內完成了訓練測試。數據顯示,若要比前述成績更快完成訓練,使用Nvidia前一代芯片的數量得是Blackwell芯片的三倍以上。
與 Nvidia 合作產生部分成果的 CoreWeave 首席產品官Chetan Kapoor 在新聞發布會上表示,人工智慧產業有一種趨勢,即串聯多個芯片小組成為子系統,用於個別的人工智慧訓練任務,而不是使用10萬個或更多芯片來創設同質組。
Kapoor 說:“使用這樣的方法,他們能夠繼續加速或減少訓練這些數萬億參數模型的時間。”(完)