路透旧金山6月4日 - 周三发布的新数据显示,NvidiaNVDA.O最新芯片在训练大型人工智慧(AI)系统方面取得进展,训练大型语言模型所需的芯片数量大幅下降。
MLCommons是一家发布AI系统指标效能结果的非营利组织,该组织发布了有关Nvidia和AMD(超威/超微)AMD.O 等业者的芯片在训练处理大量数据学习的AI系统的新数据。尽管股市中大部分的注意力已经转移到更大的AI推理市场(即利用人工智慧系统处理用户的问题),但训练系统所需的芯片数量仍然是一个关键的竞争问题。中国的DeepSeek声称,他们打造出一款具有竞争力的聊天机器人,其系统使用的芯片比美国竞争对手少得多。
这是 MLCommons 首次发布关于芯片在训练AI系统方面表现的结果,例如Meta Platforms META.O发布的开源AI模型 Llama 3.1 405B,该模型具有足够多的所谓“参数”,可以表明芯片在世界上一些最复杂的训练任务中的表现,这些任务可能涉及数万亿个参数。
Nvidia 及其合作伙伴是唯一提交有关训练该大型模型的数据的测试者,数据显示,Nvidia 的新款 Blackwell 芯片的单芯片速度比上一代 Hopper 芯片快两倍多。
Nvidia新芯片最快的成绩是,用2,496块Blackwell芯片在27分钟内完成了训练测试。数据显示,若要比前述成绩更快完成训练,使用Nvidia前一代芯片的数量得是Blackwell芯片的三倍以上。
与 Nvidia 合作产生部分成果的 CoreWeave 首席产品官Chetan Kapoor 在新闻发布会上表示,人工智慧产业有一种趋势,即串联多个芯片小组成为子系统,用于个别的人工智慧训练任务,而不是使用10万个或更多芯片来创设同质组。
Kapoor 说:“使用这样的方法,他们能够继续加速或减少训练这些数万亿参数模型的时间。”(完)