tradingkey.logo

数据显示,Nvidia芯片在训练大型AI系统方面取得进展

路透社2025年6月5日 00:43

路透旧金山6月4日 - 周三发布的新数据显示,NvidiaNVDA.O最新芯片在训练大型人工智慧(AI)系统方面取得进展,训练大型语言模型所需的芯片数量大幅下降。

MLCommons是一家发布AI系统指标效能结果的非营利组织,该组织发布了有关Nvidia和AMD(超威/超微)AMD.O 等业者的芯片在训练处理大量数据学习的AI系统的新数据。尽管股市中大部分的注意力已经转移到更大的AI推理市场(即利用人工智慧系统处理用户的问题),但训练系统所需的芯片数量仍然是一个关键的竞争问题。中国的DeepSeek声称,他们打造出一款具有竞争力的聊天机器人,其系统使用的芯片比美国竞争对手少得多。

这是 MLCommons 首次发布关于芯片在训练AI系统方面表现的结果,例如Meta Platforms META.O发布的开源AI模型 Llama 3.1 405B,该模型具有足够多的所谓“参数”,可以表明芯片在世界上一些最复杂的训练任务中的表现,这些任务可能涉及数万亿个参数。

Nvidia 及其合作伙伴是唯一提交有关训练该大型模型的数据的测试者,数据显示,Nvidia 的新款 Blackwell 芯片的单芯片速度比上一代 Hopper 芯片快两倍多。

Nvidia新芯片最快的成绩是,用2,496块Blackwell芯片在27分钟内完成了训练测试。数据显示,若要比前述成绩更快完成训练,使用Nvidia前一代芯片的数量得是Blackwell芯片的三倍以上。

与 Nvidia 合作产生部分成果的 CoreWeave 首席产品官Chetan Kapoor 在新闻发布会上表示,人工智慧产业有一种趋势,即串联多个芯片小组成为子系统,用于个别的人工智慧训练任务,而不是使用10万个或更多芯片来创设同质组。

Kapoor 说:“使用这样的方法,他们能够继续加速或减少训练这些数万亿参数模型的时间。”(完)

免责声明:本网站提供的信息仅供教育和参考之用,不应视为财务或投资建议。

相关文章

tradingkey.logo
tradingkey.logo
日内数据由路孚特(Refinitiv)提供,并受使用条款约束。历史及当前收盘数据均由路孚特提供。所有报价均以当地交易所时间为准。美股报价的实时最后成交数据仅反映通过纳斯达克报告的交易。日内数据延迟至少15分钟或遵循交易所要求。
* 参考、分析和交易策略由第三方提供商Trading Central提供,观点基于分析师的独立评估和判断,未考虑投资者的投资目标和财务状况。
风险提示:我们的网站和移动应用程序仅提供关于某些投资产品的一般信息。Finsights 不提供财务建议或对任何投资产品的推荐,且提供此类信息不应被解释为 Finsights 提供财务建议或推荐。
投资产品存在重大投资风险,包括可能损失投资的本金,且可能并不适合所有人。投资产品的过去表现并不代表其未来表现。
Finsights 可能允许第三方广告商或关联公司在我们的网站或移动应用程序的任何部分放置或投放广告,并可能根据您与广告的互动情况获得报酬。
© 版权所有: FINSIGHTS MEDIA PTE. LTD. 版权所有
KeyAI