英伟达宣布未来五年投入260亿美元用于开源AI大模型研发,并发布新一代开源大语言模型Nemotron 3 Super,标志其战略转型为全栈式AI顶尖实验室。此举旨在通过“开放权重”模式,在提供数据隐私和定制化的同时,挑战OpenAI等头部模型玩家。公司计划构建覆盖多领域的多模态模型矩阵,并认为此举能巩固其在AI生态中的核心地位,并有望为公司带来可观的额外营收。

TradingKey - 当地时间3月12日,英伟达(NVDA)向美国SEC提交的财务文件引爆全球科技圈,这家全球AI芯片市占率超80%的行业巨头,宣布未来五年将累计投入260亿美元布局开源AI大模型研发,这一规模是OpenAI训练GPT-4成本的8倍有余。
伴随着这笔史无前例的投资,英伟达正式开启从"芯片制造商"向"全栈式AI顶尖实验室"的战略转型,直接向OpenAI、DeepSeek等模型领域头部玩家发起挑战。
不同于单一模型的研发投入,英伟达的260亿美元将覆盖开源AI大模型全产业链,资金将在未来18至24个月内逐步落地,首批自研开源AI模型最快将于2026年底至2027年初正式面市。
目前,英伟达已完成技术验证,一个拥有5500亿参数的超大模型预训练工作已秘密完成,为后续开源模型研发积累了关键技术经验。按照规划,英伟达将重点研发覆盖语言、代码、科学计算、智能体等多领域的多模态前沿大模型,构建完善的模型矩阵。
在技术路线选择上,英伟达避开了OpenAI的完全闭源模式与Meta Llama系列的完全开源模式,转而采用"开放权重"的中间道路。
公开模型关键参数(权重),允许企业和开发者免费下载,在自有设备或私有云上运行、微调,充分满足企业对数据隐私、定制化和成本控制的核心需求;但模型的训练数据和底层代码则可能保持非公开状态。
这种模式精准切中了当前市场痛点,OpenAI、Anthropic等美国头部企业的核心模型均采用闭源模式,仅提供云端访问;Meta也暗示未来可能收紧开源策略;而中国企业DeepSeek、阿里巴巴等凭借免费开源策略已吸引大量全球开发者。
英伟达的"开放权重"模型既兼顾了企业级用户的隐私需求,又通过开放生态绑定开发者群体。
与巨额投资计划同步,英伟达近日推出新一代开源大语言模型Nemotron 3 Super。这款专为企业级多智能体系统设计的模型拥有1200亿总参数,采用高效混合专家(MoE)架构,原生支持100万Token超长上下文窗口,可一次性处理整部小说或数千页财务报告,有效解决了多智能体工作流中"上下文爆炸"和"目标漂移"的行业难题。
在性能测试中,Nemotron 3 Super表现亮眼,在人工智能指数综合评分中获得37分,超过OpenAI开源模型GPT-OSS的33分;在专门评估OpenClaw控制能力的PinchBench测试中位列第一。
英伟达应用深度学习研究副总裁Bryan Catanzaro透露,公司正在开源模型开发领域取得大量进展,近期还完成了5500亿参数模型的预训练。
长期以来,英伟达在AI芯片领域占据绝对主导地位,但AI模型层的话语权却被OpenAI、Meta(META)等厂商掌握。
此次英伟达下场自研顶级开源模型,核心战略意图是从底层定义AI模型的技术路线,让自家的硬件架构、软件栈成为整个AI行业的事实标准。
英伟达企业生成式AI软件副总裁Kari Briski表示,开发前沿模型不仅是为了测试算力,更是通过对存储、网络及超算级数据中心的极限压力测试,为下一代硬件架构的发展路线图指明方向。这种"硬件-模型"双轮驱动的战略,将进一步巩固英伟达在AI生态中的核心地位。
金融分析师普遍看好英伟达的战略转型,认为这将为公司打开新的增长曲线。如果英伟达在巩固硬件霸主地位的同时,能在基础模型市场拿下10%的份额,三年内有望每年额外贡献500亿美元营收。
对于英伟达而言,这场260亿美元的豪赌,既是对自身技术实力的自信,也是对AI行业未来趋势的精准研判。当芯片巨头开始定义AI模型标准,全球AI产业的格局或将迎来新一轮洗牌。