
Stephen Nellis
路透旧金山2月26日 - Nvidia NVDA.O可能是靠专用图形处理单元(GPU) 为人工智能服务器提供动力而发家致富的,但首席执行官黄仁勋却越来越多地表达了他对通用 CPU 的喜爱。
几十年来,CPU(中央处理器)一直被视为计算机的主脑--英特尔INTC.O或有时是先进微设备公司AMD.O的产品。
黄仁勋喜欢说,过去 90% 的计算都是在中央处理器上进行的,10% 的计算是在他的芯片上进行的,而近年来这一比例发生了翻转。
但现在,CPU 正在卷土重来--随着人工智能公司从训练模型转向部署模型,CPU 越来越被视为同等甚至更好的选择--Nvidia 计划在这一转变中发挥重要作用。
黄仁勋在周三就公司第四季度业绩 (link) 与分析师举行的电话会议上表示:“我们既喜欢CPU,也喜欢GPU。”
他向分析师们保证,Nvidia不仅已经为CPU重回聚光灯下做好了准备,而且Nvidia自己为数据中心提供的CPU产品(于2023年首次发布) (link),将在竞争中胜出对手。
上个月,在 1 月份的拉斯维加斯消费电子展上,黄仁勋还表示,数据中心使用的高性能 Nvidia CPU 数量将呈爆炸式增长,并称他不会感到惊讶,“如果 Nvidia 成为全球最大的 CPU 制造商之一。”
CPU 与 GPU
几十年来,CPU 和 GPU 一直为不同的计算任务服务。CPU 是通用芯片,设计用于以合理的速度处理软件程序员可能向芯片提出的各种数学任务。
相比之下,GPU 专注于执行一系列更简单的数学任务,但这些简单的计算要同时并行执行数千次。
在视频游戏中,这意味着每秒多次计算屏幕上数千个像素的值,而在人工智能工作中,这意味着对开发人员用来表示文字和图像等现实世界数据的大型数字矩阵进行乘法和加法运算。
Creative Strategies 公司的分析师本-巴加林(Ben Bajarin)说:“人工智能公司正在越来越多地部署‘代理’,它们可以独立完成编写代码、筛选文档和撰写研究报告等任务,而这种计算‘越来越多地、有时甚至主要是,在CPU上进行’。”
Nvidia目前的旗舰人工智能服务器名为NVL72,包含36个CPU和72个GPU。Bajarin 认为,在所谓的代理工作中,这种比例可能会变为 1 比 1,甚至可以完全省略 GPU。
英伟达要证明自己
Nvidia最近宣布与Meta Platforms META.O达成一项协议,将在独立基础上大量使用其Grace和Vera CPU (link) 芯片,这彰显了Nvidia在CPU领域的雄心壮志。与英伟达目前的人工智能服务器相比,这是一个相对较新的发展,在英伟达的人工智能服务器中,每个CPU都配有多个GPU。
不过,Meta 并不是更换了 CPU 供应商,它只是获得了更多的供应商。几天后,AMD 也宣布与 Meta (link) 签订了一项大型协议,其中也包括 Meta 已购买多年的 CPU。
在与分析师的电话会议上,黄仁勋认为,Nvidia 在 CPU 方面采取了一种根本不同的方法。
他概述了为什么 Nvidia 尽量减少英特尔和 AMD 采用的将芯片分解成更小部件的方法,称 Nvidia CPU 能够连续执行许多简单的任务,并能很好地访问大量计算机内存。
“它的设计重点是非常高的数据处理能力,”黄在电话会议上说。“之所以如此,是因为我们感兴趣的大多数计算问题都是数据驱动的,人工智能就是其中之一。”
HotTech Vision and Analysis首席分析师戴夫-阿尔塔维拉(Dave Altavilla)说,Nvidia的目标是证明曾经主要由英特尔提供的CPU类型 "不再是现代计算基础设施的默认基础。相反,它只是几种架构选项中的一种"。
Huang表示,Nvidia将在下个月于硅谷举行的年度开发者大会上披露更多有关CPU的信息。