英伟达要掌控整个AI工厂硬件和软件堆栈

作者:

CBINEWS

责任编辑:

邹大斌

来源:

电脑商情在线

时间:

2026-03-23 09:55

关键字:

英伟达 AI工厂 推理 大模型

上周,英伟达在美国圣何塞举行了年度GTC大会,会上该公司对人工智能(AI)工厂繁荣局势的掌控力进一步增强。

英伟达推出了一系列更新的芯片和软件,并与几乎所有能想到的合作伙伴建立了合作关系。随着公司市值徘徊在4万亿美元以上,英伟达首席执行官黄仁勋势头不减。他预测,到2027年底,公司营收将在前两年的基础上翻一番,达到1万亿美元甚至更多!此外,中国的芯片销售也刚刚开始复苏。

在这场规模空前的GTC大会上,黄仁勋明确表示,英伟达的目标是掌控整个AI工厂硬件和软件堆栈的命脉。当然,这也为戴尔、HPE、思科等其他硬件供应商留出了充足的空间,让它们可以在自己的计算机和网络设备中使用英伟达的芯片。

在黄仁勋看来,别无选择,必须确保AI工厂的所有部件——从芯片、存储、网络到AI模型(包括其自研模型),再到协调一切的软件(包括其自研的CUDA计算平台和编程模型)——尽可能无缝地协同工作。他将此称为“极致协同设计”(extreme co-design)。

“我们是一家垂直整合的计算公司,”他本周宣称,“除此之外别无他法。”这并不完全意味着英伟达成为了“AI界的苹果”,但两者现在的境遇确实颇为相似。

之所以强调这一点,是因为当前的重点已不再是训练大规模新模型(这正是英伟达图形处理器/GPU的强项),而是推理——即提供查询答案的过程。对于推理而言,不同类型的处理方式效果更好且成本更低。正因如此,英伟达正急于在今年晚些时候推出来自Groq的语言处理单元(LPU)芯片;该公司已于去年12月以200亿美元收购了Groq团队。这也是英伟达将其自研的Rubin GPU与Vera CPU紧密集成在一个单元中的原因。

“推理不是单靠一颗芯片就能解决的,”英伟达超大规模和高性能计算副总裁兼总经理伊恩·巴克(Ian Buck)在接受我采访时说,“推理更难,因为它具有实时性要求。”

对推理的更大重视促使英伟达与亚马逊云服务(AWS)达成了扩大协议,该协议不仅包括100万块GPU,还包含LPU和英伟达的Spectrum-X网络芯片——尽管AWS一直在不断设计自己的芯片、网络等组件。

ToB最前沿

ToB最前沿抖音号

CBI科技在线

地址:北京市朝阳区北三环东路三元桥曙光西里甲1号第三置业A座1508室 商务内容合作QQ:2291221 电话:13391790444或(010)62178877
版权所有:电脑商情信息服务集团 北京赢邦策略咨询有限责任公司
声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除
京ICP备:2022009079号-3
京公网安备:11010502051901号
ICP证:京B2-20230255