英伟达要掌控整个AI工厂硬件和软件堆栈
CBINEWS
责任编辑:邹大斌
电脑商情在线
时间:2026-03-23 09:55
英伟达 AI工厂 推理 大模型
上周,英伟达在美国圣何塞举行了年度GTC大会,会上该公司对人工智能(AI)工厂繁荣局势的掌控力进一步增强。
英伟达推出了一系列更新的芯片和软件,并与几乎所有能想到的合作伙伴建立了合作关系。随着公司市值徘徊在4万亿美元以上,英伟达首席执行官黄仁勋势头不减。他预测,到2027年底,公司营收将在前两年的基础上翻一番,达到1万亿美元甚至更多!此外,中国的芯片销售也刚刚开始复苏。
在这场规模空前的GTC大会上,黄仁勋明确表示,英伟达的目标是掌控整个AI工厂硬件和软件堆栈的命脉。当然,这也为戴尔、HPE、思科等其他硬件供应商留出了充足的空间,让它们可以在自己的计算机和网络设备中使用英伟达的芯片。
在黄仁勋看来,别无选择,必须确保AI工厂的所有部件——从芯片、存储、网络到AI模型(包括其自研模型),再到协调一切的软件(包括其自研的CUDA计算平台和编程模型)——尽可能无缝地协同工作。他将此称为“极致协同设计”(extreme co-design)。
“我们是一家垂直整合的计算公司,”他本周宣称,“除此之外别无他法。”这并不完全意味着英伟达成为了“AI界的苹果”,但两者现在的境遇确实颇为相似。
之所以强调这一点,是因为当前的重点已不再是训练大规模新模型(这正是英伟达图形处理器/GPU的强项),而是推理——即提供查询答案的过程。对于推理而言,不同类型的处理方式效果更好且成本更低。正因如此,英伟达正急于在今年晚些时候推出来自Groq的语言处理单元(LPU)芯片;该公司已于去年12月以200亿美元收购了Groq团队。这也是英伟达将其自研的Rubin GPU与Vera CPU紧密集成在一个单元中的原因。
“推理不是单靠一颗芯片就能解决的,”英伟达超大规模和高性能计算副总裁兼总经理伊恩·巴克(Ian Buck)在接受我采访时说,“推理更难,因为它具有实时性要求。”
对推理的更大重视促使英伟达与亚马逊云服务(AWS)达成了扩大协议,该协议不仅包括100万块GPU,还包含LPU和英伟达的Spectrum-X网络芯片——尽管AWS一直在不断设计自己的芯片、网络等组件。
