黄仁勋给马斯克制造了一个对手
作者/ IT时报 贾天荣
编辑/ 孙妍
北京时间1月6日凌晨,在拉斯维加斯CES 2026(2026年国际消费电子展)的聚光灯下,黄仁勋的皮夹克再次成为焦点,但这次他带来的不是一款新显卡,而是一整套重塑人工智能的技术蓝图。
演讲台上,他将AI比作一个“五层蛋糕”,从底层的电力与物理外壳,到芯片、基础设施,再到顶层的具体应用,清晰地勾勒出英伟达对AI产业的全新定义。过去五年里首次未在CES发布新款显卡,这一举动本身或许是一种信号:英伟达已All in AI。
如何让AI理解并安全地与真实世界互动?“我们已经为此工作了8年。”黄仁勋直言不讳。英伟达用持续8年的投入,见证了一场从虚拟智能向物理智能的深刻转变。
他预言:“物理AI的ChatGPT时刻即将到来”,这比去年“机器人ChatGPT时刻即将到来”更为宏大和肯定。
物理AI的“ChatGPT时刻”
即将到来
开场,黄仁勋便抛出一个核心判断:计算机行业正在经历10年至15年一遇的“平台重置”。我们正从“编程软件”时代,全面跨入“训练软件”时代。
被他比喻为“五层蛋糕”的AI技术栈,每一层都在被重新发明。最底层是土地、电力和外壳,往上是芯片层,再往上是基础设施层,最上层则是各类具体应用。
“如果要引导行业走向未来,必须亲手把整个技术栈做一遍。”黄仁勋强调。这句话几乎可以视为英伟达当前战略的最佳注解。在他看来,AI是全栈的工程,单点突破已经不够,必须系统性地重塑整个技术体系。
过去几年,黄仁勋几乎在每次重要演讲中都提到一个主题:物理AI,让AI理解并安全地作用于我们所在的真实世界。
然而,实现物理AI的挑战在于,如何让一个在屏幕后与你对话的智能体,变成一个能与现实世界交互的智能体?
它必须掌握人类孩童般的 “物理常识”:物体恒存性(我移开视线再回来,物体还在那里),因果关系(我推它,它会倒下),以及摩擦力、重力以及惯性等基础物理。
这些对人类来说是不言自明的法则,对AI却是一片空白。 更棘手的是,学习这些常识所需的现实数据极其稀缺,且难以安全地通过试错来获取。
对此英伟达给出的答案是:一个以“模拟”为核心的系统。这个系统依赖于三种计算机的协同:训练计算机用海量数据“教育”AI模型;推理计算机是嵌入汽车、机器人体内的“大脑”,负责实时决策;模拟计算机是整个体系的基石,它创造了逼真的数字环境,让AI能无限次地安全试错、学习物理规律并验证自身行为。
在这三层硬件之上,运行着英伟达的核心软件栈:基于物理法则的数字孪生世界里,有着进行模拟的“宇宙”Omniverse、作为世界基础模型的Cosmos,以及机器人模型 GR00T(通用机器人模型)与Alpamayo(自动驾驶汽车模型),它们是直接执行任务的智能体。
从模拟环境、世界模型到具体智能体的完整技术栈,黄仁勋清晰地勾勒出英伟达的路径:要创造理解物理世界的AI,必须创造无限逼近真实的数字世界,并为其构建一套完整的学习与验证体系。
黄仁勋预言,这套“三台计算机+合成数据+仿真”的方法会迁移到所有机器人,包括机械臂、移动机器人,乃至全人形。
特斯拉FSD真正的
竞争对手来了?
验证整套体系的首个成果之一,就是其最新发布的Alpamayo,黄仁勋称其为世界上首个会思考、会推理的自动驾驶汽车AI。
Alpamayo通过端到端学习,可以直接凭借视觉输入做出驾驶决策。它融合了三种“养料”:真实道路数据、人类驾驶示范,以及由世界模型Cosmos生成的、近乎无限的模拟数据。
Alpamayo的独特之处在于,它不仅接收传感器输入并驱动方向盘、刹车和加速器,还会推理出即将采取的行动,并告诉人类司机,它将采取什么行动、采取该行动的原因,当然还有轨迹。
在一段演示视频中,一辆搭载Alpamayo的汽车在复杂的城市道路上行驶,绕过施工区域、避开行人,整个驾驶过程流畅自然。中控台上还实时显示其每一个决策“心理活动”:“前方车辆刹车灯亮起,它可能减速,所以我应该保持距离”。
这种思考能力,正是黄仁勋解决自动驾驶“长尾难题”的钥匙。无数极端罕见路况无法被穷尽,但AI可以通过推理,将它们拆解为已知的基础场景进行组合应对。
英伟达计划于2026年第一季度让首款搭载Alpamayo的自动驾驶汽车在美国上路,随后逐步推向欧洲和亚洲市场。“它将打造第一个大规模、主流的物理AI市场。”黄仁勋预测。
这条路线上早已有一位重量级选手。演讲过后,有网友称Alpamayo是特斯拉FSD的竞争对手,而马斯克也对此回应:“这正是特斯拉在做的。他们会发现,达到99%很容易,但要解决分布的长尾问题却非常困难。”
“超级芯片”亮相
2025年被称为智能体元年,智能体的出现,也标志着AI技术从基础工具向更复杂、更智能的应用转变。黄仁勋提到,智能体具备强大的推理能力,能够查找信息、进行研究、使用工具、规划未来并模拟结果。这些能力将帮助智能体系统解决比以往更为复杂且重要的问题。
黄仁勋提到,如今的AI不再是简单地给出答案,而是需要“思考”过程。这意味着,AI的每次推理都不再是简单的计算,而是需要大量的计算资源和时间。
同样在今年CES上,AMD CEO苏姿丰在开幕前的主题演讲中指出,自ChatGPT推出以来,使用AI的活跃用户已经从100万人增加至10亿人,这是互联网花了几十年才达到的里程碑,预计2030年使用AI的活跃用户将达到50亿人。为了让AI无处不在,在未来几年内,需要将全世界的计算能力增加100倍。
随着AI模型每年以10倍速度增长,计算需求也急剧飙升。“现在,我们进行的每一次推理,都可能生成2个token而不是1个,AI在思考得越久,通常能给出更好的答案。”黄仁勋直言,这让AI的“思考”变得更加深刻。
为了应对这一挑战,黄仁勋发布了英伟达面向AI数据中心的新计算平台——Vera Rubin,它的面世是“别无选择”的必然。
早在2025年3月的GTC大会上,黄仁勋就已预告了代号“Vera Rubin”的超级芯片,如今,这款超级芯片终于露出真面目,且进展迅速。一年半前,英伟达开始交付GB200,现在GB300 已进入全面量产阶段,而Vera Rubin已经全面投产,并且今年就会发布。
据黄仁勋透露,英伟达内部有个很好的原则:每代新品最多只更换一两款芯片。但问题在于随着摩尔定律大幅放缓。晶体管数量逐年增加的幅度,根本无法跟上模型规模每年10倍的增长速度,也无法应对每年5倍的文本生成量增长,更无法匹配文本成本每年10倍的骤降速度。如果行业要继续前进,英伟达必须实施激进的极致协同设计,在整个系统层面同步创新所有芯片。
为此,英伟达打破了“每代只更新一两款芯片”的传统原则,选择了激进的协同设计,将六种专用芯片(Vera CPU、Rubin GPU、NVLink 6交换芯片等)深度整合,覆盖计算、网络、存储与安全全栈。这相当于把过去需要多个独立发布会才能讲完的创新,压缩进一个高度协同的系统里。黄仁勋自豪地说道,Vera CPU在受限功耗下的能效比,领先竞品两倍。而Rubin GPU则提供了五倍于前代的浮点性能。除此之外,Vera Rubin还引入了创新的NVFP4 Tensor Core,它能够根据不同的计算需求动态调整处理精度,从而实现更高的计算效率。
相比前代Blackwell架构,Rubin加速器在AI训练性能上提升3.5倍,运行性能提升5倍,并配备拥有88个核心的新款中央处理器(CPU)。
相比英伟达Blackwell平台,Rubin平台的推理token成本最高可降低90%,训练MoE(专家混合)模型所需GPU数量减少75%。
另一个惊人的数据是,在英伟达模拟的10万亿参数、100万亿token训练任务里,Rubin的吞吐量高到只需要Blackwell四分之一的系统规模就能在同样一个月里完成训练。
尽管它的计算能力大幅提升,但它的能效也表现得相当出色。黄仁勋提到,Vera Rubin能够大大减少数据中心的电力消耗,预计将为全球节省6%的电力。
在CES演讲中,英伟达还发布了一系列AI体系产品,包括开源模型、AI存储、物理AI等。这是英伟达的全栈AI布局,同时也是在释放信号:AI重心正从“训练规模”转向“推理系统”。
“这就是今天的英伟达。”黄仁勋在演讲的尾声总结道,“我们曾被认为是一家芯片公司,但如你所见,我们现在构建整个系统。AI是全栈的,我们正在从芯片、基础设施、模型到应用,全方位地重塑它。我们的工作,就是创造完整的技术栈,让所有人都能为世界创造出不可思议的应用。”
排版/ 季嘉颖
图片/ 英伟达
来源/《IT时报》公众号vittimes
E N D