
英伟达更新产品路线图,黄仁勋:每人都应关注机器人,这可能成为史上规模最大产业

AI(人工智能)芯片龙头英伟达的CEO黄仁勋宣布了多项重要更新,着重强调推理模型带来的芯片行业新机遇。
当地时间3月18日,黄仁勋在英伟达GTC大会上发表主题演讲。在这场持续了两个多小时的演讲中,黄仁勋宣布基于Blackwell架构的最新芯片Blackwell Ultra(GB300)和下一代Rubin架构将如期推出,同时,公司将在机器人领域持续加码。
18日下午一点,身穿经典黑色皮衣的黄仁勋登台亮相。面对座无虚席的美国加州圣何塞SAP中心,黄仁勋感慨:“多么精彩的一年……我们有很多精彩的事情可以分享。”他还笑称,GTC曾经被称为AI界的“伍德斯托克(Woodstock)音乐节”,如今已然发展成了AI界的美国橄榄球联盟总决赛“超级碗”。
Tokens成演讲热词,计算机“已经成为tokens生成器”
回顾英伟达一路走来的历程,黄仁勋表示,今年已是GeForce显卡诞生以来的第25年。在大约十年前,始于感知人工智能和计算机视觉的AI开始真正进入全世界的视野。目前,我们正处于生成式人工AI阶段,将走向智能体AI时代,随后是物理AI时代,也就是机器人将登场的地方。
黄仁勋接着谈到,目前,我们已经拥有了3条缩放法则(Scaling Law):从感知AI到生成式AI的预训练扩展,到更强生成式AI的后训练扩展,再到长思考模型的测试时训练扩展,让AI学会了推理。黄仁勋指出,缩放法则其实依然有效,甚至超出预期:“去年,几乎全世界都搞错了。大家以为缩放法则失效,但实际上,现在AI推理所需的计算量比去年人们所以为的要高出100倍。”
顺着这个逻辑,黄仁勋强调,AI发展的潜力远超出人们的预期,AI的下一步发展将通过改进训练和知识工作来实现。他认为,AI推理能力的提升可能会带来下一个重大突破,而tokens(AI模型处理中的最小数据单位)的日益普及是这种变化中的重要组成部分:“计算机已经成为tokens生成器,而不是文件检索器。”
因此,黄仁勋指出,随着AI变得越来越智能、应用范围越来越广,并且获得更多资源来推动其发展,AI正在经历一个转折点。他预计,随着对AI和新计算方法的需求不断增长,全球数据中心的建设规模将很快超过一万亿美元。
在详细介绍了CUDA编程语言在DNA基因测序、5G/6G信号处理、量子计算等领域中做出的贡献之后,黄仁勋重新讲回AI,并宣布了一系列合作。英伟达将与几家电信企业合作开发基于人工智能的6G无线技术,合作伙伴包括T-Mobile、Mitre、思科、ODC和Booz Allen。
在自动驾驶领域,英伟达将与通用汽车(GM)扩大合作伙伴关系。通用汽车将使用英伟达的计算平台(包括Omniverse和Cosmos)构建定制AI系统,以优化通用汽车的工厂规划和机器人技术。
黄仁勋还宣布,公司将推出端到端自动驾驶汽车全栈综合安全系统Nvidia Halos,正在开发中的每一行代码都将由第三方进行安全评估。一段宣传片显示,英伟达的实时协作模拟平台Omniverse和Cosmos能够训练自动驾驶程序,使其从各种环境变化中学习并实现自我提升。
AI芯片路线图继续更新,再下一代芯片名为“Feynman”
演讲开始近一个小时后,终于到了万众瞩目的数据中心部分。虽然去年GTC上宣布的Blackwell芯片才刚全面投产不久,市场已经在密切关注下一代芯片的动向。
在今天的演讲中,推理成为了关键词。黄仁勋展示了一张图表,两条轴中一条显示用户每秒处理的标记数,另一条显示工厂每秒处理的标记数。黄仁勋指出,“大规模的推理是一种极端的计算任务”,需要确保AI既智能又能响应迅速,“这一切都是为了攻克推理问题”。
为了验证这一点,英伟达将“传统模型”Llama 3.3与推理模型DeepSeek R1进行了对比。在回答同一个关于婚礼座位安排的问题时,Llama 3.3 70B模型在一次推理中使用了439个tokens,虽然耗时较短,但得出了错误的答案。而DeepSeek R1模型则使用了近9000个tokens,虽然耗费了更多的计算资源和时间,但得出了正确答案。
在这个案例中,推理模型所需的tokens是传统大型语言模型的20倍,计算资源更是高达150倍,但它确实能得出正确答案,节省了大量被浪费的tokens。黄仁勋指出,随着下一代模型可能拥有数万亿个参数,像英伟达Blackwell NV72这样强大的系统将发挥至关重要的作用。
经过漫长的铺垫后,黄仁勋宣布推出“AI工厂的操作系统”NVIDIA Dynamo。Dynamo被称为一个“分布式推理服务库”,作为一个开源解决方案,旨在解决用户对tokens的需求与无法生产足够tokens之间的平衡问题。黄仁勋还展示了Dynamo的多位合作伙伴,微软和Perplexity也出现在其中。
黄仁勋表示:“在推理模型方面,Blackwell的性能是Hopper的40倍。”虽然Blackwell在推理性能上相较Hopper实现了巨大飞跃,但“我们是一个功耗受限的行业”。因此,Dynamo可以通过提高单个用户每秒处理的tokens数量,从而进一步提升性能,意味着整体响应速度将变得更快。
在对Hopper进行了一番“拉踩”、对Blackwell进行大力推销后,黄仁勋又一次搬出了自己的经典观点:“买得越多,省得越多。”在Dynamo技术加持下,搭建AI工厂的厂商还能实现“买得越多,赚得越多”。
今年2月,英伟达发布2025财年第四财季财报,称最新AI芯片Blackwell的销量“超出预期”,在第四财季带来了110亿美元的收入,是公司有史以来增长速度最快的产品,其生产正在“全速进行”。
展望未来,黄仁勋表示,随着Blackwell全面投入生产,全新加速计算平台Blackwell Ultra NVL72平台将于2025年下半年如期推出。该平台的带宽是前代Blackwell芯片的2倍,内存速度也快了1.5倍。
在Blackwell之后,英伟达将迎来以天文学家Vera Rubin名字命名的Rubin架构。黄仁勋表示,下一代Vera Rubin NVL144平台将于2026年下半年推出。接下来是Rubin Ultra NVL576平台,其将于2027年下半年推出,作为一次“极致的扩展”,该平台将拥有250万个部件,并连接576个GPU,性能达到GB300的14倍。这听起来有些不可思议,黄仁勋也补充称这些预测确实有些超前,“但能够让你感受到我们正在前进的速度”。
黄仁勋还揭晓了在Rubin之后下一代AI平台的名字“Feynman”,致敬诺贝尔物理学奖获得者理查德·费曼(Richard Feynman)。费曼以对量子力学的路径积分表述、量子电动力学、过冷液氦的超流性以及粒子物理学中部分子模型的研究而闻名。
发布人形机器人通用开源模型
此外,黄仁勋还宣布将推出以太网产品NVIDIA Photonics,Spectrum-X Photonics和Quantum-X Photonics将于2026年下半年推出。公司还将发布两款由Grace Blackwell支持的个人AI超级计算机DGX Spark和DGX Station。
DGX Spark在今年1月的国际消费类电子产品展览会(CES 2025)上作为“Project Digix”首次亮相,售价3000美元,搭载缩小版的GB10超级芯片,已经开始接受预约。据介绍,GB10每秒可执行高达1000万亿次的AI运算,使其成为微调最新AI推理模型的理想之选。
DGX Station则为需要更多AI处理能力的专业研究人员准备,配备了GB300Ultra Desktop超级芯片,提供20 petaflops的性能和784GB的统一系统内存。NVIDIA 尚未公布DGX Station的价格,这款电脑将于今年晚些时候上市,
最后,黄仁勋以机器人作为本次演讲的收尾,宣布了一款面向人形机器人的通用开源基础模型GR00T N1。黄仁勋表示:“每个人都应关注(机器人)这一领域,这很可能成为有史以来规模最大的产业。”
虽然黄仁勋的本次演讲可谓是“干货满满”,但似乎未能止住英伟达股价的下跌势头。18日当天,随着美股科技股再度普遍走低,英伟达(Nasdaq:NVDA)股价收于每股115.43美元,跌3.43%,总市值2.83万亿美元。
自今年年初的大涨以来,英伟达股价长期处于下跌状态,原因是美股科技股普遍遭遇抛售,且市场担心芯片市场竞争加剧和AI投资支出的回落将影响对英伟达Blackwell处理器系列的需求。
此外,1月20日,中国AI初创公司深度求索(DeepSeek)推出高性价比且高性能的开源大模型DeepSeek-R1,随后在国际市场上引发轰动,导致英伟达市值在从1月24日起的短短三天内蒸发6000亿美元。
当地时间3月20日,黄仁勋还将参加一场以量子计算为主题的会议,参会者包括来自量子行业的十几位CEO和高管。