黄仁勋:龙虾就是新操作系统!英伟达7种芯片拼出算力怪兽,放话2027营收万亿美元
梦晨 henry 发自 凹非寺量子位 | 公众号 QbitAI英伟达GTC 2026很不寻常黄仁勋迟到了15分钟。今年有450家企业赞助、1000场技术分会、2000位演讲者、110台机器人这样的规模已经不像一场技术会议更像AI行业的年度朝圣。皮衣老黄站在舞台中央接受了新称号“Token之王”。这次他没有直奔芯片发布而是花了整整一个小时从25年前的GeForce游戏显卡讲起讲到20年前的CUDA讲到10年前的RTX渲染技术讲到云计算合作伙伴再讲到今天的爆火OpenClaw和token经济。AI从感知到生成到推理再到执行每一步都需要生成更多token消耗更多算力。所有这一切铺垫只为引出一个数字英伟达到2027年营收预计至少达到1万亿美元。去年GTC上我看到了5000亿美元的高确信需求。今年站在同一个舞台上这个数字变成了1万亿美元覆盖Blackwell和Rubin到2027年的订单。而且我确定实际需求会比这更高。就在这个瞬间与现场观众的掌声和欢呼声一同高涨的是英伟达股价。Token工厂经济学老黄教全球CEO看一张图只有英伟达的Keynote你才会看到去年的slide再出现一次。而老黄称这是全球CEO都要仔仔细细研究的一张图。纵轴是Token吞吐量每瓦产出多少Token横轴是Token速率每秒生成多少Token。吞吐量代表你的工厂产能速率代表AI的“聪明程度”模型越大、上下文越长、思考越深速率就越低但每个Token越值钱。老黄把这张图变成了一套完整的商业模型。免费层高吞吐、低速率用来获客。中间层$3-$6/百万Token服务普通用户。高级层$45/百万Token大模型深度推理。顶级层$150/百万Token超长研究任务、关键路径实时响应。去年Semi Analysis做了一次有史以来最大规模的AI推理基准测试。结果显示Grace Blackwell NVLink 72的每瓦token吞吐量比上一代Hopper H200高出50倍。而黄仁勋自己说说的35倍。对此Semi Analysis创始人公开表示“黄仁勋在sand bagging故意保留余地”。老黄说没错我就说故意的实际是50倍每瓦性能决定了一切。因为每座数据中心的功率都是物理约束一座1GW的AI工厂永远不会变成2GW。在固定功率下谁的每瓦token产出更高谁的token成本就更低。这就是Vera Rubin存在的理由作为下一代计算平台再次将每瓦token吞吐量提高2-10倍。Vera Rubin十年千万倍加速Hopper时代老黄还会举起一块芯片秀给观众看但那个时代已经结束了。去年我说Hopper的时候会举起一块芯片那很可爱。但这是Vera Rubin当人们想到Vera Rubin人们想到的是整个系统。Vera Rubin是英伟达有史以来最复杂的AI计算系统。7种芯片5种机架垂直集成、端到端优化成一台巨型计算机Rubin GPU全新架构支持NVLink 72全互联3.6 exaflops算力260TB/s全对全带宽。Vera CPU全新数据中心CPU全球唯一采用LPDDR5的服务器处理器单线程性能和能效比出色。老黄原本没打算单独卖CPU但Vera卖得太好这已经确定是一个数十亿美元的业务了。Groq LP30世界上从未见过的第三代芯片500MB片上SRAM确定性数据流处理器静态编译、软件调度专为推理而生。BlueField 4 DPU CX9网卡全新存储平台共同构成了面向AI原生的全新存储基础设施。NVLink Switch第六代NVLink交换芯片提供大规模MoE模型所需的快速、无缝的GPU到GPU通信Spectrum X CPO交换机全球首款量产的共封装光学Co-Packaged Optics交换机电子直接转光子。在同一座1GW数据中心里从Grace Blackwell到Vera Rubin Groqtoken生成速率从200万跳到7亿。‘两年时间350倍。摩尔定律在同样的时间里能给多少大约1.5倍。350倍不是靠芯片上多塞几个晶体管实现的。当算力密度卷到这个程度瓶颈早就转移到了芯片之外散热和互联。Vera Rubin的答案是两大变化一个关于水一个关于光。关于水Vera Rubin采用100%液冷方案连NVLink交换机都泡在液冷系统里。互联不再靠外部线缆而是在液冷模块内部做板级/背板式集成互联。线缆全部消失了过去安装一个机架要两天现在两小时。关于光黄仁勋举起了世界首款量产的CPO共封装光学交换机。传统交换机里电信号从芯片出来经过PCB走线到达光模块在光模块里完成电-光转换再通过光纤传出去。每一次转换都有延迟每一段铜线都有损耗。CPO把这条链路压缩到极致光学器件直接封装到芯片上电子在硅片表面就转换成光子。 没有光模块没有铜线中转。英伟达和TSMC联合发明了一种叫CoUP的封装工艺目前全球只有英伟达在量产。要让72块GPU实现260TB/s的全对全带宽如果还用传统铜缆信号跑不了太远机架尺寸就是物理极限。CPO打破了这个限制光子跑得更远、损耗更低、能效更高。但铜缆和光学不是二选一。黄仁勋被问了太多次这个问题干脆一次说清我们都要我们需要更多的铜缆产能更多的光芯片产能更多的CPO产能。十年前的DGX-18块Pascal GPU170 TFLOPS。十年后的Vera Rubin NVLink 723.6 ExaFLOPS。十年算力增长四千万倍。高吞吐的归Rubin低延迟的归Groq但还有一个问题没解决。NVLink 72在高吞吐区间几乎无敌72块GPU全对全互联带宽拉满。可一旦要求的不是400 token/秒而是1000 token/秒的极速推理NVLink 72的带宽就不够用了。这就是Groq的故事。英伟达在2025年底收购了推理芯片公司Groq后者以“LPU”Language Processing Unit著称。Groq的架构和英伟达GPU截然相反它是一颗确定性数据流处理器静态编译、编译器调度没有动态调度片上堆了500MB的巨量SRAM只干一件事推理。此前业界一直猜测英伟达会如何整合这项资产。答案来了不是替代GPU而是与GPU协同。一颗Groq芯片4GB SRAM一颗Rubin芯片288GB HBM。前者极致快后者极致大。单独用Groq装不下万亿参数模型和海量KV cache单独用Rubin推不到极速token生成。英伟达的解法是分离式推理用Dynamo推理框架把流水线拆开。Pre-fill和attention的计算量大交给Vera Rubindecode阶段的token生成对带宽敏感、对延迟敏感卸载给Groq。两颗极端不同的处理器通过以太网紧密耦合延迟减半。结果在最高价值的推理层级上再提升35倍吞吐量。同时解锁了此前根本不存在的新推理层级千token/秒级别的极速生成。黄仁勋给出了配比建议如果你的工作负载主要是高吞吐100%上Vera Rubin就够了。如果你有大量编程、工程级token生成需求拿出25%的数据中心功率给Groq。Groq 3芯片由三星代工已经量产预计Q3出货。而Vera Rubin的首个机架已经在微软Azure云上跑起来了。OpenClawAI时代的Linux时刻发布会的最后一部分老黄画风一转开始聊人类历史上最受欢迎的开源项目OpenClaw。OpenClaw能做什么老黄举例有人帮60岁的父亲自动化了整个精酿啤酒生意蓝牙连接酿造设备自动生成销售网站顾客可以直接下单“龙虾拉格啤酒”。但老黄更在意的是它的本质。他用操作系统的语言重新定义了OpenClaw资源管理可以调用大语言模型、访问文件系统、使用工具。调度系统能做cron jobs、分步执行、生成子Agent。I/O系统多模态输入输出你可以冲它挥手它给你发邮件。OpenClaw开源了Agent计算机的操作系统。就像Windows让我们创造了个人电脑OpenClaw让我们创造了个人Agent。Windows→PC时代Linux→服务器时代HTML→互联网时代Kubernetes→云时代OpenClaw→Agent时代。每一次平台转移都催生了一批改变世界的公司。企业IT的全部逻辑即将改写。老黄直接断言每家SaaS公司都将变成Agent-as-a-Service公司。ButAgent在企业网络中能访问敏感信息、执行代码、对外通信“你把这三件事连起来大声说出来再想一想……”所以英伟达与OpenClaw合作推出了企业版NeMo Claw加上了策略引擎、网络护栏、隐私路由器。老黄给出了他对未来企业的终极想象未来每个工程师都会有一个年度Token预算。他们年薪几十万美元我会在此基础上再给他们一半的金额作为Token额度。这已经是硅谷的新招聘筹码了你的offer里带多少TokenTwo More Thing在发布会上对于外界备受关注的下一代计算架构Feynman费曼老黄也做了预告并表示计算架构每年都会有新东西。Feynman将带来全新的GPU、LPULP 40和CPU Rosa。新一代的BlueField 5将连接下一代CPU与SuperNIC CX10并配合新的Kyber技术实现铜线与光学双扩展——这意味着Feynman将首次同时支持铜线与光学封装的水平扩展。老黄强调无论是铜线、光学还是CPO未来都需要更高的容量与带宽这正是Feynman的核心突破。此外他还透露NVIDIA 正与合作伙伴联合开发英伟达Space One一台将部署在太空的数据中心计算机开启“太空算力”的新篇章。太空中没有对流没有传导只有辐射散热。我们得想办法在太空里给GPU散热。不过我们有很多优秀的工程师在搞这件事。把GPU送上近地轨道这大概是“AI无处不在”最字面意义上的诠释了。直播回放https://www.youtube.com/watch?vjw_o0xr8MWU一键三连「点赞」「转发」「小心心」欢迎在评论区留下你的想法—完—今天你养虾了吗欢迎加入【龙虾养成讨论组】一起交流养虾经验扫码添加小助手加入社群记得备注【OPENCLAW】哦一键关注 点亮星标科技前沿进展每日见
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2426525.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!