2026 AI存储行业迎来关键时刻:英伟达“补课”,华为存储“解题”
文 | 智能相对论作者 | 陈泊丞数十亿建成的万卡GPU集群实际利用率不足40%。这不是某个智算中心的个例。在过去两年里中国涌现了大大小小几十个智算中心项目GPU买了一批又一批但真正跑满的时候不多。问题不在芯片本身——而在数据供给跟不上。GPU在空转等存储喂数据。这件事说起来简单但背后却是一笔巨大的“沉没成本”花了几十亿建算力最后发现瓶颈卡在存储上。事实上整个行业都在讨论“算力瓶颈”但真正拖慢中国AI落地节奏的很可能是存储。有意思的是正是在这届GTC上英伟达第一次把“存储”放到了与“算力”并列的位置。它在超节点中内置独立的存储柜定义新的AI存储参考架构STX/CMX并联合12家存储厂商发布解决方案——这不是英伟达的常规操作。一家靠GPU起家的公司为什么突然对存储这么上心这背后是AI产业底层逻辑的一次根本性转变。英伟达在GTC上给全行业补了一堂存储课要理解英伟达在GTC上的动作先得回答一个问题为什么它要在这个节点做这件事答案的背后是一个正在发生的大趋势从“训练为王”到“推理为王”的阶段性转变。过去几年AI行业的主要矛盾是“模型不够大、训练不够久”。那时候存储是配角GPU喂饱了数据就行。但是当大模型开始大规模落地推理变成了主战场整个故事的底层逻辑就变了。推理需要什么实时、低延迟、海量随机读写的数据访问。这跟训练阶段完全不同——训练可以批处理而推理必须秒级响应训练可以提前准备好数据而推理得随时待命。黄仁勋在CES和GTC上都说过一句话“KV Cache的激增足以催生一个全新的存储市场”。这话听着像营销但仔细想想GPU厂商第一次公开承认“计算不再是最稀缺的资源数据供给才是”这本身就是信号。基于这个认知英伟达在GTC上直接打出了三张关键牌分别为CMX、AIDP和SCADA对应回答的是不同层次的问题。首先CMX也就是G3.5层回答“推理太贵”的问题。当KV Cache从显存溢出到存储池推理成本的核心矛盾从“算力贵”变成“数据供给贵”。英伟达用CMX架构把存储性能与GPU计算进行了深度绑定这套玩法本质上是“极致协同设计”——存储不再是外挂硬盘而是GPU系统的延伸。其次AIDP回答“数据不敢动”的问题。深入行业真实需求来看企业不是没有数据而是数据不敢搬、不能搬。譬如金融客户的数据出不了机房政务系统的数据有合规要求医疗数据碰都不能碰。因此英伟达提出“Data-in-Place”数据就地处理本质是让AI能力下沉到存储里减少数据的搬运。最后SCADA 回答“GPU吃不饱”的问题。在推荐系统、图神经网络这些场景GPU需要从海量数据中随机读取极小粒度的数据。然而传统I/O路径太重GPU经常“饿着肚子等数据”。为此SCADA允许GPU绕过了CPU直接访问存储带宽接近HBM支持EB级数据集——很显然这是为未来的实时决策场景铺路。三张牌三层问题从眼前到当下再到未来构成了英伟达对AI存储的完整判断。也正是在这个判断下英伟达喊出了“2026 is the year of AI storage”。中国市场的“冰与火”最旺盛的需求与最普遍的误判把视线拉回中国。事实上中国是全球AI存储需求最旺盛的市场——这话不算夸张。智能客服、RAG知识中台、代码生成、自动驾驶仿真、智能制造......这些场景的落地速度实实在在走在了全球前列。在政策层面“人工智能”全面铺开数据要素×三年行动计划启动“东数西算”2.0推动算电协同——从合规、基建到成本政策红利也在多个维度拉动了高质量存储建设。客观而言需求是真的。但这枚硬币还有另一面。多数智算中心的存储投入占比不足10%剩下的钱几乎全砸进了GPU服务器。结果呢GPU集群利用率普遍低于40%“算力过剩与存储瓶颈并存”成了一种荒诞的现实。花了几十亿买算力最后发现卡脖子的不是芯片是数据供给。这不是技术问题是认知问题。整个行业的注意力都被“算力”两个字吸走了没人认真想过卡能跑满吗更棘手的是冰层之下还有结构性掣肘不是喊两句口号就能解决的。比如标准缺失。面向昇腾、海光这类国产算力的存储架构和评测标准几乎空白厂商各自为战集成成本高企。再比如生态碎片化。国内存储产业硬件能力强但核心软件能力比如KV Cache调度算法、数据就地处理引擎——与英伟达的“极致协同设计”相比还有肉眼可见的差距。中国有最大的市场需求但缺乏把需求转化为产品的生态协同能力。这个矛盾不解决需求旺盛就只是数字好看落不了地。最核心的问题可能要靠存储厂商来回答那么这个局怎么破回归一个朴素的问题谁最懂数据当整个行业都在讨论“用更多GPU训练更大模型”时做存储的人在琢磨另一件事数据从哪来、如何治理、怎么让AI用得上——这是两种完全不同的视角。算力厂商看的是“模型需要多少Flops”存储厂商看的是“模型需要多少数据、怎么高效喂进去”。这个视角差异在AI大规模落地的阶段变得前所未有的重要。英伟为什么要定义AIDP参考架构并交给存储厂商推出解决方案在企业落地因为越来越多的厂商意识到数据供给的入口正在成为AI基础设施的核心卡口。存储不再是配角它可以是主角是AI系统的“数据中枢”。正是基于这个判断华为打破了传统存储的烟囱式结构用一套底座即AIDPAI Data Platform架构覆盖了三大场景。这套架构的核心逻辑其实很朴素客户不需要为KV Cache、AIDP、SCADA分别建三套系统这不是成本问题是现实不允许。举个例子一个智算中心可能有昇腾和海光的卡要兼顾一个金融机构的数据不能出域但又要支撑实时推理——这些矛盾不是买更多GPU能解决的需要的是一套能统一调度、分层处理、渐进演进的存储架构。围绕这个逻辑华为在每一层都埋了具体的能力。G3.5层UCM统一缓存管理器实现显存与存储间的秒级热迁移推理并发能力提升数倍——这解决的是“推理贵”的问题让PB级KV Cache不再必须驻留在昂贵的HBM显存里。企业AI层VSS向量检索和RAG能力直接内嵌到存储系统数据不用搬出去就能被调用——这解决的是“数据不敢动”的问题合规要求不是束缚而是架构设计的起点。SCADA层预留GPU Initiate IO接口支持未来GPU直接访问超大规模数据集——这一步是面向未来的目前能落地的场景有限但架构要提前站位。三层能力对应三层价值眼前的降本、当下的合规、未来的扩展。这不是功能堆砌是有优先级判断的演进路线。落地层面基于OceanStor A800高性能AI存储和OceanStor Dorado全闪存存储华为提供了一体化和独立式两种交付模式——前者面向新建场景后者面向存量系统的渐进式改造。不同客户的现实处境不同解法也不同这本身就是务实的体现。说到底中国AI存储市场需要的不是“英伟达的中国版”而是一条适配本土需求的务实路径。华为在做这件事不代表它是唯一答案但这条路线的核心判断——统一底座、平滑演进、数据安全内生确实回应了当前市场最真实的痛点。结语GTC 2026或许只是起点。英伟达在补课存储厂商在解题中国市场的需求在倒逼整个行业重新审视这个问题。当“算力”不再是稀缺资源的代名词数据供给的效率正在成为下一阶段AI竞争的关键变量。当然“重算力、轻存力”的惯性思维不会自动消失。它需要有人指出这个问题需要有人用实际案例证明存储投入的ROI可能比追加GPU更能提升整个系统的效率。这不是华为一家公司的事。这是整个行业都需要回答的问题。*本文图片均来源于网络此内容为【智能相对论】原创仅代表个人观点未经授权任何人不得以任何方式使用包括转载、摘编、复制或建立镜像。部分图片来自网络且未核实版权归属不作为商业用途如有侵犯请作者与我们联系。•AI产业新媒体;•澎湃新闻科技榜单月度top5;•文章长期“霸占”钛媒体热门文章排行榜TOP10;•著有《人工智能 十万个为什么》•【重点关注领域】智能家电含白电、黑电、智能手机、无人机等AIoT设备、智能驾驶、AI、、、AI、AI、AR/VR、、开发者以及背后的芯片、算法等。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2567420.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!