物理 AI 为什么离不开边缘计算?
过去两年AI 给人的印象基本是一回事——一个对话框一个输入框。你打字它打字你上传它分析AI 安静地待在屏幕里处理着一切关于文字、图像、代码的事情。行业的注意力也都跟着堆在那一头。云厂商抢算力芯片厂卷训练卡应用层抢入口关于 AI 的大新闻几乎都和云端有关模型又大了多少倍集群又烧了多少钱推理价格又降了几个点。但风向其实在悄悄变。今年 1 月 CES 2026 上黄仁勋花了 90 分钟做主题演讲——核心一句话是 物理 AI 的ChatGPT 时刻即将到来。他把 AI 的演化排了一条线感知 AI、生成式 AI、代理 AI再往后是物理 AI——也就是能理解重力、摩擦和因果、能真正去操作现实世界的那种 AI。会上英伟达发布的也不光是数据中心的怪兽训练卡还有专门塞进机器人本体的 Jetson Thor 新模块——40 到 70 瓦的功耗1200 TOPS 的算力。当全行业最大的 AI 算力供应商开始把主题演讲的核心位置让给装在机器人身上的芯片至少说明一件事——AI 主战场的重心已经开始往现实世界这一侧偏了。01AI 走出屏幕意味着什么把镜头从对话框移开会看到一些不太一样的东西。机器人公司在抢着把视觉—语言—动作模型塞进本体让一台两条腿的机器照着自然语言指令把杯子从桌上拿到厨房车厂把多模态模型搬进座舱过去一年开始有不少车型把端到端模型直接放上车端产线上的工业相机后面挂的不再只是规则引擎而是一个能识别细微缺陷的小模型连一些园区项目里闸机和摄像头都开始具备一点看懂场景的能力而不是只会触发录像。这些场景看起来分散但底下的逻辑是一样的——AI 正在从回答你变成替你处理一件事。它要看见环境、读懂上下文、规划下一步然后真的把动作做出来。这件事行业里通常叫 Physical AI。名字不重要重要的是它和过去两年的云端 AI 不是同一种生意。云端 AI 是给屏幕用的Physical AI 是给现实世界用的。一旦真要去碰传感器和执行器很多原本能糊弄过去的东西就糊弄不过去了。02为什么这件事很难放在云上做云端再大再强到了物理世界面前会撞上几堵实打实的墙。最直接的是时延。机械臂抓一个杯子决策窗口大概是几十毫秒自动驾驶在 60 公里时速下留给从感知到决策的时间也就 100 毫秒上下AR 眼镜把一个虚拟标签贴到你眼前的真实物体上超过 20 毫秒人眼就能感觉到漂移。把推理往云端走一趟就算用上 5G光网络往返也容易吃掉这个预算的一半。物理世界不会等服务器返回。数据量是另一个绕不过去的事。一台四足机器人身上常见的传感器组合——双目相机加 IMU 加激光雷达——每秒能产生几百 MB 的原始数据工厂一条产线挂十几个工业相机回传到云相当于自己给自己拉一根专线自动驾驶汽车一天能跑出 TB 级数据。这些数据大部分是原始素材真正有信息量的可能不到百分之一。如果不在边缘先处理一遍光是带宽和存储就压死人。还有可用性。工厂会断网车开进隧道会丢信号仓储机器人在金属货架之间 Wi-Fi 时好时坏海上钻井平台流量按 MB 算钱。这些场景里设备不能因为云不在就罢工。隐私这一块有时候被讲得比较虚但在某些行业是硬约束。家庭摄像头的画面、车内乘客的对话、医院里的病灶影像、工厂里属于商业机密的工艺参数——这些数据上不上云往往不是技术选择而是合规问题。其实结论只有一个算力需要下沉。业内早就有共识物理世界里的 AI 算力得离传感器和执行器更近一些。这个近一些就是边缘的位置。值得一提的是黄仁勋在 CES 演讲里也讲过一个三台计算机的版本可以参考——一台在数据中心做训练一台在 Omniverse 里做仿真第三台是装在机器人或汽车里的推理计算机。前两台都还在传统云计算的范畴里唯独第三台必须落在设备本体上。当连英伟达自己都开始把机器人本体里那台计算机单拎出来讲足以说明这件事的边缘属性是绕不过去的。03几个场景里到底在发生什么边缘 AI 不是一个统一的市场。机器人和车、车和眼镜、眼镜和园区对算力、功耗、时延、稳定性的要求差异巨大每一个场景里在解的问题其实都不太一样。机器人这边最热闹。人形机器人公司今年都在卷同一件事怎么把 VLA视觉—语言—动作模型放进本体做到接近实时。难点其实不是模型不够强而是机器人本体的算力预算非常吝啬——一颗 SoC 几十瓦要同时跑感知、定位、规划、控制、语言理解模型得压到能落进去反应还要稳定在几十毫秒以内。差几十毫秒一台机器人抓不稳杯子的差别就出来了。工业产线比想象中更难做。它对 AI 的要求是有点反直觉的——不是算得快而是算得稳。一条产线连续运行几个月缺陷漏检率要压到百万分之几模型不能漂、不能崩、不能卡顿。这两年视觉大模型替代传统机器视觉算法的趋势确实在加速但部署位置基本都在产线旁边的边缘服务器或工控机上没什么人愿意把这种任务往云上甩。车载是个特殊场景因为汽车本身就是一个移动的边缘节点。理想、蔚来、小鹏这一波都在把多模态模型搬进座舱特斯拉那边把端到端的驾驶模型直接放在车端推理。算力平台从几十 TOPS 一路卷到上千 TOPS英伟达 Thor、高通 Snapdragon Ride、地平线征程 6 都是在抢这个位置。车规级、低功耗、强实时这几件事卡在一起对芯片设计的难度跟消费级不在一个量级。AR 眼镜是最受算力折磨的一类设备。眼镜要轻电池小散热差但用户预期一点不低——实时翻译、目标识别、空间理解、语音交互一样都不能少。这就逼出一种比较拧巴的工程局面一部分推理放在眼镜本体一部分挪到口袋里的手机或胸前的小盒子再有一部分丢回云端三层之间的任务怎么切分、怎么同步本身就是个挺难的系统问题。Meta 的 Ray-Ban、苹果 Vision Pro、国内的雷鸟和 XREAL做法各不相同但都绕不开这件事。智慧园区和城市基础设施这一类规模大但单点价值低。一个园区可能挂着几千路视频全部回传云端既贵又卡。比较现实的做法是在园区内部部署边缘节点先做一轮筛选——大部分画面其实啥都没发生——只把有信息量的事件结构化之后送到云端。这是个朴素的边缘场景但量很大是这两年项目最多的方向之一。把这几个场景放一起看能看到的共同点其实就一句话算力在往设备和现场移。04边缘 AI 真正难在哪外行容易把边缘 AI 想成把模型塞进设备里。如果真这么简单这个行业早就解决了。芯片是大头。要在严苛的功耗、面积、成本约束下提供匹配大模型的算力NPU、GPU、DSP 怎么搭存算怎么平衡HBM 上不上车每一代都是重新洗牌。地平线、黑芝麻、爱芯元智这两年的迭代节奏其实是被这件事推着走的。模型压缩听起来是老话题但放在大模型上是另一回事。把一个百亿参数的模型量化到 INT4、再蒸馏出一个端侧版本精度还要扛得住——这件事跟过去 CV 时代压一个 ResNet 的难度不在一个层级。推理框架很多人不重视但它决定了同一颗芯片能跑出几倍的实际性能差距。算子优化、KV cache 怎么管、动态 batch 怎么调度、多模态流水线怎么拼这些工程细节里藏着真正的差别。也是为什么有时候同样的硬件配置不同公司做出来的产品体验差得离谱。传感器和前端处理这一段经常被忽略。AI 之前的预处理质量——图像信号怎么调、点云怎么去噪、雷达回波怎么对齐——往往直接决定 AI 之后的效果上限。模型再强进来的数据是垃圾也没用。剩下的安全和端云协同这两块工作量更大也更隐形。模型要防盗、防对抗攻击数据要端侧加密决策得有可审计的痕迹端云之间哪些任务在哪里跑、模型怎么 OTA、参数怎么下发、回流的数据怎么用每一项都是架构题做不好整套系统的体验就是断的。任何一个环节出问题最终用户感受到的就是这个 AI 设备好像不太行。所以真正能把边缘 AI 做出来的玩家往往不是单点最强的那一个而是能把芯片、模型、框架、传感器、产品打通的那一个——这种公司目前在国内外都不多可能比想象中更稀缺。05边缘的角色正在变回头看边缘计算这个词的含义其实一直在变。最早讲边缘讲的是把云处理不过来的数据分担到离用户更近的节点主打带宽和时延。后来 CDN、边缘缓存、边缘渲染冒出来边缘开始承担一部分内容分发的活。这两轮里边缘其实都还是云的一个延伸——它在帮云分担。Physical AI 把这件事推到了一个不一样的位置上。机器人在哪里走、机床调多少参数、车要不要变道、眼镜上显示什么——这些动作没有时间等云。它们必须在边缘当场做出来而且做出来之后就直接作用在现实世界上。这个时候的边缘已经不是云的延伸更像一个独立的决策点。云端继续做它擅长的事——训练、知识、跨设备协同、长期数据沉淀具体到此刻、此地的判断和动作是边缘的事。这件事如果按现在的方向继续走下去边缘的位置会比过去十年加起来都更重要。它不再只是后台基础设施的一段而是 Physical AI 真正能不能用的那一段。至于这条路上谁能先走通现在下结论还有点早。可以确定的只是——这件事已经开始了。重磅来袭“2026中国边缘计算企业20强”榜单发布2026-04-08AI 算力的狂欢掩盖了一个更难看的真相2026-05-08谁拿下边缘 AI谁就更可能赢下整个 AI 时代2026-04-21
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2602268.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!