DeepSeek 崩了 13 小时,不是故障,是 V4 在换引擎
正文3月29号晚上十点半我正让 DeepSeek 帮我改一段代码对话框突然弹出服务器繁忙。以为是高峰期卡了等几分钟就好——结果一等就是一整夜。第二天早上七点才恢复。整整13个小时网页端、App、API 全线变灰。微博热搜热度冲到95万海外 Reddit 上讨论帖热度也炸了外媒专门发稿报道这次Major Outage。当时大家都在骂服务器不稳定。但恢复之后第一批抢着登录的人发现了蹊跷——代码输出结构变了推理过程比之前更完整连 SVG 图形生成都跟之前判若两人。有人拿鹈鹕骑自行车的经典测试题跑了一遍效果比一周前好了一大截。我当时就一个念头这不是故障这是换引擎。4 月下旬终于定了4月10号《创智记》从多位知情人士处拿到消息梁文锋在内部沟通中确认DeepSeek V4 将于4月下旬正式发布。新浪科技也跟进了这条消息截至发稿 DeepSeek 方面未回应。这条信息的分量在于——V4 的发布时间已经变成了一部连载悬疑剧。原计划2月中旬春节前后发推迟到3月再推迟到4月。三次跳票每次都有人喊狼来了每次都落空。这次不一样是内部确认不是路边社。更凑巧的是4月7号深夜 DeepSeek 网页端悄悄上线了快速模式和专家模式。快速模式适合日常对话、即时响应支持图片和文件识别专家模式擅长复杂问题编码、数理推理能力明显更强就是高峰期得排队等。有网友直接问了句你是V4吗专家模式居然回答了是的。当然这可能只是模型幻觉但配合之前13小时宕机和各种蛛丝马迹V4 的雏形已经在跑了基本没跑。万亿参数百万上下文那 V4 到底升级了什么综合多方信源和泄露信息V4 延续 MoE 架构——混合专家模型简单说就是模型虽然总参数大但每次推理只激活一小部分专家所以不贵。总参数约 1万亿推理激活约 370亿。上下文窗口从 V3 的 128K 直接拉到了 100万 token。100万 token 什么概念你把一整个中型项目的源码全扔进去它一次读完不用分批。架构上最大的创新是内存层。1月份梁文锋参与发表的 Engram 论文核心思路是把记住东西和思考问题拆开——以前模型每次回答都要重新算一遍已知信息大量算力浪费在重复检索上。Engram 把静态知识存到外部内存用的时候直接查表不用重新算。论文数据显示1000亿参数的查找表放到主机内存吞吐量损失不到3%。这技术对国内算力环境特别关键用便宜的 CPU 内存替代昂贵的 GPU 显存来存知识等于给算力受限的团队开了条新路。泄露的基准测试数据未经官方确认HumanEval 90%SWE-bench 超 80%。如果属实代码能力追上了目前市面上的大部分竞品。不过自己报的分和第三方独立跑出来的经常是两回事先打个问号等正式发布看真功夫。真正的杀手锏跑在华为芯片上V4 这回最值得关注的是它跑在谁的芯片上。据路透社4月3日报道和 The Information 的跟进V4 的推理将运行在华为昇腾 950PR 芯片上。这颗芯片今年一季度刚量产是华为专门为推理场景设计的。FP4 精度算力 1.56 PFLOPS片上内存 112GB单卡算力是英伟达 H20 的 2.87 倍。对V4 推理不用英伟达了。更狠的是 DeepSeek 这次打破行业惯例以前大模型发布前都会先跟英伟达联调优化V4 直接跳过了没有向任何美国芯片厂商开放测试优先跟华为和寒武纪合作。软件层面华为的 CANN Next 新增了 SIMT 编程模型可以直接兼容英伟达 CUDA 代码。简单说就是以前写的 CUDA 程序迁移到昇腾上改动不大就能跑。不是完全无缝第三方库支持还有空白调试工具链也还不够成熟但对 DeepSeek 这种有专业团队的项目来说迁移已经跑通了。这件事的意义比又一个新模型大得多。DeepSeek 是目前中国最有影响力的开源大模型它主动适配国产芯片等于给整条国产算力供应链做了信用背书。每一个基于 DeepSeek 开源版本做应用的开发者都会把算力需求导向国产硬件。对华为昇腾、寒武纪、海光、摩尔线程这些厂商来说这波客户来得比任何广告都实在。有报道称阿里、字节、腾讯已经向华为预订了数十万颗新一代 AI 芯片准备通过云服务部署 V4 模型。受此影响AI 芯片价格近期涨了约 20%。不过要实事求是V4 的训练目前仍然依赖英伟达 GPU。推理跑在昇腾上已经是重要一步了但完全脱离 CUDA还需要编译器、算子、分布式训练框架等全栈能力的成熟。业内预计至少还要一两年。为什么跳票三次说了这么多好消息V4 为什么拖了三个月才定档从2月拖到4月不是梁文锋拖延症犯了是三件事卡在了一起。首先是芯片。昇腾 950PR 今年3月才量产V4 等的就是这颗芯片。模型从 CUDA 全栈迁移到 CANN Next编译器、算子、通信库、推理框架全得重写这不是一两周的活。架构重构也是个硬骨头。Engram 条件记忆、mHC 流形约束超连接、DeepSeek Sparse Attention 三项技术要整合进同一个模型稳定性需要时间打磨。据《晚点》报道梁文锋对效果不满意宁可推迟也不凑合发布。还有一层压力来自外部。2025年初 V3 出来的时候国内大模型还是蓝海。现在智谱刚发了 GLM-5.1编程定价直接对标 ClaudeMiniMax M2.7 号称支持 Agent 自我进化腾讯混元 3.0 姚顺雨带队也定在4月发布。迟到三个月的 V4 必须足够惊艳否则就是白跳票。行业格局从价格战到质量战聊完 V4 本身说说大环境。过去一年国产大模型市场的竞争逻辑变了。2025年各家还在疯狂压 API 价格用白菜价抢用户。到了2026年竞争焦点已经转到模型真正解决问题的能力上了。智谱 GLM-5.1 的定价就是信号年内涨价超八成后再度提价10%核心场景价格接近 Claude Sonnet 4.6。这是国产模型第一次不再靠便宜打仗而是用性能溢价打入了国际模型的定价区间。从这个角度看V4 的定价策略会很有意思。Apache 2.0 开源企业可以自主部署这个底牌已经亮了——成本控制不是靠压 API 价是靠国产算力把推理成本打下来。我的看法V4 能不能复刻去年 V3 的炸场效应我觉得很难但也不需要复刻。去年 V3 的震撼来自两个模型能力确实强加上成本比同行低一个数量级直接把英伟达股价打下来了一截。现在同行都追上来了便宜且强不再是 DeepSeek 的独门绝技。V4 真正的筹码在算力生态。当中国最火的开源大模型完全跑在国产芯片上这件事对产业链的影响比任何一组基准测试数据都实在。如果你想用国产算力跑自己的 AI 服务V4 昇腾 950PR 是目前最成熟的开源组合没有之一。至于要不要等 V4——做 AI 应用开发的值得等。开源加上国产算力再加上成本可控这个组合在国内市场上找不出第二家。评论区押注你觉得 V4 能在 SWE-bench 上超 80% 吗超了的扣 1没超的扣 2最离谱的答案我请你喝咖啡虽然不一定兑现。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2513062.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!