中国科学院发布类脑大模型瞬悉2.0,打破长序列与低功耗部署核心瓶颈
来源ScienceAI 本文约3000字建议阅读5分钟验证了类脑机制与高效模型架构结合的广阔前景。当前大模型发展正从「参数和数据规模驱动」逐步延展至「上下文能力驱动」。在智能体、代码理解、长文档分析等应用中模型需要处理数十万甚至百万级 token。但传统 Transformer 在长序列处理及资源受限场景下的部署仍面临诸多痛点。因此如何以极低成本构建基础模型打破 Transformer 在不同序列长度、不同硬件平台下的能耗瓶颈成为大模型领域的关键探索方向。近日中国科学院自动化研究所李国齐、徐波团队在类脑脉冲大模型「瞬悉 1.0」研究基础上针对当前大模型长序列处理与低功耗部署等核心瓶颈推出 SpikingBrain2.0-5B简称 SpB2.0-5B模型系列通过引入更丰富的类脑机制 —— 包括稀疏化记忆建模、更精细化的脉冲激活值编码等在瞬悉 1.0 的基础上实现了全方位升级。论文地址https://arxiv.org/abs/2604.22575开源地址https://github.com/BICLab/SpikingBrain2.0此次发布的瞬悉 2.0 以超过瞬悉 1.0 十倍的训练开销节省续训数据量从瞬悉 1.0 的 150B 降低至瞬悉 1.0 的 14B即仅需 32 张 A100 显卡9 天内即可完成对当前主流 Transformer 架构大模型如 Qwen3 系列模型的持续预训练通用知识如 MMLU、ARC-C、BBH 等任务以及 SFT 后推理能力如数学推理 GSM8K、MATH代码 HumanEval、MBPP 等任务的表现可与强基线 Qwen3 比肩且实现比瞬悉 1.0 更优综合性能并在 4M 序列长度下达到主流 Transformer 模型 Qwen3 的 10.13 倍首 Token 生成加速FP8 量化路径下 4M 长度下相比 Qwen3 BF16 基线提速达 15.13 倍整数 - 脉冲化编码路径下精度损失仅为 0.69%且脉冲稀疏度高达 64.3%模拟结果显示该方案在测试场景下相比 INT8 矩阵乘法基线有望使得面向类脑大模型的神经形态芯片面积减小 70.6%在 250/500MHz 工作频率下功耗降低 48.1%/46.5%。瞬悉 2.0 在长序列处理效率、训练开销、综合 Benchmark 性能、跨硬件平台适配性及应用场景拓展等方面显著提升为轻量级、多模态高效脉冲基础模型的研发提供了可行路径为新一代人工智能创新发展注入新动力。瞬悉 2.0 与 Qwen-3 速度对比演示架构设计短序列场景中Transformer 的计算瓶颈源于大量前馈矩阵乘法长序列场景中计算瓶颈则向注意力模块转移导致推理效率大幅下降。瞬悉 2.0 因此对注意力和前馈矩阵乘操作分别做出针对性设计期望缓解 Transformer 的能耗问题。1双空间混合稀疏注意力瞬悉 2.0 提出双空间稀疏注意力Dual-Space Sparse Attention, DSSA用于在层间混合稀疏 Softmax 注意力 MoBA 与稀疏线性注意力 Sparse State Expansion SSE。其中MoBA 对完整的 KV cache 进行块级稀疏计算SSE 则对压缩式状态表征进行稀疏计算。这一设计对应类脑化的稀疏记忆机制实现了优良的长序列性能 - 效率权衡 (图 2)。瞬悉 2.0 架构概览2双路径激活值编码策略瞬悉 2.0 采用了包括 FP8 和 INT8-Spiking 两种对偶激活值编码路径图 31.FP8 编码路径利用低比特 Tensor Core 加速矩阵乘运算该路径面向工业 GPU 部署如 NVIDIA Hopper GPU2.INT8-Spiking 编码路径把激活值转为脉冲序列可将密集矩阵乘法替换为事件驱动的整数累加大幅降低部署功耗该路径面向异步神经形态芯片部署。瞬悉 2.0 对偶编码路径转换训练流程瞬悉 2.0 采用比瞬悉 1.0 更高效、模态更广的架构转换流程Transformer-to-Hybrid Conversion依托极少量开源数据和计算资源分别为语言模型与多模态模型构建两条独立的续训转换路径大幅降低开发成本图 4。1LLM 转换路径包括短上下文蒸馏、三阶段长上下文扩展最高至 512k以及两阶段的通用加推理 SFT同时开展了在策略蒸馏探索。2VLM 转换路径包括知识蒸馏与指令微调。本文还同时分享了实践过程中的关键 Takeaways为社区研究提供参考。瞬悉 2.0 转换训练 Pipeline模型性能1. 长序列处理效率显著提升。1在 Huggingface 序列并行框架下瞬悉 2.0 在 4M 长度相比 Qwen3 实现 10.13 倍的首 token 生成时延TTFT加速2在 vLLM 张量并行框架下512k 长度端到端生成延迟降低 4.3 倍128k 长度下总吞吐提升 1.57 倍、请求并发数提升 3.17 倍3依托 vLLM 框架8 卡 A100 即可支持长达 10M 序列的推理而 Qwen3 基线在 4M 长度时已超出显存限制展现出突出的长序列处理优势。2. 训练成本大幅降低。瞬悉 2.0-5B 语言与多模态模型的总转换开销低至 7k A100 卡时以下仅需 32 张 A1009 天内即可完成对 Qwen3-4B 和 Qwen3-VL-4B 的全部转换训练相较于 SpB1.0训练成本减少 10 倍以上LLM CPT 数据量从 150B 降至 14B实现了高效低成本的模型开发。3. 模型性能保持竞争力。1瞬悉 2.0 语言模型在通用知识如 MMLU、ARC-C、BBH 等任务以及 SFT 后推理能力如数学推理 GSM8K、MATH代码 HumanEval、MBPP 等任务的表现与强基线 Qwen3 比肩综合性能优于 Qwen2.5 和更大规模的瞬悉 1.0-7B 模型。2瞬悉 2.0-VL 模型性能实现对 Qwen3-VL 的有效恢复可与强基线 Qwen2.5-VL 比肩如图表推理 AI2D、通用视觉推理 MMStar 等任务在瞬悉 1.0 的基础上实现了多模态能力的突破。4. 跨硬件平台适配性突出。瞬悉 2.0 可灵活适配不同硬件平台1采用 FP8 路径时精度损失仅为 0.24%在 H100 上实测显示256k 序列长度下 TTFT 提速相比瞬悉 2.0 BF16 版本超 2.5 倍同时在 4M 长度下相比 Qwen3 BF16 基线提速达 15.13 倍2采用 INT8-Spiking 路径时精度损失仅为 0.69%且脉冲稀疏度高达 64.3%后仿模拟结果显示该方案在测试场景下相比 INT8 矩阵乘法基线面积减小 70.6%在 250/500MHz 工作频率下功耗降低 48.1%/46.5%有望破解端侧部署的功耗瓶颈。瞬悉 2.0 系列模型的发布为轻量级、多模态高效脉冲基础模型的研发提供了可行路径进一步验证了类脑机制与高效模型架构结合的广阔前景。同时该模型为端侧、资源受限场景的大模型部署提供了高性价比解决方案也为低功耗神经形态计算的后续研发提供重要参考。研究团队将继续秉承类脑大模型技术「概念一致、迭代升级」的理念持续研发可比肩主流大模型的低功耗神经形态计算。作者介绍李国齐论文通讯作者中国科学院自动化所研究员脑认知与类脑智能全国重点实验室副主任通用类脑智能大模型北京市重点实验室主任国家杰出青年基金获得者在 Nature、Nature 子刊、Science 子刊等期刊和 AI 顶会上发表论文 200 余篇。徐波论文通讯作者中国科学院自动化所研究员中国科学院自动化所所长科技创新 2030「新一代人工智能」重大项目专家组组长中国科学院大学人工智能学院院长。潘昱锜论文一作中国科学院自动化研究所博士生2024 年本科毕业于南京大学匡亚明学院。研究方向为通用类脑大模型与长序列基础模型架构瞬悉 SpikingBrain 类脑大模型 1.0/2.0 核心团队成员以第一作者在 ICLR 2026、TMLR 2026 等 AI 顶刊顶会上发表多篇论文。编辑文婧关于我们数据派THU作为数据科学类公众号背靠清华大学大数据研究中心分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识努力建设数据人才聚集平台、打造中国大数据最强集团军。新浪微博数据派THU微信视频号数据派THU今日头条数据派THU
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2604628.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!