中国科学院发布类脑大模型瞬悉2.0,打破长序列与低功耗部署核心瓶颈

news2026/5/11 22:16:29
来源ScienceAI 本文约3000字建议阅读5分钟验证了类脑机制与高效模型架构结合的广阔前景。当前大模型发展正从「参数和数据规模驱动」逐步延展至「上下文能力驱动」。在智能体、代码理解、长文档分析等应用中模型需要处理数十万甚至百万级 token。但传统 Transformer 在长序列处理及资源受限场景下的部署仍面临诸多痛点。因此如何以极低成本构建基础模型打破 Transformer 在不同序列长度、不同硬件平台下的能耗瓶颈成为大模型领域的关键探索方向。近日中国科学院自动化研究所李国齐、徐波团队在类脑脉冲大模型「瞬悉 1.0」研究基础上针对当前大模型长序列处理与低功耗部署等核心瓶颈推出 SpikingBrain2.0-5B简称 SpB2.0-5B模型系列通过引入更丰富的类脑机制 —— 包括稀疏化记忆建模、更精细化的脉冲激活值编码等在瞬悉 1.0 的基础上实现了全方位升级。论文地址https://arxiv.org/abs/2604.22575开源地址https://github.com/BICLab/SpikingBrain2.0此次发布的瞬悉 2.0 以超过瞬悉 1.0 十倍的训练开销节省续训数据量从瞬悉 1.0 的 150B 降低至瞬悉 1.0 的 14B即仅需 32 张 A100 显卡9 天内即可完成对当前主流 Transformer 架构大模型如 Qwen3 系列模型的持续预训练通用知识如 MMLU、ARC-C、BBH 等任务以及 SFT 后推理能力如数学推理 GSM8K、MATH代码 HumanEval、MBPP 等任务的表现可与强基线 Qwen3 比肩且实现比瞬悉 1.0 更优综合性能并在 4M 序列长度下达到主流 Transformer 模型 Qwen3 的 10.13 倍首 Token 生成加速FP8 量化路径下 4M 长度下相比 Qwen3 BF16 基线提速达 15.13 倍整数 - 脉冲化编码路径下精度损失仅为 0.69%且脉冲稀疏度高达 64.3%模拟结果显示该方案在测试场景下相比 INT8 矩阵乘法基线有望使得面向类脑大模型的神经形态芯片面积减小 70.6%在 250/500MHz 工作频率下功耗降低 48.1%/46.5%。瞬悉 2.0 在长序列处理效率、训练开销、综合 Benchmark 性能、跨硬件平台适配性及应用场景拓展等方面显著提升为轻量级、多模态高效脉冲基础模型的研发提供了可行路径为新一代人工智能创新发展注入新动力。瞬悉 2.0 与 Qwen-3 速度对比演示架构设计短序列场景中Transformer 的计算瓶颈源于大量前馈矩阵乘法长序列场景中计算瓶颈则向注意力模块转移导致推理效率大幅下降。瞬悉 2.0 因此对注意力和前馈矩阵乘操作分别做出针对性设计期望缓解 Transformer 的能耗问题。1双空间混合稀疏注意力瞬悉 2.0 提出双空间稀疏注意力Dual-Space Sparse Attention, DSSA用于在层间混合稀疏 Softmax 注意力 MoBA 与稀疏线性注意力 Sparse State Expansion SSE。其中MoBA 对完整的 KV cache 进行块级稀疏计算SSE 则对压缩式状态表征进行稀疏计算。这一设计对应类脑化的稀疏记忆机制实现了优良的长序列性能 - 效率权衡 (图 2)。瞬悉 2.0 架构概览2双路径激活值编码策略瞬悉 2.0 采用了包括 FP8 和 INT8-Spiking 两种对偶激活值编码路径图 31.FP8 编码路径利用低比特 Tensor Core 加速矩阵乘运算该路径面向工业 GPU 部署如 NVIDIA Hopper GPU2.INT8-Spiking 编码路径把激活值转为脉冲序列可将密集矩阵乘法替换为事件驱动的整数累加大幅降低部署功耗该路径面向异步神经形态芯片部署。瞬悉 2.0 对偶编码路径转换训练流程瞬悉 2.0 采用比瞬悉 1.0 更高效、模态更广的架构转换流程Transformer-to-Hybrid Conversion依托极少量开源数据和计算资源分别为语言模型与多模态模型构建两条独立的续训转换路径大幅降低开发成本图 4。1LLM 转换路径包括短上下文蒸馏、三阶段长上下文扩展最高至 512k以及两阶段的通用加推理 SFT同时开展了在策略蒸馏探索。2VLM 转换路径包括知识蒸馏与指令微调。本文还同时分享了实践过程中的关键 Takeaways为社区研究提供参考。瞬悉 2.0 转换训练 Pipeline模型性能1. 长序列处理效率显著提升。1在 Huggingface 序列并行框架下瞬悉 2.0 在 4M 长度相比 Qwen3 实现 10.13 倍的首 token 生成时延TTFT加速2在 vLLM 张量并行框架下512k 长度端到端生成延迟降低 4.3 倍128k 长度下总吞吐提升 1.57 倍、请求并发数提升 3.17 倍3依托 vLLM 框架8 卡 A100 即可支持长达 10M 序列的推理而 Qwen3 基线在 4M 长度时已超出显存限制展现出突出的长序列处理优势。2. 训练成本大幅降低。瞬悉 2.0-5B 语言与多模态模型的总转换开销低至 7k A100 卡时以下仅需 32 张 A1009 天内即可完成对 Qwen3-4B 和 Qwen3-VL-4B 的全部转换训练相较于 SpB1.0训练成本减少 10 倍以上LLM CPT 数据量从 150B 降至 14B实现了高效低成本的模型开发。3. 模型性能保持竞争力。1瞬悉 2.0 语言模型在通用知识如 MMLU、ARC-C、BBH 等任务以及 SFT 后推理能力如数学推理 GSM8K、MATH代码 HumanEval、MBPP 等任务的表现与强基线 Qwen3 比肩综合性能优于 Qwen2.5 和更大规模的瞬悉 1.0-7B 模型。2瞬悉 2.0-VL 模型性能实现对 Qwen3-VL 的有效恢复可与强基线 Qwen2.5-VL 比肩如图表推理 AI2D、通用视觉推理 MMStar 等任务在瞬悉 1.0 的基础上实现了多模态能力的突破。4. 跨硬件平台适配性突出。瞬悉 2.0 可灵活适配不同硬件平台1采用 FP8 路径时精度损失仅为 0.24%在 H100 上实测显示256k 序列长度下 TTFT 提速相比瞬悉 2.0 BF16 版本超 2.5 倍同时在 4M 长度下相比 Qwen3 BF16 基线提速达 15.13 倍2采用 INT8-Spiking 路径时精度损失仅为 0.69%且脉冲稀疏度高达 64.3%后仿模拟结果显示该方案在测试场景下相比 INT8 矩阵乘法基线面积减小 70.6%在 250/500MHz 工作频率下功耗降低 48.1%/46.5%有望破解端侧部署的功耗瓶颈。瞬悉 2.0 系列模型的发布为轻量级、多模态高效脉冲基础模型的研发提供了可行路径进一步验证了类脑机制与高效模型架构结合的广阔前景。同时该模型为端侧、资源受限场景的大模型部署提供了高性价比解决方案也为低功耗神经形态计算的后续研发提供重要参考。研究团队将继续秉承类脑大模型技术「概念一致、迭代升级」的理念持续研发可比肩主流大模型的低功耗神经形态计算。作者介绍李国齐论文通讯作者中国科学院自动化所研究员脑认知与类脑智能全国重点实验室副主任通用类脑智能大模型北京市重点实验室主任国家杰出青年基金获得者在 Nature、Nature 子刊、Science 子刊等期刊和 AI 顶会上发表论文 200 余篇。徐波论文通讯作者中国科学院自动化所研究员中国科学院自动化所所长科技创新 2030「新一代人工智能」重大项目专家组组长中国科学院大学人工智能学院院长。潘昱锜论文一作中国科学院自动化研究所博士生2024 年本科毕业于南京大学匡亚明学院。研究方向为通用类脑大模型与长序列基础模型架构瞬悉 SpikingBrain 类脑大模型 1.0/2.0 核心团队成员以第一作者在 ICLR 2026、TMLR 2026 等 AI 顶刊顶会上发表多篇论文。编辑文婧关于我们数据派THU作为数据科学类公众号背靠清华大学大数据研究中心分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识努力建设数据人才聚集平台、打造中国大数据最强集团军。新浪微博数据派THU微信视频号数据派THU今日头条数据派THU

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2604628.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…