6.1B激活,三榜开源第一!蚂蚁·安诊儿医疗大模型发布
刚刚由浙江省卫生健康信息中心、蚂蚁健康与浙江省安诊儿医学人工智能科技有限公司联合研发迄今为止规模最大、能力最强的开源医疗语言模型 AntAngelMed 发布并开源。模型基于 Ling-flash-2.0MoE架构100B 总参数仅激活 6.1B 即达到约 40B 密集模型的性能水平推理速度超过200 tokens/s。在国内外主流的权威医疗基准测评中 HealthBench、MedAIBench和MedBench均位居前列超越所有开源模型及多个顶尖闭源模型。三榜第一HealthBench、MedAIBench和MedBench三榜开源第一在 OpenAI 发布的评估大模型在真实医疗环境中的表现 HealthBench 基准上超越所有开源模型及一系列顶尖闭源模型。在更具挑战性的 HealthBench-Hard 子集上优势更显著。在国家人工智能医疗产业先导区建设单位开发的权威医疗大模型评测体系 MedAIBench 基准上AntAngelMed 同样位居顶尖水平在医学知识问答和医学伦理/安全性方面具有更强的综合专业性与安全性。中文医疗领域非常科学严谨的大模型评测基准 MedBench 包含 36 个独立构建的评测数据集涵盖约 70 万条样本。AntAngelMed 在这一排行榜上仍然排名第一。而且在医学知识问答、医学语言理解、医学语言生成、复杂医学推理以及安全性与伦理五大核心维度上全面领先。三阶段打造AntAngelMed 采用精心设计的三阶段训练流程将通用能力与医学专业知识深度融合。持续预训练Continual Pre-Training基于 Ling-flash-2.0使用了大规模、高质量的医学语料库百科全书、网络文本、学术出版物注入深厚的领域知识与世界知识。监督微调Supervised Fine-Tuning, SFT构建了一个多源异构的高质量指令数据集。通用数据数学、编程、逻辑强化了 AntAngelMed 的核心思维链能力而医学场景医患问答、诊断推理、安全/伦理则提供了深度适配以提升临床表现。强化学习Reinforcement Learning, RL采用 GRPO 算法和任务特定的奖励模型通过 RL 精确塑造模型行为。强调共情能力、结构清晰性与安全边界并鼓励在复杂病例中基于证据进行推理以减少幻觉并提高准确性。高效 MoE 架构AntAngelMed 继承了 Ling-flash-2.0 的先进设计。采用 Ling Scaling Laws 技术以及 1/32 激活比例的 MoE 架构并对专家粒度、共享专家比例、注意力均衡、无辅助损失 Sigmoid 路由、MTP 层、QK-Norm 以及 Partial-RoPE几大核心组件进行了全面优化。如此一来小激活量的 MoE 模型相比同等规模的稠密架构效率最高提升 7 倍。AntAngelMed 仅需激活 61 亿参数即可达到约 400 亿参数稠密模型的性能。由于其激活参数量小AntAngelMed 具有显著的速度优势。在 H20 硬件上推理速度超过 200 tokens/s约为 360 亿参数稠密模型的 3 倍。结合 YaRN 外推技术支持 128K 上下文长度。而随着输出长度增加相对加速比可达 7 倍或更高。团队还专门针对推理加速对 AntAngelMed 进行了优化采用了 FP8 量化结合 EAGLE3 优化技术在并发数为 32 的情况下相比仅使用 FP8 显著提升了推理吞吐量。同时在 HumanEval 上提升 71%、GSM8K 上提升 45%、Math-500 上最高提升达 94%推理性能与模型稳定性之间实现了稳健平衡。医疗AI领域的开发者、中小企业又有了更强大的医疗模型基座。免费体验https://modelscope.cn/studios/MedAIBase/AntAngelMed开源地址https://modelscope.cn/models/MedAIBase/AntAngelMedhttps://github.com/MedAIBase/AntAngelMed
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2610178.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!