沐曦股份曦云C系列GPU Day 0 适配智谱GLM-5.1 全栈技术领跑国产AI生态
4月8日智谱新一代旗舰模型GLM-5.1实现开源。目前沐曦股份曦云 C 系列 GPU已完成该系列模型Day 0 全量适配再度以全栈自主技术实力领跑国产 GPU 生态适配赛道。相比于GLM-5GLM-5.1的整体能力得到了全面提升是目前全球最强的开源模型。GLM-5.1的代码能力得到进一步提升在最接近真实软件开发的SWE-bench Pro基准测试中超过GPT-5.4、Claude Opus 4.6刷新全球最佳成绩。值得一提的是在模型整体性能大幅提升外GLM-5.1还在长程任务Long Horizon Task处理能力上实现了显著突破。有别于当前以分钟级交互为主的模型GLM-5.1能够在单次任务中持续、自主地工作长达8小时凭借自主规划、执行与迭代进化最终交付完整的工程级成果。此前由智谱发布的基座模型GLM-5、文档解析模型GLM-OCR、多模态系列模型GLM-4.6V沐曦股份均实现Day 0适配。依托曦云 C 系列硬件算力与 MXMACA 软件栈深度优化GLM-5.1模型在沐曦平台实现“开箱即用、性能无损”企业与开发者无需改码、无需等待模型发布当日即可完成生产级部署。发布即可用产业落地无忧沐曦曦云C系列GPU适配后的GLM-5.1在代码生成、复杂推理、长文本理解等核心纯文本场景中满血释放原生模型能力。从单机部署到千卡级集群商用从企业级智能办公到代码开发、知识库搭建沐曦曦云C系列为GLM-5.1提供全场景、高稳定、低成本的国产算力方案有效解决大模型落地过程中“适配慢、迁移难、性能损耗大”等行业痛点助力企业快速将GLM-5.1的技术优势转化为产业价值。自 2025 年 12 月以来沐曦已完成十余款主流模型 Day 0 适配覆盖智谱、通义千问、阶跃星辰、百度飞桨等头部厂商最新旗舰实现语言、多模态、OCR、翻译全品类覆盖适配数量、速度、广度均居行业领先地位。本次GLM-5.1 无缝适配将进一步推动“模型-芯片-框架-应用”自主闭环加速成熟。全栈自研软硬一体持续赋能千行百业此次沐曦高效完成GLM-5.1的Day 0适配并非简单的移植兼容而是基于“自研GPU硬件MXMACA全栈软件”的深度协同优化。曦云C系列GPU专为AI大模型训推场景设计硬件规格原生匹配GLM-5.1的高算力、高带宽需求。沐曦自主研发的MXMACA软件栈已实现对国际主流生态的高度兼容可支持超过6000个主流生态应用及超过1,000个模型的原生适配包括多个大模型的Day 0适配。自2025年2月开源社区开放以来截至2026年3月MXMACA注册用户超过30万人API调用次数超过5591万次文件下载量超过16万次并已覆盖超过半数的C9高校。沐曦将持续深耕全栈 GPU 技术深化与主流大模型、开源社区及产业伙伴协同以更快适配速度、更强性能表现、更完善生态支持为金融、医疗健康、能源、教科研、交通、大文娱等领域提供安全、高效、自主可控的国产算力底座与生态伙伴共筑中国 AI 产业创新未来。关于智谱GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同GLM-5.1能够在一次任务中独立、持续地工作超过8小时期间自主规划、执行、自我进化最终交付完整的工程级成果。代码能力是模型智能水平进一步提升的关键。下图是业内最具代表性的三个代码评测基准的平均结果包括衡量模型专业级软件开发工作的SWE-Bench Pro、像工程师一样操作命令行解决问题的Terminal-Bench 2.0、从零构建完整代码仓库的NL2Repo。三项综合平均分GLM-5.1取得全球模型第三、国产模型第一、开源模型第一。在最接近真实软件开发的SWE-bench Pro基准测试中GLM-5.1刷新全球最佳成绩超过GPT-5.4、Claude Opus 4.6。SWE-Bench Pro要求模型在真实GitHub仓库中定位并修复高难度工程Bug是衡量模型能否胜任专业软件开发的最硬指标。过去两年行业用Benchmark衡量模型有多智能。GLM团队认为下一阶段的衡量标准应该是“能工作多久”即模型在长程任务Long-Horizon Task中的表现能独立完成多长时间的人类任务。这对模型提出了更深层次的挑战。在长程任务中保持稳定输出模型面对的不只是更大的代码量而是一连串复杂的工程决策点主动跑benchmark、定位瓶颈、修改方案、再跑测试。模型需要像一个真正的工程师一样形成“实验→分析→优化”的完整闭环而不是写完一版代码就停下来等人打分。在METR榜单的同等评估标准下GLM-5.1是唯一达到8小时级持续工作的开源模型也是全球范围内除Claude Opus 4.6外少数具备这一能力的模型。GLM团队的终极目标是全自治智能体Autonomous Agent模型7×24小时不间断地分解目标、执行交付、自我评价与纠正、自我进化从此无需人类介入。使用以下命令获取沐曦GLM-5.1推理镜像docker pull pub-registry1.metax-tech.com/ai-opentest/dev/vllm-metax:0.14.0-maca.ai3.5.3.102-torch2.8-py310-ubuntu22.04-amd64_glm_w4a8_fullGLM-5.1模型地址Hugging Facehttps://huggingface.co/zai-org/GLM-5.1ModelScopehttps://modelscope.cn/models/ZhipuAI/GLM-5.1
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2500047.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!