小米 MiMo:最近很活跃的AI模型,还白送 100 万亿 tokens
小米 MiMo最近很活跃的AI模型还白送 100 万亿 tokens小米什么时候成 AI 模型厂商了很多人对小米做 AI 的印象还停留在小爱同学。但过去两个月小米的 MiMo 模型系列以一种近乎刷屏的节奏密集更新密度堪比当年的 DeepSeek。梳理一下4月份的时间线Orbit 激励计划上线总池子 100 万亿 tokens面向开发者发放小米 MiMo-V2.5 系列开源Xiaomi MiMo-V2.5-TTS-Series ASR 正式发布你的声音随心所“驭”小米 MiMo-V2.5 系列Xiaomi MiMo 现已接入全球顶级 Agent 框架 Hermes Agent并限免两周Xiaomi MiMo-V2-Pro 发布面向 Agent 时代的旗舰基座Xiaomi MiMo-V2-Omni 发布看得清听得懂能动手的全模态 Agent 基座Xiaomi MiMo-V2-TTS 发布能说会唱的语音合成大模型一个做手机的公司怎么突然在开源模型圈这么活跃MiMo 到底是什么水平先说 MiMo-7B这是小米的成名作。7B 参数在大模型圈属于小个子但 MiMo-7B 用强化学习硬生生把它训练成了推理怪兽。核心数据BenchmarkGPT-4oClaude-3.5-Sonneto1-miniMiMo-7B-RLMATH-50074.678.390.095.8AIME 20249.316.063.668.2AIME 202511.67.450.755.4LiveCodeBench v532.938.953.857.8一个 7B 的模型在数学推理上把 GPT-4o 和 Claude-3.5-Sonnet 按在地上摩擦。后来的增强版 MiMo-7B-RL-0530 更进一步AIME 2024 拿到 80.1 分直接超越 DeepSeek R1 的 79.8。技术上MiMo-7B 有几个值得注意的点预训练用了约 25 万亿 tokens三阶段数据混合策略专门增强了推理模式的密度多 Token 预测MTP作为额外训练目标使用一个 MTP 层做推测解码时接受率约 90%RL 阶段只用基于规则的准确性奖励不用神经网络奖励模型避免了 reward hacking代码奖励引入了测试难度驱动机制给不同难度的测试用例分配细粒度分数这些设计组合在一起让一个小模型在推理任务上打出了远超自身参数量的表现。从 7B 到 1TV2 系列的跳跃MiMo-7B 证明了小米在模型训练上有真功夫但 7B 参数终究有天花板。V2 系列是一次量级跳跃MiMo-V2-Pro约 1T 参数100 万上下文窗口专门优化代码生成和理解。2026 年 3 月先以Hunter Alpha的化名在 OpenRouter 上线一周后才正式解密——这个操作本身就很有趣说明小米想先让社区用盲测来评价模型能力而不是靠品牌滤镜。MiMo-V2.5311B和MiMo-V2.5-Pro1T2026 年 4 月公测。V2.5-Pro 在软件工程任务中能和 Claude Opus 4.6、GPT-5.4 正面竞争完成 SysY 编译器任务只需 4.3 小时。Token 效率相比上一代提升 42% 到 50%——这意味着同样的效果API 调用成本直接砍半。MiMo-V2.5-ASR8B专用语音识别模型开源后在 HuggingFace 上可以直接部署。从 7B 推理模型到 1T 全模态 Agent小米用了不到一年。这个速度在开源模型圈里确实少见。Orbit 计划100 万亿 token 的羊毛重点来了。小米在 4 月 28 日上线了Orbit 激励计划总池子 100 万亿 tokens面向开发者发放。地址100t.xiaomimimo.com能领多少根据我的观察填写申请表单后运气好的能拿到Max 月度套餐包含16 亿 tokens普通的也能拿到Pro 月度套餐包含7 亿 tokens官方 Max 年度订阅价格将近 7000 元送 1 个月相当于白嫖约 600 元16 亿 tokens 是什么概念日常开发中写代码、做 Review、跑测试够用很久了。我自己试了下只拿到了一个Pro怎么申请流程很简单先用你的邮箱登录platform.xiaomimimo.comMiMo API 开放平台打开100t.xiaomimimo.com填写申请表单表单内容主要是选你常用的 AI 编程工具和底层模型再描述一下你用 AI 做过什么项目提交后等审核审核很快官方说法是 3 个工作日注意最好先登录开放平台再申请否则权益可能无法到账。登录后 24 小时内权益会自动到账在订阅管理中可以看到。支持哪些模型和工具赠送的套餐支持 MiMo 全系列模型包括 V2.5-Pro、V2.5 等。同时兼容 Claude Code、OpenCode 等主流编程工具。也就是说你可以把这个额度接到 Claude Code 里用 MiMo 的模型跑日常开发任务。值不值得白送的东西没有不薅的道理。我自己还没用期待使用之后写一个反馈不过我看了下网上的评论MiMo 模型的实际编程能力在复杂任务上和 Claude Opus、GPT-5 还有差距但在中等难度的日常开发任务上已经够用。Token 效率提升 42%-50%是官方数据实际体验取决于具体任务类型Orbit 计划的审核标准不透明——有人随便填就拿到了 Max 套餐有人认真写反而只拿到 Pro有一定随机性tokens 的有效期是 1 个月过期作废所以领到之后要尽快用对于开发者来说最实际的用法是把 MiMo 接到 Claude Code 或 OpenCode 里作为日常轻量任务的备选模型用它跑一些不那么关键的代码生成、文档编写、测试用例生成把省下来的 Claude/GPT 额度留给真正需要强模型的复杂任务最后说实话之前我从来不用国产模型的但是也一直期待国产模型能崛起从DS到minimax/kimi/GLM希望mimo在国产一线能有一席之地。看他们的模型迭代速度感觉是玩真的了。Orbit 计划的 100 万亿 token 池也是小米在用真金白银换开发者生态。策略和当年 DeepSeek 开源类似——先让开发者用起来用的人多了生态自然就起来了。至于能不能替代 Claude 或 GPT再说吧白送 16 亿 tokens先薅了再说。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2581231.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!