OpenAI 发布 GPT-5.4 mini/nano:全面提升速度、性价比与开发体验
OpenAI 最新推出了两款轻量级模型——GPT-5.4 mini 和 GPT-5.4 nano。本次更新聚焦在「低延迟」「高并发适配」等核心关键词。对于开发者和终端用户而言最直接的变化就是模型响应更快、并发下推理成本更易控制相比旗舰模型适用于更广泛的生产环境。新模型定位与应用场景mini 和 nano 的定位边界非常明确GPT-5.4 mini主打高频需求适用于常规对话、代码生成、多模态理解和工具调用。支持API / Codex / ChatGPT同时 GitHub Copilot 也将逐步接入该版本。GPT-5.4 nano聚焦于极致极速和结构化任务适合分类、信息抽取、数据排序等高频批量任务。目前仅支持 API 调用。这两款模型的发布主要目的是健全 Agent 工作流方案让开发者在不同场景下有更细粒度的技术选型而非一味拼高分。性能表现对比分析本次升级最值得关注的点在于速度提升显著mini 与旗舰的差距持续缩小。根据 OpenAI 官方数据运行速度GPT-5.4 mini 对比同代 GPT-5 mini速度提升达2 倍以上。代码任务SWE‑Bench Pro, Publicmini53.4%nano52.4%显著高于 GPT‑5 mini 的45.7%。电脑操控OSWorld‑Verifiedmini72.1%非常接近 GPT‑5.4 旗舰版的75.0%远高于上一代 mini42.0%和 nano39.0%。整体来看GPT-5.4 mini 已经具备支撑复杂生产任务、代码与工具流转的能力不再仅限于普通聊天或简单问答。价格与计费策略对于高并发和大规模推理场景控制成本同样关键。mini 和 nano 的定价策略非常实用GPT-5.4 mini输入 $0.75/百万 tokens输出 $4.50/百万 tokens。GPT-5.4 nano输入 $0.20/百万 tokens输出 $1.25/百万 tokens。上下文窗口mini 和 nano 均支持400,000 tokens。如果你在 Codex 内执行子任务按照 OpenAI 说明mini 仅消耗 GPT-5.4 配额的30%能显著降低成本。GitHub Copilot 则采用0.33x premium request multiplier具体以 Copilot 支持文档为准后续也可能会有策略调整。可用渠道与入口梳理ChatGPTFree 和 Go 用户可通过对话框“” 菜单 → “Thinking”使用 GPT-5.4 mini。若主模型触达限额则会回退到 mini。GitHub Copilot已逐步推送至 Copilot Pro / Pro / Business / Enterprise 用户具体依赖你的客户端模型选择和组织策略有需求记得联系管理员开通。API / Codex开发者可直接调用 mini、nano并可充分利用400K上下文支持方便大规模上下文应用。总结观点旗舰主攻规划决策mini 负责灵活并行执行nano 擅长高频批处理。这样分层协作是目前实现 Agent 工作流“降本增效”的推荐架构。此次 OpenAI 的 mini/nano 发布为开发实践带来了更高可用性和性价比。需要注意所有信息和价格以 OpenAI 官方为准建议开发者实时关注控制台动态。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2425707.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!