今日看点
OpenAI 于北京时间 3 月 18 日深夜正式发布 GPT-5.4 mini 和 GPT-5.4 nano,两款模型即日起通过 API 向开发者开放。这是继 GPT-5.4 旗舰版发布(1M token 上下文、OSWorld-V 75% 得分)之后,OpenAI 首次为同一代模型构建完整的「尺寸矩阵」,用以覆盖不同成本和延迟需求的应用场景。
GPT-5.4 mini vs nano:定位与参数差异
两款模型在能力与成本之间取了不同的权衡点:
| 对比项 | GPT-5.4 mini | GPT-5.4 nano |
|---|---|---|
| 定位 | 均衡型轻量模型 | 极速响应专用 |
| 上下文窗口 | 128K token | 32K token |
| HumanEval+ 得分 | 84.2 | 71.6 |
| 平均首 token 延迟 | ~180ms | ~60ms |
| API 输入价格(/1M token) | $0.15 | $0.04 |
| API 输出价格(/1M token) | $0.60 | $0.16 |
| 对比 GPT-5.4 旗舰版成本 | 约 1/10 | 约 1/30 |
mini 的定位是「高性能与低成本的最优解」,适合需要较强推理但对旗舰版成本敏感的场景,如客服问答、内容审核、文档摘要。nano 则是极端优化延迟的选择,60ms 的首 token 延迟使其适合实时对话、语音转写后处理、高并发批量分类等场景。
技术细节:继承了什么,牺牲了什么
根据 OpenAI 发布的技术说明,mini 和 nano 均通过对 GPT-5.4 旗舰版进行**知识蒸馏(Knowledge Distillation)**训练,而非从头训练小模型。这意味着:
- 继承了旗舰版的推理结构:在代码生成、逻辑推理类任务上,mini 的表现显著优于同价位的竞品
- 牺牲了部分长文档能力:nano 的 32K 上下文使其不适合长报告分析场景
- 保留了工具调用(Function Calling)支持:两款模型均支持 Tool Use,可无缝接入现有 Agent 框架
对于在 OpenClaw 中配置多模型路由的用户,GPT-5.4 nano 是设置「快速回复兜底层」的理想选择:当主力模型(Claude Sonnet 4.6 或 DeepSeek R2)因额度耗尽或超时而触发故障转移时,nano 可以极低成本完成简单任务的响应,避免用户感知到服务中断。
行业影响:成本战进入新阶段
GPT-5.4 mini 的 $0.15/1M 输入定价,已低于 DeepSeek R2 预估价格($0.3/1M)的一半,与 Gemini 2.5 Flash($0.075/1M)处于同一量级。这标志着主流大模型的「轻量版」价格竞争已进入每百万 token 美分级别。
对于重度 API 用户(每月调用 5亿+ token),从 GPT-5.4 旗舰切换到 mini 可将模型成本从约 $1500/月压缩至 $150/月,节省幅度极为可观。预计这将加速企业级客户对高性价比轻量模型的采用,并倒逼 Anthropic 和 Google 进一步降低 Haiku / Flash 系列的定价。
常见问题
GPT-5.4 mini 和 GPT-4o mini 有什么区别?
两者都是 OpenAI 的轻量模型,但能力代差明显。GPT-5.4 mini 在蒸馏自 GPT-5.4 旗舰版的基础上,HumanEval+ 得分(84.2)已超过 GPT-4o(88.7 → 84.2 接近持平),而定价远低于 GPT-4o。可以理解为:GPT-5.4 mini 用更低价格提供了接近 GPT-4o 旗舰级的能力。
在 OpenClaw 中如何接入 GPT-5.4 mini?
在 OpenClaw 的 config.yaml 中,将 OpenAI 模型的 model 字段改为 gpt-5.4-mini 即可。无需其他改动,现有的工具调用和流式输出配置完全兼容。详见多模型与故障转移教程。
nano 适合什么场景?
GPT-5.4 nano 最适合:(1)实时语音/对话应用,对延迟极度敏感;(2)高并发分类、打标、意图识别等批量处理任务;(3)作为 Agent 链路中的轻量路由层,快速判断请求类型后再分发给重量级模型。不适合需要深度推理、长文档分析或复杂代码生成的场景。
会影响 DeepSeek 和 Gemini 的定价策略吗?
大概率会。OpenAI 此前每次推出低价模型,都会触发竞争对手跟进降价。Gemini 2.5 Flash 和 DeepSeek V3 的定价团队将面临压力,近期可能有新一轮价格调整。对用户来说是利好。
本文发布于 2026-03-19。GPT-5.4 mini 和 nano 已通过 OpenAI API 全量开放,定价以官方文档为准。