OpenAI发布GPT-5.4mini与nano迄今为止能力最强的小型模型

作者:互联网

2026-03-23

AI快讯

AI领域迎来重大更新,两款高性能轻量级模型GPT-5.4 mini与nano正式亮相。这两款产品继承了GPT-5.4的核心优势,在保持高效运行的同时,为高负载场景提供了更优解决方案。

GPT‑5.4 mini 在代码编写、推理、多模态理解以及工具使用方面较 GPT‑5 mini 有显著提升,同时运行速度提高两倍以上。它在多项评估中也接近体量更大的 GPT‑5.4 模型的性能,包括 SWE-bench Pro 和 OSWorld-Verified 基准测试。

GPT‑5.4 mini 专为对延迟敏感的应用场景打造,在这类场景中,响应速度直接关系到产品体验:例如需要即时响应的代码助手、能快速完成辅助任务的子智能体、可捕捉并解析截图的计算机使用系统,以及能够实时推理图像的多模态应用。在这些设定下,最好的模型通常不是体量最大的那个,而是能够快速响应、可靠调用工具,并能在复杂专业任务中保持出色表现的模型。

GPT‑5.4 nano 是 GPT‑5.4 最轻量、最快速的版本,专为对速度和成本要求极高的任务而设计。它也是 GPT‑5 nano 的重大升级版本,推荐将其用于分类、数据提取、排序,以及处理简单辅助任务的子智能体。

GPT‑5.4 mini 现已在 API、Codex 及 ChatGPT 中上线。

在 API 中,GPT‑5.4 mini 支持文本与图像输入、工具使用、函数调用、网页搜索、文件搜索、计算机使用以及技能 (skill)。它具备 400K 上下文窗口,定价为每 100 万输入 Token 0.75 美元,每 100 万输出 Token 4.50 美元。

在 Codex 中,GPT‑5.4 mini 已在 Codex 应用、CLI(命令行界面)、IDE 扩展及网页端上线。它仅消耗 GPT‑5.4 配额的 30%,让开发者能在 Codex 中以约三分之一的成本快速处理简单的代码任务。此外,智能体也可以配置为默认使用 GPT‑5.4 mini,从而让那些处理低推理强度工作的子智能体在更经济的模型上运行。

在 ChatGPT 中,免费版与 Go 用户可以通过 “+” 菜单中的 “Thinking” 功能使用 GPT‑5.4 mini。对于所有其他用户,GPT‑5.4 mini 将作为 GPT‑5.4 Thinking 的速率限制备选方案。

此次发布的两款轻量级模型,通过优化性能与成本平衡,为不同应用场景提供了更灵活的选择。GPT-5.4 nano凭借其极致性价比,尤其适合处理基础性AI任务。

相关标签:

OpenAI 发布 GPT‑5.4 mini 与 nano,迄今为止能力最强的小型模型