OpenAI新模型Day0就被嫌弃,排名拉垮,不如一月底发布的国产模型

量子位·2026年03月18日 20:40
OpenAI也出龙虾专供模型了

OpenAI刚推出的GPT-5.4 mini,Day0就已经被嫌弃了。

根据公开的大语言模型评测基准Vals,今天新出的GPT-5.4 mini仅排行第13名,优于OpenAI半年前发布的GPT-5。

值得一提的是,排行第12的是一月底出的的Kimi 2.5,而Kimi 2.5比新出的5.4mini便宜一倍多,延迟还更低。

在同步的拓扑证明中,新出的mini和nano模型在全球范围内表现也只是中规中矩,分别排行第九第十,不如早前发布的Kimi、Qwen、DeepSeek等模型。

(OpenAI后来居下这一块)

还有人指出,这次GPT‑5.4 mini的baseline对比的是老GPT‑5 mini(运行速度快两倍),也就是大半年前的版本,而不是其他厂家的新模型。

不少网友甚至直言,换新GPT‑5.4 mini“还真没必要”。

虽然OpenAI的博客表示,在输出tokens 上,性能近似的mini版本比GPT‑5.4便宜三倍,nano版本则几乎便宜十二倍。

但如果你拿GPT‑5.4 mini与旧版GPT‑5 mini对比,会发现同为mini档的模型,价格却上涨了大约三倍。

可以说,在龙虾热中,全球所有模型厂家都在涨价,奥特曼这么精的小子自然也没放过。

所以,这是拿着专门优化过编程和agent的小模型就来了?

新版mini和nano模型

今天,OpenAI推出主打快速和经济的GPT-5.4 mininano模型,专门针对编程计算机操作多模态理解以及子代理(subagent)做了优化。

相比前代GPT‑5mini,新版mini和nano在性能上有不错的提升,同时运行速度提升超过两倍。

值得注意的是,在多个评测中,mini/nano模型与满血版GPT‑5.4的差距已经不大,性能上也基本与谷歌,Anthropic的轻量模型持平。

根据OpenAI官方博客,新模型主打编程和子代理。

其中,GPT‑5.4 mini在编程、推理、多模态理解和工具使用方面进行了优化,运行速度提升超过两倍,在SWE-Bench Pro和OSWorld-Verified等评测中表现接近满血版GPT‑5.4。

GPT‑5.4 nano则是GPT‑5.4系列中最小、最经济的版本,适合速度和成本敏感的任务,例如分类、数据提取、排序,以及处理较简单的辅助编程任务。

总的来说,这俩新模型适合延迟直接影响产品体验的工作负载,比如编码助手、子代理、屏幕截图解析、多模态应用。

说白了就是龙虾这类已经抽象出skill的agent,部署在mini/nano这类反应快速,能力够用的小模型就更实惠。

在具体的使用上,GPT‑5.4 mini可在API、Codex和ChatGPT中调用,而nano仅能通过API使用。

价格方面,mini版本每百万输入tokens0.75美元,每百万输出tokens4.5美元。Nano版本在API中费用更低,每百万输入0.2美元,每百万输出1.25美元。

不过,横向对比来看,有网友指出,Gemini Flash 3 lite则更智能,而且总体要便宜六倍多。

评测结果

在实际评测中,mini和nano主要是针对编程和Agent任务做了优化。

在编程任务中,它们能够低延迟完成代码修改、调试循环和库导航,快速迭代,高效处理需要速度和成本兼顾的工作流程。

Mini的通过率接近GPT‑5.4,同时速度更快。

在子代理场景中,开发者可以让大模型负责决策和规划,同时将较小的任务并行委派给mini子代理,比如搜索代码库、处理文档或辅助操作。

随着小型模型越来越快,这种模式的价值愈发凸显。

在计算机操作和多模态任务中,mini表现同样出色,能够快速解析复杂用户界面截图,高效完成操作任务。

在OSWorld-Verified测试中,它的表现几乎接近满血版GPT‑5.4,同时明显优于GPT‑5 mini。

有些网友的实际测试也佐证了这些亮点。

reddit网友Rent_South系统地测试新版mini在分类、总结、翻译等任务上的表现,并给出了高度评价:

我在它们身上跑了些基准测试,结果发现——在一些真实场景任务中,它们更便宜、更快,也更好用。自从大约一年前,我在构建一个RAG流水线时,gpt‑4.1-mini在某些代理任务步骤上打败了GPT‑4原版之后,我对mini/nano版本的热情就比对原版还高。

在分类任务中,nano准确率达70%,成本比GPT‑5.4降低十二倍。

当调用超过超过一万次时,GPT-5.4大约花费20.30美元,GPT-5.4-nano则只有1.64美元,节省幅度约91.9%。

在翻译任务上,nano得分略低,为55分,但与GPT‑5.4的63分差距不大,仍可作为替代选择。在超万次调用后,节省幅度仍达到了91.3%!

在写作任务中,mini版本反倒得分最高,成本比满血版低约六成。在超过1万次调用时,mini花费29.61美金,nano仅花费10.30美金。

此外,还有网友测试了模型描述图片的能力,nano在描述博物馆照片时,输出详细准确,使用token极少,总成本甚至不到一分钱。

比如,这位网友让nano模型描述自己随手拍的博物馆的照片:

nano模型输出了以下描述:

图片显示了一间博物馆展厅的内部,有一面长长的展墙。白色砖墙上整齐排列着许多装框肖像画。肖像画下方是多个玻璃展示柜,木框深色,顶部/前方为玻璃,展示柜内摆放着各种历史文物和设备。房间铺设了抛光木地板,吊顶上有悬挂灯具及电线,墙顶附近可见少量管道。前景中,沿房间长度排列的玻璃柜映出了其他展区的物品。

生成这么一段描述这次操作用了2751个输入tokens和112个输出tokens,费用为0.069美分(不到一分钱的十分之一)。

即便在创意任务上,如生成鹈鹕骑自行车的SVG图,nano和mini与满血版GPT‑5.4仍有一定差距,但它们完成基础创作任务完全可行。

起码随着推理强度的提升,我们能看到画面可以保持相对的正确性。

整体看下来,这次模型跟OpenAI自家的产品来比,的确是可圈可点。

但对于这是否就是市面上最好的、最经济的小模型,还有待讨论。

one more thing

有趣的是,在OpenAI总裁Greg Brockman发布新模型的评论区,最火热的讨论居然不是新模型的能力,也不是价格,甚至几乎和新模型本身没有关系。

评论区里刷屏的,几乎全是带keep4o标签的:“让4o回来!”

参考链接

[1]https://x.com/gdb/status/2034003374627049909

[2]https://simonwillison.net/2026/Mar/17/mini-and-nano/

[3]https://www.reddit.com/r/OpenAI/comments/1rwd9hd/breaking_openai_just_dropped_gpt54_mini_and_nano/

[4]https://x.com/scaling01/status/2033958931874099560

本文来自微信公众号“量子位”,作者:henry ,36氪经授权发布。

+1
1

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

Anthropic发布Dispatch,手机遥控Mac执行任务,成功率50%。

1小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业