国内大模型全面被“万亿参数”卷进去了?
9 月 24 日的云栖大会,阿里宣布通义千问 Qwen3-Max 达到“超万亿参数”规模,训练数据量高达 36T tokens。周靖人称它是“通义家族最强”。这是国产大模型第一次,正式站在“万亿级”的门槛上。
这次发布会之所以格外受关注,是因为“万亿”这个词本身的象征意义。在 AI 发展史上,每一次参数数量的跨越,都会被视作行业新纪元的标志:从 GPT-2 的 15 亿参数,到 GPT-3 的 1750 亿参数,再到 GPT-4 被推测接近万亿。
如今,国内厂商第一次在舞台上宣布“我们也有万亿”,这不仅是一次产品升级,更是一次“地位宣言”。
成绩同样引人注目:在数学推理测试 AIME25 中,Qwen3-Max 取得 86.4% 的准确率,位列全球前三。在编程基准 SWE-Bench Verified 上得分 69.6%,仅次于 GPT-4.1(71.2%),位居全球第二。在 Chatbot Arena 综合榜单中进入前五,最高位列第四。这是国产大模型首次在多项国际权威基准上全面进入世界前列。
更值得注意的是,阿里并非只推出一个“巨无霸”,而是将其切分为多个方向:Thinking 版专注复杂推理,适合科研、数学、金融分析等场景。Instruct 版擅长指令遵循,更像 ChatGPT 的日常应用版。
Omni 版则支持实时语音交互与多模态,让用户能够和 AI 进行自然对话,甚至在视频场景里实现即时反馈。对普通用户而言,这已经不仅是一个聊天机器人,而是一个能写代码、能看文档、还能听得懂、看得见的全能助手。
但“万亿”背后,也潜藏着巨大的不确定性:这是国产大模型真正的腾飞起点,还是一场技术军备竞赛的陷阱?
为什么国内厂商没有退路
在国际市场,OpenAI 的 GPT-4.1、Anthropic 的 Claude 已经开始追求“更轻、更灵活”。GPT-4.1 的重点是多智能体协作与 API 工具调用,Claude 则强调长文本和安全性。换句话说,他们意识到“越大越好”的阶段正在过去。
而国内,却几乎所有巨头都被推向了万亿参数这条单行道。
资本市场的推力最直接。2024 年,国内超过 50 家大模型公司融资总额突破 300 亿元。投资人最敏感的指标不是你能否落地,而是你是否能在技术指标上追平国际巨头。参数数值,成了最能“安抚市场”的语言。于是,“万亿”成了过关口令,谁没到万亿,谁就可能被贴上“二线”的标签。
企业客户也加了一把火。在采购逻辑里,模型越大,意味着越靠谱。很多需求被天然等同于“只有万亿才行”:跨语种客服、动辄 20 万字的合同审查、跨行业知识整合等等。哪怕实际差距只是 92% 与 93% 的准确率,在客户眼里也足以放大成决定性的差别。于是厂商们不得不迎合这种认知,把“万亿”当成展示实力的筹码。
更深层的原因也在于产业环境。高端 GPU 的获取仍受限制,国内厂商在算法优化上难以直接与国际巨头硬碰硬。于是,唯有通过“以量补质”来走捷径:扩大参数规模,用工程手段换性能表现。就像 LCD 时代,中国厂商把背光做到极致,才在画质上追上 OLED,如今在大模型赛道,厂商们也只能靠堆算力来追赶。
而这并不是选择,而是被裹挟后的必然。不卷上去,就意味着退出牌桌。
冷冰冰的算力账单
据行业测算(斯坦福 AI Index 2024 数据,结合多家券商研报),训练一次万亿参数模型,能耗可达 2000–5000 万度电,仅电费成本就超过上千万元。如果算上 GPU 采购、数据清洗、分布式工程调度等全流程,完整成本可能超过数十亿元。
推理阶段同样昂贵。恒信证券的一份测算指出,万亿模型的单次调用开销,是百亿模型的 2–4 倍。这意味着企业在部署时要么承担更高的算力租赁费用,要么就要接受调用速度和稳定性的下降。
然而,性能提升却往往只是个位数。比如在客服场景下,一个模型准确率 92%,另一个 93%,后者的训练成本却可能翻倍。对于企业来说,多花的不是 1%,而是实实在在的数亿预算。
这就是所谓的“边际效益递减”。随着参数规模越来越大,性能提升越来越有限,而能耗、账单却是成倍增加。对于巨头来说,这可能是可以承受的“战略性亏损”,但对于普通企业来说,这种成本根本不具备推广价值。
阿里的真正野心,不止是参数
既然如此,阿里为什么还要第一个喊出“万亿”呢?
答案很清楚:阿里瞅准的并不是单纯的参数竞赛,而是一盘云生态的棋。
阿里的真正目标,是让 Qwen3-Max 成为下一代阿里云的“操作系统”。在百炼平台,它已经开放 API,按 Token 计费。Qwen3-Coder 在 OpenRouter 的调用量一度暴涨 1474%,跃居全球第二。同期推出的 Qwen3-VL、通义万相 2.5、通义百聆,覆盖了视频生成、语音交互、视觉编程等核心场景。
这一套动作,意味着阿里要的不只是展示“万亿”,而是要通过 API、工具链,把企业和开发者的工作流牢牢绑定在阿里云的生态里。未来,当企业习惯用 Qwen 提供的代码生成、长文档处理、语音交互服务时,迁移成本会越来越高,最终只能留在阿里云。
换句话说,“万亿”是招牌,真正的生意在后面。阿里卖的不是模型,而是云上的智能操作系统。
万亿之后,中国要回答更大的问题
Qwen3-Max 抬高了门槛,国内厂商被迫跟进。但世界的方向,未必是越大越好。OpenAI 在推小模型和多智能体,Anthropic 在强化安全与效率,而 Meta 则通过开源 Llama 系列构建全球开发者生态。相比之下,国内的“闭源+堆参数”路线,是否会在长期竞争中失去灵活性?
这也是为什么“智能密度”概念变得重要。所谓“智能密度”,就是单位算力、单位成本下所能提供的有效智能输出。未来的竞争,不在于谁的参数最多,而在于谁能用同样的资源,交付更聪明、更实用的结果。
换个角度看,万亿参数确实是护城河,但可能也是最后的倔强。它能否真正转化为产业价值,要看三点:企业是否愿意为高昂算力买单,开发者是否愿意留在生态,用户是否能切实感受到“省钱省力”。
如果答案是肯定的,万亿参数将成为中国大模型产业的里程碑。如果不是,它可能会重演“曲面电视”的故事:技术领先,却与用户无关。
最后
当全球 AI 进入“智能密度”时代,中国能否从“参数军备竞赛”转向“场景智能革命”,将决定我们是引领者,还是陪跑者。
万亿参数或许能刷榜,但只有让用户省下一分算力开销,才是真正伟大的AI。
本文来自微信公众号“科技不许冷”,作者:科技不许冷,36氪经授权发布。