OpenAI、李飞飞同台,Lisa Su:AMD AI 芯片走到关键一步
2026 年 1 月 5 日,CES 开场。AMD 董事长兼首席执行官 Lisa Su 站上主舞台,没有任何铺垫,直指本质:
AI 是过去 50 年最重要的技术。
但她这次不是来讲远景的,而是带着完整方案来的。
不只是芯片,而是一整套工业级平台:
面向数据中心的 MI455X,3200 亿晶体管;
面向企业部署的 MI440X,主打推理与节能;
还有她这次主推的 Helios,为 Yotta 级 AI 时代打造的机架级平台。
这不是在升级显卡,而是在重新划出一个产业分界线。
为了证明这不仅是 AMD 自说自话,Lisa Su 请来了一批顶级 AI 用户同台背书:OpenAI、World Labs、Luma、Liquid、Absci 等行业领军者,现场展示他们如何将核心业务部署在 AMD 平台上。
更关键的是,Lisa Su 还预告了下一代 MI500 系列将在 2027 年登场,四年内性能增长 1000 倍。
第一节:Yotta 级算力缺口,逼出新的产业逻辑
过去一年,AI 模型变得更聪明了,但对算力的需求也更大了。
2022 年全球 AI 运算需求是 1 Zettaflop,2025 年预计要超过 100 Zettaflops,Lisa Su 给出的预测更为大胆:未来五年,全球算力要再提 100 倍,迈向 10 Yottaflops。
Yottaflop 是什么概念?
一个 Yottaflop 是 1 后面带 24 个零,是现在全球算力的上万倍。 这就像过去几十年所有计算升级的总和,需要在五年内完成。
这预示着未来 AI 应用将全面爆发:
- 生成视频:一个 10 秒视频动辄十万个 token,远超文字模型;
- 多模态智能体:不仅看图、写文、识音,还要自动调度工作流;
- 企业部署:每个公司不再只要模型,还得有配套的开发工具和本地 AI 支持。
这一趋势在 OpenAI 总裁 Greg Brockman 那里得到了数据印证:推理量两年激增 100 倍的现实,让“人手一个后台 GPU”的愿景受困于基建短板。
模当大模型从“尝鲜”变成“常驻”,算力系统面临的考验也随之升级:它不再需要为了跑分而生的短跑冠军,而是需要能长期在线、安全维稳的马拉松选手。
这迫使芯片厂商重新思考产品形态:不是做出最强一颗芯片,而是构建起能支撑 AI 工业化的全套基础设施:
每个托盘能承载多颗 GPU、CPU、NPU 协同工作;
每个机架能无缝扩展为成千上万个单元的 AI 工厂;
网络、内存、冷却、供电都得为高密度、低延迟重构。
这就是 AMD 推出 Helios 架构的核心思路:不靠一颗 GPU 单打独斗,而是打造一套可规模部署、长期在线、灵活适配的 AI 基础设施。
每个 Helios 机架拥有:
- 超过 18,000 个 CDNA 5 GPU 计算核心;
- 4,600 多个 CPU 核心;
- 31TB HBM4 高速显存;
- 每秒 2.9 Exaflops 的运算能力。
它不再是芯片堆叠,而是 AI 工业化的生产线。
这一节,AMD 没在讲性能天花板,而是定了一个新基础:如何让 AI 成为真正能用、高性价比、工业级稳定的算力系统。
第二节:Helios 不是最强机器,是能量产的标准件
这次 CES 上,Lisa Su 发布的不是一块芯片,而是一整个计算工厂。
舞台上,AMD 首次展示了 Helios,一个重达 3 吨的机架级计算平台,专为 AI 工业化设计。
Helios 的三个关键词:
1、集成
每个计算托盘,包含:
4 块 MI455X GPU,搭载 3200 亿晶体管、432GB HBM4 高带宽内存;
1 颗 Venice CPU,拥有多达 256 个 Zen6 核心;
1 颗 Pensando 网络芯片,负责数据流通。
托盘之间通过 Ultra Accelerator Link 相连,72 块 GPU 在一个机架内协同工作,形成统一的计算单元。
而托盘 + 冷却 + 电力 + 网络 + 算力调度,全都打包到一个整机里。 不是一堆零件,而是一个能直接投产的 AI 工段。
2、模块化
Helios 没选封闭架构,而是用的 OCP(开放计算项目)标准。
每个组件都能替换、升级、扩展。更像一个搭积木的系统,而非一次性封装的黑盒。这对大型 AI 公司很关键,模型还在快速进化,不能每次都从头再建一套数据中心。
Lisa Su 给出了 Helios 的定义:不是做一台最强机器,而是做一个能量产的算力模板。
3、效率
Helios 全液冷,能在高密度负载下保持稳定。
每个机架配有 31TB 显存,机架内部带宽达 260TB/s,对外连接带宽 43TB/s。
AMD 还专门强化了 ROCm 软件栈,能兼容主流开源 AI 框架,如 PyTorch、vLLM、SGLang。开发者无需改代码就能上手。
相比之下,NVIDIA 的 DGX 系列更强调整体性能,而 Helios 更注重模块化和开放性,是为整个行业打造的通用标准件。
Lisa Su 不想让客户适配 AMD,而是要让 AMD 适配客户。
这不是单机性能的发布,而是一次架构观的转变。
OpenAI 用 MI455 加速推理;
Meta 和 AMD 联合设计 Helios 架构;
主要云服务商正在将 Helios 纳入新一代 AI 基础设施。
Helios 不再是一个产品,是下一轮 AI 工业化的最小构件。
AMD 在发布一个能复制的生产线,一个可以为 AGI 世界装配的底层模块。
第三节:OpenAI、Luma、李飞飞,为什么选 AMD
这次 CES 舞台上,AMD 不是在跟随竞争,而是在定义新标准。
过去两年,大模型发布节奏越来越快,但 AI 真正运行的地方,已经不是发布会,而是后台:
Greg Brockman:我们正从单纯的被动问答,进化为自主执行复杂工作流。
未来每个人都将拥有后台运行的 10 个智能体。那不再是临时调用 AI,而是 AI 全天在线,背后对推理芯片提出了全新压力。
1、智能体不是概念,已经在现场运行了
AI视频公司 Luma CEO 的回答更有说服力:
一段视频模型推理 10 秒,Token 数量能达到 10 万个。
他们已经把模型部署到生产线上:
一年时间内,Luma 有 60% 的推理负载迁移到了 AMD 平台;
大模型只是起点,接下来的任务都是智能体结构;
这些智能体不仅是回答问题,而是能修改世界、编辑视频、自动创作一整部电影。
而当这些任务真正落地时,GPU 的经济性变得比绝对性能更重要。
2、 Liquid AI:AI 的下一个入口,是主动助手
MIT 孵化公司 Liquid AI 联合创始人 Ramin Hasani 在正式推出两款核心产品:
一个是 LFM 2.5:12 亿参数的小模型,在本地设备上完成指令跟随,在指令遵循能力上超过 DeepSeek 和 Gemini 2.5 Pro;
另一个是 LFM 3:能听、能看、能说、能实时翻译的多模态助手,延迟低于 100 毫秒。
这不是在云上训练模型,而是直接在笔记本本地运转,持续监听、协助用户。
Ramin 说:
“现在,不是人类在召唤 AI,而是 AI 在默默为你做事。”
这对芯片的要求,已经从模型规模大小,转向部署速度、离线能力和功耗控制。
3、 李飞飞带来第三种维度:空间智能 + 世界建模
World Labs CEO 李飞飞展示了另一种“AI 交互的新范式”的可能性。
只需一张普通照片,模型就能还原完整 3D 空间,不只是识别房间,而是“创建世界”:
将图片输入模型后,可以生成多个 3D 结构版本;
实时拖动、编辑、重建世界细节
甚至能把拉斯维加斯威尼斯人酒店的一张图,生成可游览的完整空间世界。
李飞飞强调:
“人类的理解从不是文字开始,而是空间与动作。真正通用的 AI,必须能理解物理世界。”
而空间智能的落地,需要高带宽、低延迟、大内存、高并发,这些需求不是传统图形处理可以满足的。
三个案例,指向同一个趋势: Luma 看重成本,Liquid 看重实时性,World Labs 看重大内存。
这意味着算力竞争的逻辑变了:从比拼参数,变成了比拼体系。
AMD 正在将硬件重塑为 AI 的“操作系统”,成为支撑万物智能的算力底座。
第四节:从云到端,AI 落地的最后一公里
如果说 Helios 是主电站,那么接下来的问题就是:电怎么输送下去,怎么在每个终端点亮。
AI 要无处不在,需要把算力带到云端之下的每一层。个性化、现场化、连续性,是这个过程的三个关键词。
从医院、工厂、学校,到你桌上的那台电脑,AI 要进入真正复杂的人类环境。
1、从 AI PC 到 Halo:把 AI 带到桌面
过去两年,大语言模型几乎都在云上运转,但这带来两大问题:
成本高,每次调用都要显卡费用;
延迟长,每次问答都要联网。
AMD 推出 Ryzen AI Max 和 Halo,就是要把 AI 搬到本地。
Ryzen AI Max 配备 128GB 统一内存,能在本地运行 200B 参数模型,让创作者和开发者可以在工作站上直接部署 AI 工具。
性能上,它在高端笔记本场景超过 MacBook Pro,在小型工作站场景以更低价格达到 NVIDIA DGX Spark 的性能,运行 GPT 开源模型时每美元每秒生成的 Token 数是后者的 1.7 倍。
Halo 则是世界最小的 AI 开发机,手掌大小却能运行 200B 参数模型,预装 ROCm 软件栈,专为开发者和研究团队设计。
关键技术是 AMD 把 CPU、GPU 和 NPU 做成统一内存架构,三者直接共享数据。这意味着你在笔记本上调用 Copilot、摘要会议、编辑视频,都可以完全离线完成。
2、医疗:AI 已经在救人
OpenAI 总裁 Greg Brockman 讲了个假期真实案例:有人腿疼,医生初诊说没事,回家用 ChatGPT 输入症状,建议立即回医院。结果是严重血栓,如果没有 AI 提醒可能致命。
医疗行业已成为 AI 落地最快的领域之一。
现场三家公司展示了实际应用:
Absci 用 AI 从零设计新药,使用 AMD MI355 单日筛选超过 100 万种候选药物,攻克脱发和女性健康疾病。
Illumina 每天产生超过 YouTube 的测序数据量,用于癌症早筛和精准医疗,系统使用 AMD EPYC CPU 和 FPGA 实时处理。
AstraZeneca 大规模使用生成式 AI 设计分子、筛选药物,候选药物交付速度提升 50%,临床成功率也在提高。
这些公司把 AI 当作主力工具,而不是在试水。
3、工业机器人:边缘 AI 的触觉协作
Generative Bionics 创始人 Daniele Pucci 带来了人形机器人 Gene One。它能感受人手的力度、方向和协作意图,这背后是触觉反馈和实时决策能力。
AMD 提供了完整算力路径:机器人本体用 Ryzen AI Embedded 和 Versal Edge 芯片,模型训练用 MI 系列显卡,多机协作靠 Pensando 网络芯片。
边缘设备的 AI 不能等待联网,必须本地决策、立刻响应。这就是 AMD 从云到端的连续计算结构。
4、新兴场景:不能等、不能断、不能慢
除了云端和边缘,AI 正向更多新兴场景渗透。空间智能、机器人导航、虚拟世界构建,都需要高带宽、低延迟、大内存和实时响应。
这些场景的共同特点是:不能等,不能断,不能慢。
5、AI 落地的未来:从标准芯片变成场景原生平台
这一整轮发布,其实是 Lisa Su 带领 AMD 转型的路线图。
在云端,Helios 机架、MI455 显卡和 Venice CPU 构成了大规模训练与推理的基础设施,服务 OpenAI、Meta 等头部 AI 公司。
在企业级,MI440X 和 MI430X 提供更高精度的计算能力,专门面向主权 AI 和超级计算场景,满足科研机构和政府部门的需求。
在开发层,Ryzen AI Max 和 Halo 让开发者能在本地进行模型开发和智能体原型验证,不必每次都依赖云端资源。
在消费端,Ryzen AI 400 系列处理器让普通 PC 也能运行 Copilot、主动助手和内容创作工具,把 AI 真正带进日常生活。
从云到端,AMD 不是在卖芯片,而是在铺设 AI 时代的基础设施。
结语:把芯片做成地基
MI455 是芯片,Helios 是平台,但真正让 AMD 抢占位置的,是 Lisa Su 给出的产业逻辑:
不是建一台最强机器,而是搭一套能量产的工业系统;
不是问能跑多大模型,而是问能不能支撑百万级智能体同时工作。
OpenAI 训练模型,Luma 生成视频,Absci 设计新药,Generative Bionics 驱动机器人。
而 AMD,正在成为这一切背后的算力基础设施。
2026 年这场 CES,Lisa Su 押注的是最底层的命题:让 AI 真正落地,既要性能够强,也要成本可控,还要长期稳定。
📮 原文链接:
https://www.youtube.com/watch?v=H4ylJtPRACo&t=7079s
https://www.reuters.com/business/amd-unveils-new-chips-ces-event-las-vegas-2026-01-06/
https://www.amd.com/en/newsroom/press-releases/2026-1-5-amd-and-its-partners-share-their-vision-for-ai-ev.html
https://www.marketwatch.com/story/as-amd-chases-nvidia-heres-how-its-positioning-itself-for-the-future-of-ai-09048ea4
本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,36氪经授权发布。















