吴恩达复盘百度岁月:我带过的自动驾驶、智能音箱都成了,Altman我也带过,但Gemini 3比ChatGPT强
上个月,吴恩达团队针对当前 AGI 概念被过度炒作、定义模糊且标准混乱的问题,提出了一套以 实际工作能力 为核心的新版图灵测试,旨在重新界定 AGI、校准行业与公众预期,避免因虚高期待引发 AI 泡沫与行业寒冬。
该测试让 AI 或熟练人类在配备网络、浏览器、Zoom 等常用软件的电脑环境中,接受评委设计的、持续数天的真实工作任务,包含培训、执行与反馈环节,且任务内容不提前透露,评委可灵活设计场景;若 AI 能像专业人类一样高质量完成具备经济价值的工作,即视为通过测试。这一测试相比传统图灵测试更贴合现代 AI 目标,不再以 “欺骗人类评委” 为标准,而是聚焦真实生产力;同时也优于 GPQA、SWE‑bench 等固定基准测试,避免模型被针对性优化,能真正检验智能的通用性,也与大众对 AGI 的普遍认知一致。推出这套测试,核心是为了纠正企业随意降低 AGI 标准带来的误导,减少对学生、企业决策者与资本的错误影响,通过挤掉概念泡沫,让行业回归理性投入,推动可持续、有真实价值的技术落地。
近日,吴恩达参加了一档播客,谈及了新版图灵测试以及当下人工智能发展的关键议题。访谈没有停留在技术炫技与概念炒作,而是直面当下行业最核心的争议:AGI 到底离我们多远、大模型规模化是否走到尽头、AI 将如何重塑工作与教育、中美 AI 格局如何演变,以及技术发展背后的价值与责任。
吴恩达在访谈中反复传递一个清醒判断:AI 发展史上曾出现过几次 AI 寒冬,正是因为人们过度炒作,期望过高无法兑现,最终投资和关注度崩塌,这对行业伤害很大。如今 AI 效果很好、价值巨大,几乎没有什么能阻挡它的发展势头。而真正让人担心的问题之一,就是过度炒作导致失望,进而引发泡沫破裂,这对世界和 AI 领域都不是好事。因此,给 AGI 降温,是为 AI 行业实现更可持续发展打下基础。
AGI 原本的标准 —— 能完成人类任何智力任务,是非常高的标准,我们远未达到。但如果团队提出更容易实现的定义,就可以宣称更快达成。我不介意如何定义 AGI,但问题在于,大众心中的 AGI 就是类人通用智能。当不同团队用不同定义套上 “AGI” 这个词时,这个词就失去了意义。
针对行业热议的大模型路线,吴恩达强调:规模化时代并未结束,但已不再是唯一路径。早期 “堆数据、堆参数” 的简单模式已不可持续,合成数据、强化学习、工程化方案正在成为新的关键;同时,更聪明的模型无法直接替代可靠的工作流,在企业级高可靠场景中,结构化、可控制的智能体工作流,仍是现阶段落地的核心。
在最受关注的就业冲击上,他给出冷静而务实的结论:AI 不会大面积取代岗位,但会用 AI 的人,会取代不会用 AI 的人。只有呼叫中心、翻译、配音等极少数工作会被近乎完全自动化,绝大多数职业只会被 AI 部分赋能。真正的危机不在失业,而在教育体系跟不上 AI 时代,大量非技术岗位 —— 营销、财务、人力 —— 都急需具备 AI 能力的人才。
关于中美 AI,吴恩达打破单一 “领先” 叙事:美国在闭源模型上占优,中国则在开源与开放权重模型上走在世界前列,两国各有所长、多维竞争,共同构成全球 AI 最重要的两极。
访谈最后,吴恩达回归技术初心:他做研究、办教育、投创业,核心只有两点 ——让人类更强大,帮助更多人实现自己的梦想。AI 不是带来快乐的工具,快乐来自帮助他人的过程;而 AI 的终极意义,是把 “智能” 这种曾经昂贵的资源,变成每个人都可使用的能力。
整场对话像一剂 “降温针”:在狂热的概念竞赛中,吴恩达把 AI 拉回现实 ——不赌 AGI 何时到来,只做当下最有价值的事。这不仅是一位行业领袖的判断,更是一条更稳健、更普惠、更值得期待的 AI 发展路径。
以下为完整对话内容,经由 InfoQ 翻译及整理:
吴恩达:AGI 短期内无法实现
主持人:我一上来就想问问关于 AGI 这个问题,你几个小时前刚发布相关内容,可以从这个话题切入吗?
吴恩达: 就任何合理的 AGI 定义而言,我的答案是:2026 年我们不会实现 AGI。除非有人大幅降低 AGI 的标准,才可能有公司宣称跨过了这个门槛。
主持人:那你如何解释、定义 AGI?
吴恩达: 我最熟悉的 AGI 定义是:能够完成人类能做的任何智力任务的 AI。现在人类可能只需要花几十个小时,就能学会一项新技能,比如在森林里开卡车、在呼叫中心接电话并按企业要求回答问题。这些都是智力任务,而非体力任务。要让 AI 完成这些任务,目前仍需要工程师投入大量工作,去搭建定制化的 AI 工作流 —— 这本身很有价值,但这并不是大众心目中的 AGI。虽然我希望有朝一日计算机能在各方面都达到人类智能,但我认为我们离那一天还非常遥远。
主持人:你今天刚刚提出了一个新版图灵测试,能解释一下你的设想吗?
吴恩达: 我对此很期待。因为 AGI 现在被炒得太热,已经从一个严谨的技术概念变成了营销术语,这在误导很多人。既然大家都关注 AGI、为之兴奋,那我们不如设计一个测试,来判断我们到底有没有接近 AGI。我把它叫做实用 AGI 测试:让人类评委设计一个持续数天的任务流程,比如通过电脑进行入职培训等;测试对象要么是 AI,要么是可以使用电脑、浏览器、Zoom 等普通软件的人类。如果在几天的过程中,AI 能够像一名熟练的专业人类一样,完成有经济价值的实际工作,在我看来这才是更合理的 AGI 定义。这也更贴近大众对 AGI 的理解 —— 大家认为 AGI 到来,就是 AI 能真正代替人工作,而不是某些企业为了公关、政策或融资而宣传的其他标准。
主持人:我之前采访过 2020 年诺贝尔物理奖得主 Sir Roger Penrose,他认为数学是封闭系统,AI 只是像玩游戏一样处理它。吴教授,你难道不担心根本不存在有效的 AI 测试吗?
吴恩达:AI 测试或基准的一个问题是:如果提前设定好测试集,就只能衡量 AI 的某一个特定维度。现在很多大模型都有标准基准,比如 SweetBench、GBQA 等,研究团队很难避免去针对已知测试集做优化,哪怕不是直接针对。而且 AI 的智能是 “参差不齐” 的,有些方面很强,有些方面很弱。但大家心中的 AGI,是能完成人类所有智力任务的 AI。固定测试集基准,和让人类评委实时探索、检验 AI 的强弱,这两者有很大区别。真正的 AGI,应该让人类评委找不到它在有经济价值的工作任务上明显弱于人类的地方。
主持人:那基准测试还在衡量真实有效的东西吗?有时候基准分数到 90%,用户却感觉 AI 更笨了。
吴恩达: 我认为基准测试确实在衡量真实的东西,但只是非常窄的一部分。很多基准的弱点在于,我们更擅长设计客观型基准,比如数学题、事实类问题,有明确的对错。但现实中大量事情没有唯一最优解,比如对话、写研究报告,只有好坏程度之分。
我们很难设计出能衡量这些主观、灰度空间的测试,而人类大量实际工作都处在这个灰度里。现有的基准在这方面表现很弱。
主持人:如果 2026 年实现不了 AGI,那我们可以期待什么?OpenAI 的总裁 Greg Brockman 说,2026 年 AI 的两大方向会是智能体普及和科研加速。你怎么看?
吴恩达:我认为纠结 AGI 反而会分散注意力,我们离它还很远,短期内也实现不了。但即便没有 AGI,2026 年依然有大量极具价值的工作可以做、会继续做。我提出了智能体式 AI(Agentic AI) 这个概念,这是一个正在崛起的趋势。虽然构建能落地的商业流程 AI 需要大量工作,但一旦做成,价值巨大。
2026 年及之后,会有大量工作投入到 AI 智能体与智能体工作流中,去完成高价值、高经济意义的任务。我在 AION 的团队,已经在用智能体工作流写代码、审查文件、检查关税合规、阅读复杂法律文档辅助律师工作、做医疗辅助任务、支持客服等。把人类完成这些任务的思考过程编码进 AI 智能体或工作流,让 AI 代劳,这件事会持续很多年,价值会非常巨大。
主持人:谈到智能体工作流,“强化学习之父” Richard Sutton 有句名言:“纯粹的算力终将胜过人类的巧思”。你专注做智能体工作流,难道不是和这个观点相悖吗?
吴恩达:Sutton 的《苦涩的教训》影响很大,写得也很好。我先明确:我是支持规模化的。我创立 Google Brain 时,给团队的首要使命就是规模化—— 把神经网络做大、喂入大量数据。可以说我是 AI 规模化时代最早的推动者之一,当时很多人还觉得这很奇怪。也正是因为 Google Brain 以规模为核心基因,才诞生了 Transformer 架构,它是史上扩展性最强的神经网络架构,也推动了生成式 AI 革命。所以我真的相信规模化。但这不代表只靠规模化就能实现所有目标。在不同阶段,规模化与注入其他知识需要取得平衡。规模化规律确实存在,扩大系统和数据能较可预测地提升效果,这也成为融资的有力理由。但正因为规模化有其价值,它被过度炒作了 —— 它很有价值,但没被吹得那么神。而智能体工作流,可以在规模化大模型的基础上,再注入其他类型的知识,构建更可靠、性能更强的工作流。
大模型 Scaling Law 结束了?
主持人:那你现在真的认为规模化的时代已经结束了吗?
吴恩达: 不,我不认为规模化时代已经结束。只是难度变得越来越大。AI 的进步可能呈指数级发展,但推动这种指数级进步所需的资金也同样呈指数级增长。用指数级增长的投入换来指数级快速的提升,这并不算差,而且非常有价值,因为研发成本可以分摊到大量用户身上。我认为规模化仍然有更多潜力可挖,但在现阶段,它不再是提升 AI 的唯一途径。
主持人:什么情况会改变你对规模化的看法?
吴恩达: 你是说什么会让我放弃规模化?如果在很长一段时间内,进一步扩大模型规模都不再带来收益,那我才会改变看法。
但有一个重要的补充:就像过去几十年摩尔定律推动技术进步,但期间不断有不同技术迭代,才能让半导体持续变强。生成式 AI 早期的路径很简单:获取更多数据、训练更大的模型。这正是十多年前 Google Brain 设立时的目标。但现在,AI 模型几乎已经读完了整个公开互联网,这种简单的规模化方式不再有效。因此现在很多团队都在大力做合成数据生成,投入更多人力工程,研究不同的强化学习方案。所以即便规模化仍在带来收益,过去两三年里,实现规模化的具体方式已经发生了非常显著的转变。
主持人:从另一个角度看,一个更聪明的模型,能否直接胜过精巧的工作流?
吴恩达: 理论上是可以的。我也希望事情这么简单,但在实践中,它比大多数人想象的要难得多。随着模型越来越智能,比如 GPT-4.5、Gemini 3、GPT-5 等,我们确实越来越能直接给大模型一套工具,然后放手让它去执行任务。比如给它读写文件系统的权限,让它清理硬盘冗余文件,效果确实非常惊人。但对很多工作流来说,可靠性还不足以投入生产环境。所以虽然更聪明的模型很好,但在大量实际商业场景中,团队还是会把工作流拆解、分步实现,以保证稳定可用,让系统可以稳定运行成千上万次。
随着模型越来越智能,我们确实在逐步放开限制,减少 “护栏”。我们半年前做的系统,约束和脚本会更多;现在我们会不断拆掉脚手架,不再给非常详细的分步指令,而是让模型自己做决策。比如深度研究智能体,一两年前我们还会规定:搜索多少次、下载多少页面、如何总结。现在的 AI 更有能力自己决定要不要继续搜索、要不要总结。我经常会把半年前、一年前的原型系统里的指令删掉,让模型自己判断。但这方面还有很长的路要走。这类方式在深度研究这类场景可行,就算漏引文献也问题不大;但对很多高风险企业级场景,直接放任 AI 自主行动,可靠性差距仍然比一些人认为的要大,尽管这个差距正在缩小。
主持人:我想问一下你关于 Yann LeCun 与 Demis Hassabis 之争的看法。Yann LeCun 认为,人类智能是专业化的,而非通用智能;Hassabis 则认为大脑是通用的学习系统。你站在哪一边?
吴恩达:我不觉得这两者有矛盾,可能是我没理解到分歧点。在我看来,人类大脑(可以看作非人工的 AGI)最了不起的地方,是它的可塑性与学习能力。我理解的 AGI,不应该是那种 “什么都已经知道” 的 AI,那既困难也不现实。人类大脑在经济活动中如此有价值,原因之一就是它能学习去做新的事情。正是通过学习,我们才获得了高度专业化的能力。比如一个大脑可以通过数学博士训练,去解决极难的数学问题,最终成为高度专业化的智能;但同一个大脑,如果接受不同训练,也可以成为国际象棋大师、网球高手。所以人类大脑的 “通用”,不在于它生来什么都懂,而在于它能适应、能学习极广泛的事情。
主持人:这听上去你其实更偏向 Yann LeCun?
吴恩达: 是的。当年我创立 Google Brain 时,有个理念对我影响很大,现在大家提得少了:人类的学习可能来自单一的学习算法。我们的 DNA 长度有限,携带的信息不多,但 DNA 编码出了大脑的生理结构,而大脑是一个相当通用的学习算法。正因如此,大脑才能学会做数学博士、骑摩托车、用电脑、在呼叫中心工作。正是这套通用学习算法,让大脑可以通过学习,在几乎任何领域变得专业。是这种学习能力,让智能显得 “通用”。
主持人:几个月前有人说,谷歌注定失败,因为他们只是把 AI 嫁接在旧搜索上,而 OpenAI 是从头构建。你认为谷歌能把旧体系和新技术结合起来吗?竞争已经开始了,这难道不令人激动吗?
吴恩达:Sam Altman 曾是我在斯坦福的学生,我在谷歌也有很多朋友。我既支持 OpenAI,也支持谷歌。回顾技术变革的历史,每当出现颠覆性技术时,有时是新入局者胜出,有时是老牌企业胜出,双方都有机会。这场博弈还远未结束。以互联网变革为例,谷歌是伴随互联网崛起的公司,但微软、苹果这些早在互联网出现前就成立的老牌企业,同样发展得很好。显然,AI 对谷歌这类现有企业极具颠覆性,但谷歌的应对做得不错。Gemini 3 是非常出色的模型,我认为它优于 ChatGPT。我自己经常同时使用 Gemini、ChatGPT、Claude 等多款模型。
主持人:你多次谈到 AGI。五年前,能解决任何编程问题都会被称作 AGI,如今我们已经实现了,却只把它当成工具。
吴恩达: 其实我并不喜欢谈论 AGI,但其他人讨论得太多、炒作得太厉害。作为行业从业者,我认为 AGI 被严重过度炒作了。至少在大众认知里,AGI 是 AI 达到人类水平的通用智能,我们离这一步还非常遥远。我希望能实现 AGI,但现实地说,我们还需要几十年甚至更久。认为再过几个季度就能实现 AGI,这是不可能的,除非重新定义、降低 AGI 的标准。
AI 发展史上曾出现过几次 AI 寒冬,正是因为人们过度炒作,期望过高无法兑现,最终投资和关注度崩塌,这对行业伤害很大。如今 AI 效果很好、价值巨大,几乎没有什么能阻挡它的发展势头。我真正担心的问题之一,就是过度炒作导致失望,进而引发泡沫破裂,这对世界和 AI 领域都不是好事。因此,给 AGI 降温,是为 AI 行业实现更可持续发展打下基础。
主持人:那你认为我们是在移动目标门槛吗?也就是说在降低 AGI 的判断标准?
吴恩达: 我不记得有靠谱的团队宣称已经实现 AGI。我记得很多团队说 AGI 很快就会到来,但三年前他们也没说自己已经做成了。到目前为止,还没有人真正做到。
如果非要说变化,反而是很多团队在试图降低 AGI 的定义门槛。AGI 原本的标准 —— 能完成人类任何智力任务,是非常高的标准,我们远未达到。但如果团队提出更容易实现的定义,就可以宣称更快达成。我不介意如何定义 AGI,但问题在于,大众心中的 AGI 就是类人通用智能。当不同团队用不同定义套上 “AGI” 这个词时,这个词就失去了意义。就像 “蓝色” 本来有明确指向,如果所有人把各种颜色都叫作蓝色,这个词就不再有共识。现在 AGI 就是这种情况。有人用狭隘的技术定义宣称 AGI 即将到来,而公众却理解为 “两年内 AI 就会拥有人类智能”,这与事实不符。
主持人:那我们现在到底处在什么阶段?实现难度重要,还是实用价值更重要?
吴恩达: 我认为实现细节和工程难度非常重要。比如 Anthropic 推出 Claude Code 及其 SDK,就是为了让大家能更好地驾驭模型能力。提示词如何构造、提供哪些工具、整体框架如何设计,这些细节至今仍然至关重要。
举个小例子:当前模型已经非常智能,调用工具的能力也在变强,但如果给大模型太多工具,会占用大量上下文窗口,模型更容易出错,调用错误的 API 或工具。哪怕到了 2026 年,这些工程细节依然影响巨大。很多团队使用 MCP(模型控制协议),如果 MCP 服务器里工具列表太长,会大量消耗上下文,模型反而无法有效选择。这就需要上下文工程和合理的框架来让决策更顺畅。
主持人:Anthropic 预测持续学习(continual learning)会在 2026 年解决,你是否同样期待?
吴恩达:我非常期待持续学习能被攻克。如果 2026 年真的完全实现,那会是惊人的突破。我认为我们会取得进展,持续学习非常重要。人类孩子学走路,只需要跌倒几次就能学会;而强化学习往往需要数百万次模拟。
主持人:我们只能靠暴力训练吗?
吴恩达:暴力训练的问题在于,人类智能的核心是学习算法的通用性,这让人类能极快地学会新事物。人类员工沟通后就能上岗工作,这非常有价值;但如果训练 AI 完成某项任务需要花费百万美元,对很多任务来说就不划算。如果样本效率不重要,那只有极少数几家公司能负担得起训练前沿模型。
持续学习当前最大的瓶颈是什么?
主持人:开源、开放权重模型与闭源模型的格局会如何演变?我们会走向 AI 寡头垄断吗?
吴恩达:我不希望出现那样的未来。以移动开发平台为例,如今创新空间已经不大,部分原因就是存在少数守门人 —— 在美国,做移动端开发需要获得 iOS 或 Android 的许可,封闭平台限制了很多创新。我们 AI 行业很多人都希望,未来不会出现只有两三家守门人掌控前沿 AI 的局面。我希望所有人都能在大模型之上自由创新,开源与开放权重模型是避免出现少数守门人的关键。如果我们能保住 AI 行业如今比移动领域更高的创新自由度,就会涌现更多发明与应用,整个社会也会因此更加丰富。
主持人:目前也有一些关于非文本表示的研究,但现在大部分记忆还是基于文本。而且我们搭建的这些记忆系统,基本都不会去更新大模型本身的权重,这是不是意味着我们还缺少关键的一块拼图?持续学习当前最大的瓶颈是什么?
吴恩达:我认为我们还没有找到正确的思路,或者说还不确定什么才是正确的方向。目前只有一些看上去有希望的想法,但我还没来得及验证,也不确定能不能成。这就像在问:一个还没解决的重大科研问题,瓶颈到底是什么?因为路径不清晰,我甚至没法明确说出具体瓶颈是什么 ——我们就是还不知道该怎么做。
主持人:AI 知名学者 Eliezer Yudkowsky 认为,如果有人造出 AGI,人类会灭亡;但每年因为癌症、衰老、疾病死去的人数以百万计,而 AI 可能解决这些问题。你认为哪种风险更大?
吴恩达:我读他的很多观点时,经常理不清逻辑,有些论述在我看来循环性太强,我甚至不知道该怎么反驳。我认为 AI 今天已经在为世界带来巨大的正向价值,任何能加速 AI 进步的事,都会让生活变得更好、拯救更多生命、让更多人富裕、摆脱贫困。AI 的整体净收益远大于潜在危害。确实存在一些有害的应用场景,我们应该明确并清除这些场景。但就目前而言,我非常确信:推动 AI 进步对人类是有益的。
主持人:未来是不可预测的,对吧?我们是否需要更多 AI 安全工具?
吴恩达:未来当然不可预测,但这不代表我们没有高度确信的趋势。让计算机变得更智能,显然是一件好事;让智能触手可及、实现民主化,也非常重要。因为世界上最昂贵的东西之一,就是 “智能”—— 请一位优秀的医生、优秀的老师,成本都很高。当然,我们应该致力于让 AI 系统更可靠、降低风险。同时,大家身边的人大多在专注于能创造价值的事。很多人对硅谷有刻板印象,觉得这里的人只在乎钱,这完全是错的。我认识很多行业里的朋友,确实有极少数人只在乎利润,但那是非常小的一部分。我认识十多年的很多同行,是真的想做正确的事。他们非常重视安全,认真对待负责任的 AI,会坐下来认真思考 AI 系统可能出现的各种问题,并尽力降低风险。那种 “硅谷从业者只为利益不择手段” 的印象,是完全不符合事实的。不可否认,面对几十亿美元的诱惑,确实有少数公司会动心,但那真的只是极少数。
开源时代结束了吗?
主持人:开源时代结束了吗?
吴恩达:开源现在发展得很好。一个有意思的现象是,目前很多顶尖的开源、开放权重模型来自中国。回顾过去几年,每年可用的开源 / 开放权重模型都在快速增长,所以我认为开源生态非常强劲。同时,闭源方案也在快速发展,但这没关系,重要的是开源选择也在同步强劲增长。
主持人:回看 AI 发展的现阶段,你心里在想什么?
吴恩达:我希望赋能每一个人去构建 AI。作为开发者,我再也不想手动写代码了,我希望 AI 尽可能帮我写代码。AI 给软件工程带来的效率提升是非常明显的。但很多人没意识到的是:不只程序员,所有人都会因为会用 AI、会用 AI 搭建工具而受益。我在团队里已经看到这种现象:懂 AI 的营销人员,效率远超不懂 AI 的同行;我旗下 AI 基金的 CFO,会借助 AI 写代码,工作效率也远高于不会用 AI 的 CFO。
AI 工具,尤其是用 AI 构建软件,将会是每个人都必须具备的重要新能力。有人拥抱这些能力,就能大幅提升生产力;也有人不愿接受,就可能被甩在后面。对此我其实挺担心的。一个很大的挑战是:大学系统的适应速度偏慢,很多课程还在培养适应 2022 年岗位的学生,而很多当年的岗位现在已经不存在了。企业现在极度缺乏懂 AI 的人才 —— 不只是程序员,而是营销、招聘、财务等各行各业的人。把教育体系转向让学生和成年人都能使用这些工具、大幅提升效率,需要巨大的转型。但现阶段要真正做到,我认为仍然非常困难。
主持人:程序员会失业吗?
吴恩达: 不使用 AI 的程序员,处境会很艰难;而真正精通 AI 的程序员,生产力极高,市场上根本供不应求。说他们会彻底消失有点夸张。
大多数岗位不会消失,但有句话说得很对:AI 不会取代人,但会用 AI 的人会取代不会用 AI 的人,这在很多领域都成立。坦白说,确实有少数岗位会被 AI 完全自动化。比如很多翻译人员、配音演员,他们的工作面临较大冲击。对于这些会被完全自动化的少数岗位,我深表同情。作为 AI 从业者,我有责任帮助他们掌握新技能、重返职场,找到有意义的新工作。但对绝大多数岗位而言,AI 只能完成部分工作。比如放射科,AI 自动化的进程比人们预想的慢得多;法律行业受监管保护,完全取代人类律师也很难。但不用 AI 的律师,效率会远低于用 AI 的同行,因为 AI 在法律检索等方面表现极佳。关键在于:如果 AI 能完成一项工作的 30%,剩下 70% 仍需要人来做,但这个人必须会用 AI,否则就会在效率上落后。
主持人:你能预测哪些工作最终会消失吗?
吴恩达:明确会消失的,主要是那些几乎 100% 的工作内容都能被自动化的岗位,比如大量呼叫中心工作、翻译、配音演员等。但绝大多数工作都复杂且多面,AI 擅长文本处理,在非文本领域能力有限。很多研究将工作拆解为具体任务后发现,AI 通常只能自动化 30%-40% 的工作,剩下 60%-70% 仍需人类完成。只有极少数岗位,AI 能覆盖几乎全部工作,这些岗位才会面临危机,但这只是很小一部分。
主持人:你 2017 年离开百度,当时的决定原因是什么?
吴恩达:我在百度的工作经历非常愉快。很多人好奇我从谷歌大脑到百度,再到创立 AI 基金和其他项目的原因。当时我负责百度的 AI 团队,团队非常优秀,在优化在线广告、网站等核心业务上做得很好。我看着组织架构图意识到,即便我离开,这支优秀的团队也能运转良好。我发现自己工作中最有乐趣的部分,是创建新业务板块。比如我带领的百度自动驾驶团队,至今在中国发展得很好;我负责的智能音箱团队,如今也表现出色。虽然我能为母公司创造利润,但我真正投入的是从零到一创建新业务。我觉得跳出大公司,创立 AI 基金这样的风投工作室,从零开始打造企业,或许能做得更好。因此我离开百度,创立了 DeepLearning.ai,继续深耕 AI 教育,赋能更多人使用 AI;同时运营 AI 基金,孵化初创企业。
中美 AI 发展的差异
主持人:你认为中国现在在 AI 领域领先吗?
吴恩达:目前美国在闭源大模型方面仍处于领先地位,但中国在开源、开放权重模型领域已经大幅领先美国。过去一两年,中国推出了大量顶尖的开源模型(如 DeepSeek、Qwen 系列等),全球开发者可免费下载使用,生态活力极强。中美都是 AI 领域的巨头,中国凭借激烈的市场竞争、快速的技术传播和强大的开源生态,拥有巨大的发展势能。两国各有优势,整体处于并跑、互补的状态,而非一方绝对领先。
主持人:你对自己当年的选择不后悔吗?
吴恩达:我和中国团队一起做过一些工作,那段经历很棒。现在我和 DeepLearning.ai、AI Fund、Landing AI 等团队合作也非常开心。我对现在做的事情很满意,没有遗憾。
主持人:单纯从规模和动能来看,中国是不是更有活力?
吴恩达: 中国有很多优势,美国也有很多优势。
主持人:接下来我们可以期待你的公司带来什么?
吴恩达: 我希望赋能每一个人用 AI 构建东西。我们一直专注于帮助开发者用上最新工具,未来也会继续做这件事。除了支持 AI 开发者发展职业、成长,我还想把范围扩大,让开发者和所有人都能用 AI 创造价值。这是 DeepLearning.ai 的重心。我离开百度的一个原因是:有些业务适合在谷歌、百度这样的大公司内部做,但有些业务不适合,比如关税合规这类事情,互联网公司不会重点关注。而 AI Fund 可以孵化各种各样的创业公司,业务类型非常多元,我对此很期待。另外,AI Aspire 是我和朋友新启动的项目,和贝恩等机构合作,为大型企业提供 AI 咨询。想要真正推动 AI 落地,开发者很重要,个人用户很重要,大型企业同样关键。我们花了很多精力,帮助大企业用 AI 创造真实价值、获得竞争力。
主持人:你还把自己定位成 AI 传播者、沟通者,为什么?
吴恩达: 这触及到我最核心的价值观。我做事有两个最高优先级:第一,让人类变得更强大。这是我做研究员、在斯坦福当教授的原因 —— 通过研究、发明新技术,推动前沿发展,让人类更强大。第二,帮助他人实现他们的梦想,而不是把我的梦想强加给别人。如果我们能给别人工具和技能,他们就更有机会实现自己的梦想。这也是我做教育一直以来的动力。
主持人:回顾你的人生,如果时光可以倒流,你会改变什么决定吗?
吴恩达: 当然有很多事我会换一种做法。我很幸运,做对了一些决定,但也做错了很多。比如是否该聘用某个人、是否该坚持某个项目、是否该更努力而不是放弃。但整体上,我接受这一路的经历。
主持人:如果关于世界本质,你只能弄明白一个问题,你会选什么?
吴恩达: 我希望能理解智能的本质。
主持人:你是指意识吗?物质如何在人脑中变成意识?
吴恩达: 其实不是意识。意识是重要的哲学问题,但我不懂什么是意识。哲学上的意识是指 “自我感知”,但你无法确认我是否真的有意识,我也无法确认你有。我们只是出于礼貌,假定彼此都有意识。因为意识无法被测量,所以它是哲学问题,不是科学问题。而我更关注科学问题:智能的本质到底是什么?人脑或其他生物大脑,究竟是通过什么机制,表现出如此广泛的智能行为?它到底是怎么运行的?很多人不知道,在创立 Google Brain 之前,我花了大量时间和神经科学家朋友交流,读了成堆的神经科学论文,最后得出结论:神经科学目前基本还不知道大脑是如何工作的。所以我放弃了从神经科学直接造智能的路线。但我很确定,智能不只是一个靠规模放大的 Transformer,肯定还有更多东西。我真心希望能搞懂它。
主持人:包括推理的本质吗?
吴恩达:对,推理是智能的一部分。能真正理解推理如何工作,也会非常迷人。
主持人:为什么西方世界看起来这么不快乐?
吴恩达:我不认同 “西方世界普遍不快乐” 这种概括。你不会从一杯水里寻找快乐,但水让你更健康。 同样,把快乐寄托在 AI 上是一种误区。AI 能支撑我们、帮助我们创造、赋予我们技能,但快乐更多来自内心,而不是我们创造的工具。真正的快乐,更多来自努力帮助他人的过程。我希望通过 AI 工作帮助别人,也在做对他人有用的工作中获得了很多快乐。
参考链接:https://www.youtube.com/watch?v=4vzmTKUFtxg&t=57s
本文来自微信公众号 “InfoQ”(ID:infoqchina),作者:冬梅,36氪经授权发布。















