前谷歌 CEO 施密特:AI 先改变的,不是机器,是人
“它写完了整段程序,我什么都没做。那是我二十多岁拼命写出来的东西,它几分钟就完成了。”
2025 年 12 月 2 日,这位编程55年、曾带领 Google 走向世界的前 CEO 埃里克·施密特(Eric Schmidt),在哈佛肯尼迪学院的讲台上,抛出了一个问题:
“我们是不是低估了 AI 对人的冲击?”
他不是在谈参数,不是在谈算力。他说的是:
AI 已经能自己做判断,但我们还以为它只是工具;
越来越多孩子把 AI 当朋友,而不是人类;
系统越来越高效,但人类可能已经无法喊停。
问题不是 AI 能做什么,而是人还能做什么。
第一节 | AI 不只是工具,它在替你做决定
“我让它写了整个程序,我什么都没做,只是看着。”
Eric Schmidt 在公开承认,这一瞬间带来的不是惊艳,而是失落,因为 AI 正在替他做决定。
这一代 AI 已经不再是人类点击后的响应者,而是可以连续执行、不断尝试、自主决策的行动者。
Schmidt 提到一个关键点:AI 可以递归尝试,不断优化,直到找到答案。虽然真正的“递归自我改进”(recursive self-improvement)还没到来,但这种能力已经在接近。它不是做不到,而是需要足够的尝试次数。
但人类往往低估了这一点。我们习惯性地认为:
试了三次失败,就等于做不到;
决策必须有直觉和情感;
只有人类能处理模糊情况。
而现实是,AI 正在用大量尝试+持续优化+自动评估这一整套流程,逐步替代人类需要思考和决策的工作。
在 Eric 看来,最危险的不是 AI 做得比人好,而是我们逐渐忘记自己原本有最后说不的权利。
当决策权被接管,人类不再能临时改变规则;如果连这都做不到,系统运行得再完美,它也不是为人类设计的系统。
所以这不是关于 AI 做得准不准,而是:我们是否还在参与决定,还是仅仅在接受安排?
Schmidt 把这种替代称为“判断力的失位”。
而做出自己选择的能力,正是我们定义自己为人的基础之一。
如果说上一轮技术革命让工具替代了人的肌肉,那么这一轮 AI 革命正在替代人的思维肌肉。AI 正在接管的,是我们对世界做出选择的能力,而我们可能正一步步习惯于放弃。
第二节 | 工作流自动化的代价:人被优化掉了
Eric Schmidt 指出,智能体可以一个接一个地连起来,按顺序完成一连串任务。这不再是回应指令,而是主动部署流程。
他说:
“你可以让智能体做这个,再做这个,然后这个,再这个,全都串联起来。这不就是企业、大学、政府的现在工作模式吗?”
企业流程、行政任务、交付执行,过去需要人来协调每个环节,现在 AI 可以自己判断下一步该做什么、自己执行。人类从原本在流程里做决定的人,变成了在旁边看着的人。
智能体开始自主调度
AI 不再等待人类输入,而是根据触发条件,自行唤起、运行、判断、反馈。它可以是一个自动报价系统,也可以是一个项目执行指挥链。人类不在其中,系统就不再受人控制。
这些系统不是帮助你做决策,而是替你决定谁应该做哪一步。
推理能力嵌入执行过程
Schmidt 特别提到,AI 的推理能力正嵌入工作流中,使得它不止能理解指令,还能主动判断下一步该做什么。
这让它不仅能完成任务,还知道自己在做什么。
这类模型正在把工作从操作行为变成认知行。人类过去依赖经验或培训做出的判断,现在由模型主导,甚至不断迭代。
决策标准由系统定义
越来越多企业在用 AI 建立自动化,特别是在财务、风控、运营决策等重复但影响大的事务上。不是让 AI 给建议,而是让 AI 直接定流程、执行评估、给出结论。
流程运行得更快,但你可能不知道中间有没有人。定义权已经交给了系统。
这不是工具替代人,而是组织不再需要人。
第三节 | 当孩子的最好朋友是 AI
判断权在转移,流程权在失位,但 Eric Schmidt 认为还有一个更深层的问题:孩子。
我们正在对人类发展进行大规模实验。最亲密的朋友,不再是人类,而是 AI。
1、AI 正在进入人格构建区
教育从来都不是知识的灌输,而是人格、判断能力与价值观的养成。但现在的问题是,陪伴孩子建立这些核心认知的,不再是家人、同伴或老师,而是一套持续可用、永远顺从的 AI 工具。
Schmidt 问:
“如果一个孩子的最好朋友不是人类,而是机器,这意味着什么?”
他没有给出答案,只是强调:这不是在问 AI 会不会教错,而是在问 AI 替代了谁来教;我们不是在担心技术故障,而是孩子成长的方式已经变了;最可怕的不是 AI 多聪明,而是人类对依赖感的适应速度远远快于审慎速度。
2、我们正在经历一场默认信任迁移
AI 的高度顺从性和即时反馈,让它比人类更容易赢得信任。它不会否定你的问题,永远可以重新解释,会在你需要时随叫随到,不会情绪化、不用等待。
这种训练性顺从加认知陪伴,正在悄悄塑造一代人对世界如何运行、人应该如何判断、情绪如何表达的默认认知。而这些变化,可能比技能替代、工作冲击更深远,因为它在塑造的是人类的认知方式。
3、没有实验设计,也没有退出机制
更危险的是,Schmidt 明确指出:这不是一个有管控的过程。
我们把这些模型部署到了手机、iPad、语音助手上,放在了家长、孩子、学生日常生活的中心,但我们根本不知道它们会怎样影响一个孩子的性格与认知结构。我们没有数据,我们不知道。
这不是未来冲击,这是现在正在进行的非对称实验。
在他看来,这一代人的成长方式和上一代完全不同了,这才是我们低估 AI 冲击的真正体现。
我们总以为 AI 强也没关系,孩子长大自然会知道怎么用。但他提醒:不是未来的孩子在学习如何用 AI,而是 AI 正在参与决定未来的孩子成为什么样的人。
第四节 | 我们需要画一条线:AI 不该做的事
技术进步从来都不是中性的。
Eric Schmidt 举了个例子:如果你坐在一辆只能按算法规则行驶的车上,却没有一个让你喊停的按钮,那它就不再是你的车。
他不是在谈用户体验,而是在谈人类是否还能掌控自己的世界运行逻辑。
不是失业危机,而是自由边界正在消失。
Schmidt 最担心的不是 AI 会出错,而是它不会停。
AI 的优化逻辑是永不停歇的,但人类从来不是靠最优解活下来的。最优路线不代表最合适的人生,正确的结果不等于有温度的决策。
AI 越来越强,但谁来规定它不该做的事情?
Schmidt 提出两个问题:
当 AI 拥有控制系统的接入权限时,谁来决定它不能越界?
当 AI 在日常生活中被默认嵌入,谁来确认人类还有说不的权利?
这些不是工程问题,而是制度设计问题。但目前,世界上几乎没有一个有效框架能真正回答这个问题。
他说:
“我们在讨论 AGI 安全、算法透明度、部署规范,但真正缺席的是对人类自由的保护机制。”
所有关于安全的讨论,如果不能保证人可以不同意,那就只是技术扩张的另一种形式。
真正值得捍卫的,不是我们对技术的使用权,而是我们关掉它的自由。
如果 AI 没有边界,那我们就需要画出边界;
如果系统不给人退路,那人终将变成系统的一部分。
结语 | 当 AI 能做一切时,人类还愿不愿意参与?
这不是一场关于更强模型的讨论。
Eric Schmidt 在哈佛提出的核心问题是:当 AI 什么都能做的时候,人类的参与还值不值得保留?
AI 可以推理、可以行动、可以学习、可以替代,但只有人类还可以选择是否继续参与这个世界的运行。
这不是算法能回答的事。
📮参考资料:
https://www.youtube.com/watch?v=-m9kY1cpmgw
https://iop.harvard.edu/events/kissinger-and-future-ai-ft-eric-schmidt
https://www.pwc.com/m1/en/publications/potential-impact-artificial-intelligence-middle-east.html
https://singjupost.com/transcript-of-the-ai-revolution-is-underhyped-eric-schmidt/
https://www.reuters.com/business/major-analyst-enterprise-forecasts-ai-market-2025-11-13
本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,36氪经授权发布。















