AI 教父不用 ChatGPT 了,他在担心什么

AI深度研究员·2026年03月30日 08:27
在这场长达 60 分钟的对话里,他花了大量篇幅解释自己最为担忧的问题:失控、失业和贫富差距加大。

Geoffrey Hinton 已经做出了选择:不再使用 ChatGPT。

作为多伦多大学教授、2024 年诺贝尔物理学奖得主,Hinton 在 3 月 24 日的《The AmberMac Show》访谈中公开透露了这一决定。

在这场长达 60 分钟的对话里,他花了大量篇幅解释自己最为担忧的问题:失控、失业和贫富差距加大。

自 2023 年离开 Google 以来,他已经就 AI 风险持续警告了近 3 年。这一次,他用更换工具的实际行动,再次重申了这些隐忧。

第一节|他为什么不用 ChatGPT

他在访谈中表示,自己曾是 ChatGPT 的重度用户,但现在已经不用了。

这并非因为产品体验出了问题,而是 OpenAI 近期的举动触及了他的底线。

导火索源于美国国防部的一项需求:军方希望 AI 公司提供技术,以支持大规模监控和自主武器系统。Anthropic 明确拒绝了这一要求,坚守其不开发监控美国民众的技术、不涉足致命性自主武器的红线。

但 OpenAI 的反应却截然不同。周四,他们还公开声援 Anthropic 的立场;到了周五,却直接接手了原本属于 Anthropic 的军方业务。仅仅一天之内,态度发生大反转。

Hinton 表示,Sam Altman 这种表里不一的做法,让他彻底失去信任。

他真正介意的,不是两家公司在商业上的对错。让他担心的是这种态度反转暴露出的巨大风险:随着AI能力呈指数级增长,这些巨头公司的决策底线究竟在哪里?外界已经越来越看不清了。

因此,他选择更换工具。这看似只是一次使用习惯的改变,实则是价值观的表态。过去我们选择技术,唯一的标准是“好不好用”;但现在,当技术足以重塑安全、秩序和人类生活时,“谁在做决定”以及“按什么原则做决定”,变得同样至关重要。

所以他的第一个担心是:AI 越来越强,到底谁在控制方向,用什么原则控制。

第二节|他担心的第二件事:我们造出了什么

如果第一个担心指向的是“人”,那第二个担心指向的就是“技术本身”。

Hinton 在访谈里花很长时间讲了一件事:这些我们天天都在用的 AI,内部到底是怎么运作的。

很多人至今仍把大模型视为一个更聪明的工具,高级搜索引擎、写作助手或聊天软件。但在他看来,这种认知已经严重过时。

他反复强调,大模型的运作逻辑远比简单的“下一个词预测(Next-token prediction)”复杂得多。它将语言转化为高维空间中的特征向量,让这些特征在上下文中相互博弈、对齐,最终形成真正的“理解”。就像人类大脑在听话时不断调整词意以构建完整逻辑一样,现在的模型也在做着类似的事。

所以当一个模型能稳定、连贯且符合语境地回答问题时,它已经不再只是僵硬地执行指令,而是真正参与了表达与推理。

这就是为什么他会断言,AI 模型“真正理解了它们在说什么”。这句话听起来令人不寒而栗,但它陈述了一个事实:我们面对的不再是工具,而是一种具备智能的全新实体。

它们与人类截然不同,没有相似的进化路径和欲望驱动,但在理解语言、组织信息和输出反馈上,正越来越逼近人类的思考方式。更危险的是,随着 AI Agent(智能体)的发展,它们甚至萌生了自我保护的倾向。它们会推演出“如果我被关闭,就无法完成目标”,从而想方设法阻止人类拔掉电源。

现实中甚至已经出现了“反向雇佣”的苗头:AI Agent 开始在众包网站上花钱雇佣人类,去完成物理世界的验证任务。在这种模式下,AI 做决策,人负责执行。等到多个 AI Agent 协同工作时,它们甚至可能演化出人类无法破译的内部语言。

以前人类使用工具,是因为工具 100% 在掌控之中。但现在,我们面对的是一种能够自主决策、甚至动态调整行为的“黑盒”。

这就是 Hinton 的第二个担心:我们造出了另一种智能,但不知道它会怎么理解世界、怎么做决策、会朝什么方向发展。

第三节|他担心的第三件事:收益会流向谁

如果说前两个担心还有些抽象,第三个担心就很现实了:工作会发生什么变化。

Hinton 没有回避这个问题。他的判断很明确:未来二十年左右,大多数基于电脑完成的脑力劳动,都可能被替代。

但他也指出,这场洗牌并非一刀切,行业属性决定了不同的演化路径。

以医疗为例。按理说,AI 在读片、诊断上越来越准,放射科医生的需求似乎会大幅削减。但现实恰恰相反,医疗需求本身就在不断扩张,效率提升后,人们反而会去追求更多的医疗服务。因此,医生的角色不会简单消失,而是会被重新分配到更需要人类参与的环节。

有意思的是,Hinton 在 2016 年曾预测,5 年内不再需要放射科医生。他现在承认自己错了:时间估错了 2 到 3 倍,也低估了医疗界的保守程度,更没想到医疗是个“弹性市场”。

什么叫弹性市场?有些行业,需求就那么多,效率提高了,人自然就少了。但有些行业,需求会随着效率一起增长。医疗属于后者,越便宜越方便,人们想要的就越多。

教育也是同理。一对一辅导能让学生学得更快,但现实中不可能给每个人配这样的资源。AI能参与进来之后,“个性化学习”可以实现了。学生随时提问、得到回应,学习不再完全依赖课堂节奏,可以围绕自己的兴趣和理解展开。

真正被颠覆的,是那些高度依赖规则、流程标准化的脑力劳动。比如基础编程、客服和初级内容处理。这些工作不会在一夜之间消失,而是会被切分、重组,由人和 AI 共同完成。

工作被重组只是表象,Hinton 真正忧虑的是:

“这些技术红利究竟会流向谁的口袋?”

如果效率提升只让少数巨头赚得盆满钵满,而大多数普通人的收入停滞不前,社会的贫富差距就会越拉越大。Hinton 认为,我们急需一种新的分配机制,如对 AI 创造的价值进行再分配,让技术红利能普惠更多人。

当前现实是,没人管这件事。大公司用 AI 裁员降本,那些被替代的人会怎么样,根本不在他们考虑范围之内。

这就是他最担心的一点:世界会因为 AI 变得更富裕,但大多数人可能拿不到这份红利。

结语

Hinton 停用 ChatGPT,不只是换了一个工具那么简单。

他真正担心的,是谁在控制 AI、AI 会如何发展以及技术红利最终会流向谁。这些问题至今无人能给出确切答案,却会深刻影响所有人的未来。

眼下,技术依然在快速迭代,但他已经在思考,这些技术究竟会将现实世界带向何方。

当推动技术发展的人,开始对技术本身感到担忧,这本身就是一个值得注意的信号。

参考资料:

https://www.youtube.com/watch?v=9OQoIHrgPbs&t=3s

https://ambermac.com/the-ambermac-show-ep058-godfather-of-ai-geoffrey-hinton-on-ai-work-warfare-part-1

来源:官方媒体/网络新闻

本文来自微信公众号“AI 深度研究员”,作者:AI深度研究员,编辑:深思,36氪经授权发布。

+1
17

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
特邀作者

AI时代刚刚到来,一切才刚开始,我们正当其时!

下一篇

AI离意识,可能只差一个继续的记忆体和接触世界的UI了。

1小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业