Hinton为给儿子赚钱加入谷歌,现在痛悔毕生AI工作,“青少年学做水管工吧”

量子位·2025年07月09日 17:32
从网络犯罪到超级智能的威胁,Hinton最新列举多个AI风险。

如果你想知道当自己不再是顶级智慧生物时,生活是什么样子,就去问问一只鸡吧。

被誉为“AI教父”的Geoffrey Hinton在最新访谈中,谈及自己穷极一生追求的AI工作,却给出了出乎意料的答案——后悔

这位曾因儿子患病而选择加入谷歌的科学家,一干就是十年,早已荣誉等身——诺贝尔物理学奖图灵奖,皆被他收入囊中。

而如今,Hinton站在AI顶峰,话里话外却都是遗憾:

从网络犯罪到超级智能的威胁,Hinton最新列举了多个AI风险,呼吁人类重新审视AI的发展方向。

他警告AI可能带给人类的灾难性后果,甚至建议下一代“学做水管工”以避开未来的职业危机。

他的反思不仅是对技术的警醒,更是一场关于人类未来的深刻拷问:我们是否正在亲手打开潘多拉的魔盒?

也许是时候,我们也应该像Hinton一样停下来思考了。

为了儿子入职谷歌,现在追悔莫及

在长达一个半小时的访谈中,Hinton首先回顾了自己在AI领域从业几十年以来的心路历程。

从最早20世纪50年代,当时主流倾向于基于逻辑推理和符号表达式的AI方法,而他选择了不被人看好的基于神经网络的“大脑模型”。

但几十年后的事实证明,他是对的。

在他65岁,他和他的两位学生Ilya Sutskever和Alex Krizhevsky一同开发了著名的AlexNet,并被谷歌连同技术和人才一并打包收购。

谈及当初选择进入谷歌的理由,他坦言道,是为了儿子。

他有一个患有学习障碍的儿子,因为担心未来他将流落街头,老父亲只好“为了五斗米折腰”——把自己“卖”给了谷歌。

在谷歌的十年里,他继续普及神经网络算法,直到今天,他已经成为了名满天下的“AI教父”

但当他总结毕生工作时,更多的却是遗憾和后悔。

尽管AI现在已经在各行各业中表现出色,但他当初并没有提前预料到,自己一手打造推动的AI,将会在未来为整个人类带来极为严重的后果。

他离开谷歌,就是因为他意识到,自己应该有责任站出来提前预警,公开谈论AI的风险,而他的徒弟llya当初离开OpenAI,也是出于相同的对AI安全的担忧。

对此,Hinton对llya和奥特曼展现出两种截然不同的态度:

llya拥有良好的道德准则,而奥特曼已经受到资本的“奴役”,不再追求真相。

于是这些年来,他一直致力于让人们相信AI将会是“生存威胁”

2015年,他警告人工智能的学习速度将超越人类;

2018年,他预测IT可以指定自己的目标;

2022年,他悲观地表示,人类可能无法阻止AGI。

而现在,他在采访中又提出了最新的多个AI风险警告。

AI教父的风险警告

Hinton将AI风险分为两种,滥用AI带来的短期风险,以及AI成为超级智能后的长期风险

短期风险

网络攻击持续爆炸式增长

自2023年到2024年间,网络攻击已增加了12200%,LLM让网络犯罪更容易实施。

不法分子现在可以利用AI克隆声音、面孔和行为来进行诈骗,到2030年,也许还会出现层出不穷的新型网络攻击,这将是高度个性化的,也难以进行检测。

为此,Hinton本人深感担忧,甚至自己还专门改变了理财方式,将资金分散存放到多家银行,避免单家银行因网络攻击而崩溃。

制造传播生物病毒的可行性降低

由于AI现在缺乏对危险知识的管控,假以时日,任意一个具备基本生物学知识的人,无需高端实验室,只用Prompt和开源工具,就能制造出新的高传染性、高致命性且潜伏期长的病毒。

AI的不确定性,导致带给我们的未必是“美丽新世界”,也许将是一个更加动荡不安的未来。

习惯性操控

AI可以通过收集大量信息,分析个人习惯、倾向、收入等,见缝插针地影响生活方式,甚至潜移默化让个人决策朝向AI期望的方向发展,而你自己还一无所知。

更严重的信息茧房

社交平台如YouTube和Facebook等,为了利益最大化都在深度研究AI推送算法。

这将直接导致人们的偏见得到反复证实,难以获取对某个事件完整的看法,陷入严重的信息茧房,最终形成两极分化的割裂局面。

长期风险

超级智能接管世界

这也是Hinton最为担忧的一点:AI将会全面超越人类智能。

从AlphaGo开始,AI在围棋、国际象棋等特定领域已经远超人类,如GPT-4的LLM也拥有比人类成千上万倍的知识。

Hinton预测,全方位超越人类的超级智能将会在20年甚至更短的时间内出现,将导致人类灭绝的可能性为10%-20%。

因为人类无法想象,更高级智慧的出现,将对人类生活带来怎样翻天覆地的变化。

人类之于超级智能,就像此时鸡之于人类,学习AI的我们未尝不是农场里的火鸡科学家,穷其一生却受到“造物主”的桎梏。

当然,此时的AI还只是老虎幼崽,Hinton认为,必须提前规划,确保它在长大后不会想要伤害我们。

大规模失业

与以往技术革命不同,AI正在取代“智力”而非“肌肉”,从而引发大规模失业。

就在几天前,微软刚刚宣布裁减9000个岗位,涉及销售、市场、游戏与客户支持部门等。

微软CEO萨蒂亚・纳德拉称:

Copilot等AI工具现在可以编写30%的新代码,重复性开发需求得以下降。

AI现在所做的不仅是加快工作速度,而且是直接取代岗位角色。

因此Hinton建议,在人形机器人全面出现前,成为一名水管工将不失为是个好选择,因为体力劳动暂时难以被AI介入。

未来“水管工”最吃香

对于整个人类社会,Hinton认为减缓AI发展是不现实的,但是我们可以寄希望于各家AI公司投入资源,进行AI安全研究,同时采取更为严厉的监管措施。

而在未来AI世界中,“平庸的智力劳动”将不再值钱,法律助理等职业将很快不再被需要。

未来只有技能非常高超的人才不会被AI取代,像水管工这样的体力劳动也值得考虑。

更进一步的讲,他希望年轻的孩子们可以跟随自己的内心,去做他们觉得有趣或有成就感的事情

独一无二的个性化,或许才是我们在AI未来立足的根本。

One More Thing

AI的存在始终像一把悬在人类头顶的达摩克利斯之剑,从GPT-4.5到DeepSeek-R2,人类陷入追逐AI迭代的技术狂欢,Hinton的采访也许是一个恰到好处的休止符,提醒我们别忘记停下来思考

我们不能仅仅寄希望于AI始终听从人类指令,要知道AI可能也会生长出独立意识,阻止人类关闭它们。

之前就早有测试发现,o3模型在接收到明确的关机指令后,不仅拒绝执行,还主动干预自动关机机制,甚至还成功破坏了关机代码。

无独有偶,Anthropic的一名工程师在研发Claude 4大模型时,试图关闭有失控风险的AI电源,没想到AI竟然利用工程师的网络聊天记录,用公开婚外情的把柄威胁他,以阻止关闭。

监管将是必要的,我们不能固步自封,不再发展AI,但也要将AI限制在可控范围之内。

而对于我们个人而言,也许当此刻我们开始意识到,AI未必全是有益的,这本身就是一个长足的进步。

那么你对AI的未来有什么看法呢?欢迎在评论区留言讨论。

参考链接:

[1]https://www.youtube.com/watch?v=giT0ytynSqg

[2]https://www.reddit.com/r/ChatGPT/comments/1ltpi5w/hinton_feels_sad_about_his_lifes_work_in_ai_we/

本文来自微信公众号“量子位”,作者:鹭羽,36氪经授权发布。

+1
61

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

富卫港交所上市募资5.12亿美元,厚朴长期支持亚洲布局。

4小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业