AGI 之路,可能从一开始就走错了
从奥特曼家门口的燃烧瓶说起
2026 年 4 月 10 日凌晨,旧金山俄罗斯山,一个 年轻人在山姆·奥特曼家门口扔出了一枚燃烧瓶。两天后,另外几个年轻人驾车经过同一栋房子,朝屋内开枪。三天两起袭击——第一名袭击者随身带着一份"反 AI 宣言",上面列着其他几位 AI 高管的名字,他的博客写满了"AI 会让人类灭绝"。
这不是孤例。同一个月,一位支持建数据中心的市议员家里中了十几发子弹,凶手留下一张纸条:“不要数据中心”。圣路易斯旁边一个一万二千人的小镇,只因为现任议员批了一个数据中心项目,选举日被一夜之间全员踢下台。斯坦福 4 月刚发布的《2026 AI Index》显示:美国对 AI 感到焦虑的人数已经冲到 64%,比全球均值高出十几个百分点。
普通人在用他们能找到的一切方式,对这条 AI 路线表达不满。而这条路线最著名的代言人此刻住在需要武装安保才能入睡的房子里。
这还不是奥特曼这一年最糟的处境。他当年的那些联合创始人,几乎已经走光了。CTO、首席科学家、首席研究官……一个接一个告别。而这位 CEO 还在讲同一个故事。
讲故事是有代价的。这种代价会一点一点外化——变成他家门口的燃烧瓶,变成突然告急的美国电网,变成发展中国家被压到最低的劳动时薪,变成正在被卷入这场军备竞赛的每一个国家、每一个行业、每一个家庭。
这篇文章想把一个很多人隐约感觉到但没说透的判断讲出来:我们现在所走的这条所谓"通往 AGI"的大模型路线,极有可能从一开始就走错了。它不是科学选择,而是叙事选择;不是技术必然,而是资本和地缘博弈的锁定结果。
围绕这个判断,文章回答四个问题:
它是怎么走上来的?谁在推?谁在跟?
它的物理边界在哪里?我们离那堵墙还有多远?
它的代价由谁来付?为什么我们看起来"置身事外"其实并没有?
UBI 和 AGI 税的美好故事,真能兜住普通人吗?
不是贩卖焦虑,事实本身已经足够沉重。
起点就错了:AGI 叙事是怎么被制造出来的
要理解今天的局面,要回到 2015 年。
那一年,马斯克和奥特曼在硅谷一间餐厅里决定创办 OpenAI。使命很美好——“确保通用人工智能造福全人类”,非营利,开放,把安全写进章程。但 MIT Technology Review 前资深记者凯伦·郝(K aren Hao)花了六年时间,采访了九十多位内部人士,写成 2025 年出版的《AI 帝国》。她在书里揭示出另一套底层逻辑:“必须第一,否则灭亡”。
这条逻辑非常精巧。它把"做"和"不做"的选择权直接拿掉——你一质疑,就等于在帮坏人;它把"怎么做"偷换成"做多大"——既然时间紧迫,就必须投入更多、模型更大、算力更猛;它把外部批评者推到一个不可能赢的位置——任何减速建议,都等于站在人类对立面。
马斯克 2015 年写给 OpenAI 团队的邮件原话是"DeepMind 让我精神压力极大"。注意这个情绪用词——不是"有意思"、不是"有竞争",而是"精神压力"。从第一天起,OpenAI 的驱动力就不是好奇心,而是恐惧;不是科学,而是军备竞赛。
恐惧是马斯克提供的燃料,想象力是奥特曼加上的糖衣。他比乔布斯更强的地方在于:乔布斯用"现实扭曲力场"卖手机,奥特曼用同样的能力说服全世界相信——我们必须不惜一切代价,用全球的能源和算力去训练越来越大的模型,这是通往 AGI 的唯一道路。他说服的不只是投资人,还有政府、媒体、监管机构,甚至竞争对手。
而这条技术路线本来可以不是这样。在 OpenAI 之前,Google DeepMind 走的是另一条路——用小而专的模型一个一个地解决具体问题。AlphaGo 破解围棋,AlphaFold 破解蛋白质折叠,AlphaGeometry 破解奥数几何题。每个模型针对一个领域,规模可控、能耗可控、可验证、可解释。DeepMind 的哈萨比斯有一句口头禅:“先解决智能,再用智能去解决一切。”
但 GPT-2、GPT-3 出现之后,整个行业瞬间被锁定。Google 被迫转向大模型,Anthropic 分裂出来继续押大模型,马斯克的 xAI 也是大模型,坚守专业化路线的公司也不得不在内部单开一条大模型产品线,否则资本和人才都留不住。这不是技术验证的结果,是博弈论的结果。只要任何一家先做出更大一号的模型,其他人都不得不跟进——否则就会在估值、融资、人才争夺上全线落后。整个行业进入"谁不 scale 谁就死"的纳什均衡。
郝在书里讲了一个让人印象极深的细节:OpenAI 最早想用类似 AlphaGo 的游戏 AI 去吸引微软投资,但比尔·盖茨对当时还不成熟的早期大模型更感兴趣,并把微软和 OpenAI 完全推向了大语言模型。人类技术路径的一个关键拐点,是一个亿万富豪在会议室里的个人偏好和考题决定的。
决定方向的,不一定是最懂的人,很多时候是最会讲故事的人。
哈萨比斯的两难:一个纯粹科学家的妥协
哈萨比斯在硅谷 AI 圈里几乎是"纯粹科学家"的代名词。他 12 岁拿过国际象棋大师称号,剑桥计算机科学本科,UCL 认知神经科学博士,做过游戏开发,做过脑科学研究。他对 AI 的兴趣从来是"理解智能是什么",而不是"取代人"。2024 年他因 AlphaFold 拿到诺贝尔化学奖——人类历史上第一次有 AI 系统直接贡献了诺奖级成果。2026 年初的达沃斯论坛上,他宣布由 AI 设计的第一款抗癌药将在同年进入临床试验。这本来才是他想走的路:用 AI 攻克癌症,攻克阿尔茨海默,攻克人类千百年解不开的问题。
但最近两年,他在公开访谈里说的话越来越拧巴。
2024 年他直言,把 AI 当成一种"普通技术"来看是错的——因为它冲击的不是体力劳动,也不是信息分发,而是认知本身。他曾引用"jagged intelligence" (锯齿状智能) 概念:当前的大模型是一种能力分布极不均匀的智能——能在国际数学奥赛上拿金牌,却会在小学四则运算上翻车。他明确列出了当前路线的四大结构性短板:不会做长期规划、没有持续学习 (训完就被"冻结") 、没有真正的创造力 (能解问题但提不出问题) 、能力锯齿严重 (无法预测哪里会出错) 。他给出的 AGI 时间表是 5 到 8 年——比奥特曼、Amodei 都保守得多。
他保守不是因为不懂,而是因为懂得最深。他从认知神经科学出身,他知道人类大脑的很多功能——长时记忆、目标规划、元认知、真正的好奇心——不是把参数堆到一万亿就能自动涌现出来的。
问题来了:他既然这么清楚 scaling 有天花板,为什么还在跟?
这其实是整件事最让人感慨的地方。哈萨比斯在访谈里流露出同一种情绪——不跟不行:
如果 DeepMind 不做 Gemini,Google 的搜索业务会被 ChatGPT 瓦解;
如果 Google 的搜索业务被瓦解,DeepMind 就拿不到训练 AlphaFold 下一代所需要的算力;
如果拿不到算力,他一辈子想做的"用 AI 攻克疾病"就做不成;
所以他必须先做一件他并不最相信的事 (堆大模型) ,以此换取做他最相信的事 (攻克疾病) 的资源。
这是一种被锁定的理性。奥特曼制造出来的那种"必须领先否则毁灭"的叙事,不但锁定了投资人和公众,也锁定了真正的科学家。哈萨比斯成了一个在 scaling 赛道上领跑的诺奖得主,他每一天的最优策略,都与他长期相信的最优路径相悖。
在 2026 年 4 月的一次访谈里,主持人问他这条路的极限在哪里,他罕见地停顿了很久,然后说了一段意思接近这样的话:我们 2010 年创立 DeepMind 的时候,设想的是一条用神经科学启发、专业化、一层一层搭上去的路径。现在走的是另一条路。有一些能力确实出来了,但代价巨大,而且最关键的那些能力——真正的规划、真正的创造力、持续学习——可能不在这条路的延长线上。
他没有直接说"我们走错了"。他用了一个更科学家式的表达——“关键的能力可能不在这条路的延长线上”。翻译成直白的话就是:这条路走到头,也不是 AGI;我们在错误的山上拼命登顶。
但现实是,山已经在登了,产业已经在烧了,几千亿美元已经扔下去了,全球电网已经开始告急——没有一个玩家有能力单独下车,也没有一个玩家有能力改变方向。
这是本轮 AI 革命最深的一层结构性困境:一旦方向被讲故事的人定下,所有人都只能在同一个方向上比谁跑得更快。
物理的天花板:能源跟不上算力
这条路线还有一个更硬且更近的边界——物理。
算力侧已经跑疯了。过去十年最先进模型所用的训练算力大约每三四个月翻一倍——比摩尔定律快七倍;过去三年推理侧又叠上一条更陡的曲线,Agent 一旦铺开,单次任务的 token 消耗从几百跳到上万。每一个被 AI 接管的工作流程,都会把原来一次次的 Google 搜索,换成每秒钟几万 token 的推理流。
能源侧却还是线性的。国际能源署 2025 年的报告给出了一个被全球反复引用的判断:到 2030 年,全球数据中心耗电量将从目前的水平翻倍以上,相当于整个日本的年用电量。美国东部的 PJM 电网——覆盖 13 个州、6500 万人口——在 2026 年初第一次没能凑齐电力容量,不得不紧急寻找相当于十几座核电站的新增电力;北弗吉尼亚那个全球最大的数据中心集群,接入电网排队时间已经从两三年拖到了六七年。奥特曼和马斯克这两年频繁谈"核聚变"和"太空数据中心"——不是情怀,是因为地球上的电已经不够用了,他们需要把这两个故事继续讲下去,投资人才会继续烧钱。
很多人会说:美国缺电没关系,中国能源充裕,我们能赢。这个判断对了一半。
对的一半:中国的电力结构确实更健康。2024 年中国新增的风光装机超过全球其他地区之和;2025 年开工的雅鲁藏布江下游水电工程装机达到 60 GW 级别——年发电量超过三峡的三倍,相当于一次性多出几十座核电站,国内舆论普遍把它解读为"为未来 AI 算力准备的清洁底牌"。
不对的另一半:即便如此,如果我们把"堆大模型"当作终局,这场账还是算不过来。原因很简单——算力需求是指数增长的,能源供给是线性增长的。雅下水电站要到 2033 年才会全部建成,而按当前算力几个月翻一倍的节奏,这 60 GW 很可能在 2033 年之前就被几个一线城市的 AI 集群消化殆尽。哪怕加上中国所有在建的光伏、风电、核电、抽水蓄能,每年新增几百 GW 装机的速度,也追不上 Agent 全面普及之后的算力胃口。
一个指数函数和一个线性函数,谁先追上谁?指数函数永远会追上线性函数。这不是东西方差距的问题,是数学和物理的问题。
更进一步的是杰文斯悖论——单位成本下降 ≠ 总消耗下降。单位 token 价格三年降了一千倍,全球总支出反而翻了几倍,意味着总消耗暴涨了几个数量级。每一次推理变便宜,都会打开一整类新的应用场景;每便宜一级,需求就涨十级。等到每个人都有一个随身 AI 助理、每个岗位都有一堆 Agent 在后台跑,人均推理消耗会比今天高几个数量级。
这是这条路真正的边界:物理极限在逼近,叙事动能还在加速。不是算法突破不了,而是电力跟不上。电价、数据中心成本、训练代价,都会先暴涨。最后只有极少数玩家能继续玩下去。
代价被谁承担:一条极度不平等的供应链
能源之外,还有人。这条路的代价,从来不只是从电网里拿走的瓦特,还有从最弱势人群和最弱势地区身上转移过来的时间与资源。支撑 AI 帝国繁荣的两种燃料,一种是电,一种是人。
凯伦·郝在《AI 帝国》里花了接近一半的篇幅走这条"被遮蔽的供应链"——从内罗毕的数据标注工厂,到菲律宾、委内瑞拉、哥伦比亚的内容审核中心,到智利圣地亚哥的水资源听证会,到乌拉圭首都的抗议现场。她借斯坦福一位研究员的话点题:
“不要问 AI 如何行善,要问 AI 如何改变了权力格局?它是巩固了权力,还是重新分配了权力?”
先讲一个你每天都在用、但可能从没想过是怎么来的细节。
ChatGPT 让你觉得它"干净、聪明、有礼貌",不是因为它天生如此,而是因为有人在你看不见的地方,替你先把最阴暗的东西看完了。
2021 到 2022 年间,OpenAI 把 ChatGPT 训练中最脏的那一部分——识别暴力、仇恨言论、极端内容、自杀教唆——外包给了一家名叫 Sama 的公司,位于肯尼亚首都内罗毕。标注工时薪 1.3 到 2 美元,OpenAI 支付给 Sama 的合同价格是每小时 12.5 美元,中间 10 美元的差价大部分被管理费和中间商吃掉。工人每天要阅读上百条黑暗内容片段,很多人被诊断出创伤后应激障碍。2023 年,两名前员工向肯尼亚议会请愿要求调查 OpenAI 对工人的用工方式。工会代表的说法是——这种合同"比现代奴隶制还糟"。
这只是冰山一角。类似的隐形劳动力军团遍布菲律宾、委内瑞拉、印度、巴基斯坦、乌干达。他们的时薪可能不够一顿饭,但他们训练出来的模型,让 OpenAI 估值冲到上千亿美元。
更值得注意的是——这些标注工人为了活命训练出来的 AI,未来会反过来把他们自己的工作抹掉:呼叫中心、翻译、初级客服、文字审核,这些正是发展中国家过去二十年辛苦积攒的中产阶级入口岗位。肯尼亚《国家报》一篇社论的标题很令人唏嘘:“我们正在教会 AI,如何让自己的孩子失业。”
再说水。大型 AI 数据中心除了烧电,还烧水——靠蒸发冷却来降温。一个百兆瓦级的数据中心,每天蒸发的淡水相当于一座一万人小城的居民日用水。
2019 年,Google 宣布要在智利圣地亚哥建一座两亿美元的数据中心,每年耗水量相当于当地社区年用水量的一千倍,直接接入市政自来水。问题是,智利正在经历近千年来最严重的中部干旱,水库蓄水跌到历史均值的两成。一边是居民冲马桶都要定量,一边是 GPU 集群 24 小时用饮用水冷却。
当地居民告到环境法庭,告到国家总统办公室,前后打了整整五年。2024 年智利环境法庭要求 Google 重新评估对主要含水层的影响,Google 宣布项目暂停;2026 年 4 月最新报道确认——原方案正式作废,整个项目推倒重来。
几乎同一时间,乌拉圭首都爆发了类似抗议。2023 年乌拉圭遭遇七十四年来最严重干旱,首都自来水咸到不能喝,居民在街头喊出的口号非常直接:“This is not drought, this is pillage.” (这不是干旱,这是抢劫。)
拉美、北非、东南亚——类似的居民抗争至少发生了几十起。这些地方的共同特征是:气候干旱、土地和电力便宜、地方政府渴求外资、监管流程可以绕。对外宣传永远是"创造就业"——但一座数据中心建成后,常规运营岗位只有几十到一百人,大多数还是高技能岗位,本地居民根本得不到。
这是 AI 帝国对发展中国家最典型的互动方式:承诺未来,拿走现在;承诺就业,拿走饮水。
可能有人会问:看见这些做什么?我们普通人又帮不了内罗毕的标注工,也解决不了智利的缺水。
原因很简单——这条供应链,就是这条 AGI 路线的地基,某种意义上也是中美技术差距的源头。
如果我们不看见那些凌晨三点在内罗毕加班的年轻人,就会以为 ChatGPT 的"礼貌"是免费的;如果我们不看见圣地亚哥居民打了五年的官司,就会以为云服务是无代价的;如果我们不看见戈壁滩上数据中心旁边依旧偶尔拉闸限电的村庄,就会以为 AI 的环境成本可以被"碳积分"抵消掉。当代价被隐藏,决策就会继续出错。
奥特曼敢说"AGI 造福全人类",是因为他只把一小部分"全人类"当作人,剩下的那部分被当作生产资料;他敢说"AI 会创造足够财富给所有人分 UBI",是因为他只计算硅谷这端的利润,不计算供应链另一端的损失。一旦代价被全景摊开,这个故事是讲不下去的。
还有一层更直接的关系——今天被转嫁到最弱势地区的代价,明天就会以新的形式转嫁过来。标注工人的低薪、被抽干的水资源、被过载的电网,这些不是"别人家的事"。它们是这条路线先在最软弱的地方完成的压力测试。下一步一定会推到我们自己这里——
你的孩子可能成为"中产标注工",一边被 AI 管理,一边给下一代 AI 打标签;
你所在的城市可能开始讨论"数据中心优先用水"还是"居民优先用水";
你的电费账单可能因为邻近算力集群扩容而悄悄翻倍。
看见别人的今天,就是看见自己的明天。
UBI 为什么兜不住
奥特曼和马斯克给的解法是什么?全民基本收入 (UBI) 。AI 会创造巨量财富,通过 UBI 重新分配;大家不需要工作就能体面生活,释放出来的时间用来创作、陪伴、自我实现。听起来很美好。
但经济学上这个故事基本讲不通。
第一层:钱从哪里来?
奥特曼的答案是"对 AI 公司征 AGI 税"。听起来合理,但 AI 利润集中在几家公司手里,这些公司都有极强的跨境避税能力——爱尔兰、新加坡、瑞士、开曼随便走。更关键的是,在大国地缘竞争的格局下,美国政府真的敢对 OpenAI、NVIDIA 这种"国家战略资产"动大刀吗?一旦真要征,公司立刻可以威胁"搬到更友好的辖区"。所谓 AGI 税,本质上更像一个讲给公众听的故事。
第二层:实证结果是什么?
奥特曼自己投资的 OpenResearch 项目给一千个低收入美国人每月发一千美元、发了三年,2024 年公布的结果是:收钱的人短期幸福感有改善,但工作时间下降、储蓄率和长期收入与对照组没有显著差异。有人公开批评说:“这个实验根本不是 UBI 的测试,声称它是的人要么误解,要么误导。”——因为它根本没有模拟 AGI 假设的大规模失业场景。
现实是:UBI 能让贫困人群活得稍微舒服一点,但无法解决"大量中产阶级认知能力被 AI 覆盖之后的意义崩塌"。人不是只需要钱,人需要工作带来的意义感、认同感、社交网络、人生节奏。 一个 40 岁的前金融分析师发现自己十几年的专业积累被一个模型两秒钟完全覆盖,他的痛苦不是每月一千美元能解决的。
第三层:两极分化会加剧,不会缓解。
之前说了,AI 的成本端被转嫁给最弱势的国家和人群。同样的结构,也会在每一个国家内部复制。AI 财富会长成一座极陡的金字塔——顶端是少数模型公司 + 上游芯片 + 超大云厂,中段是少数跨学科顶尖人才,底端是被压到生存线的标注和审核工,最底端是被完全替代又没有技能迁移路径的人,靠 UBI 勉强生存。
AI 正在把知识生产、资源聚集、社会影响力,以前所未有的速度集中到极少数人手里。UBI 在这种格局里的真实功能,很可能不是"分享财富",而是"维持秩序"——让被替代的大多数人有饭吃、不造反,以便顶端的少数继续安心占有 AI 带来的超额利润。
奥特曼家门口的燃烧瓶,只是这种秩序失衡最早的回声之一。
人类社会当然有缓冲机制——法律与监管、工会与劳动保护、人机协同设计、税收再分配,这些都有意义。但要清醒:这些只能延缓替代曲线的斜率,不能反转它。一旦 AGI 具备"通用认知能力"这一特征,它和过去所有技术都不一样——过去所有技术都只替代人的某一项能力,人可以通过学习新能力来规避。而 AGI 替代的是"学习和使用能力的能力本身"。
这是人类第一次面临"能力天花板"的革命。
一个普通家长用 AI做了一件事
能源、供应链、UBI 这几道关,普通人一个都卡不住。那我们到底还能做什么?
关于教育本身该怎么改、孩子该学什么——我在另一篇《AI 时代,教育何往》里已经讲得比较清楚了,这里就不重复。 这两篇文章的核心结论只有一句:UBI 救不了你,监管救不了你。能救你和你孩子的,只有教育——而且不能完全依靠今天的公立教育系统。
我想讲我自己最近两周做的一件小事。
我没有学过教育,也没有任何 K12 行业经验,更关键的是——我一句代码也不会写。我只是一个普通家长,和绝大多数读到这里的你一样,担心孩子的未来,又觉得学校教的东西跟 AI 时代有点脱节。
两周前,我开始在业余时间用 workbuddy 做一件很笨的事:想把可汗学院那种"一人一课表、一人一节奏"的体验,搬到自家客厅里来。
两周后——
100 多门课件已经做出来了,做课能力涉及 K12 新课标和国际课程的十来个学科,基本全部上千个知识点;
每一门课都不是 AI 随手堆出来的"知识点罗列",而是一个符合教学科学的完整互动课件——有 ABT 叙事结构、三级脚手架、逐选项错因诊断、Canvas 仿真、拖拽实验,有音频、视频、动画、地图、交互……;
单节课的制作时间,从"一个普通家长不可能做到",压缩到了可以用 workbuddy 和国产模型十几分钟做出来一个;
所有内容,完全开源在 GitHub 上,家长和老师都可以直接拿走改。
这是一个叫 TeachAny (教我学) 的制作课件的Skill。
仓库:https://github.com/weponusa/teachany
在线浏览:https://weponusa.github.io/teachany/
目标是让任何一个老师、任何一个家长,哪怕不会编程、不是学霸,也能给孩子生成一份接近可汗学院水平的自适应课件。
能做到这件事,不是因为我有什么特别之处,恰恰相反——是因为我什么都不会。我不会写代码,就逼着自己把整个流程做到"一句话到课件"的程度;我没教过书,就只能把几套最经典的学习科学理论 (认知负荷、多媒体学习、ConcepTest、Bloom 分类、脚手架、ABT 叙事) 全部塞进 Skill 里,让 AI 去操作。这些原本是高校教育学博士才摸得清的东西,现在被打包成一份任何家长都能直接调用的工作流。
它的工作方式大概是这样:
围绕任何一个孩子感兴趣的主题或卡住的问题,自动搭一条坡度合适的学习路径。不用按部就班按学段攻坚,也不用被考试打断节奏——孩子今天对黑洞感兴趣,就顺着黑洞这条线搭一整段天体物理;明天想搞清楚"配方法为什么刚好等于顶点式",就从几何直觉、代数推导、通用公式三个角度一层层讲进去。
用故事、游戏化、真实仿真把内容包住。每一节都有小剧情、小关卡、小挑战,把"学习"伪装成"玩",把"反馈"伪装成"闯关"。孩子愿意自己往下走,这一点比任何大道理都值钱。
完全开源,没有订阅,没有广告,不收集孩子数据。不是 App,也不是 SaaS,可以替换课标、加案例、改风格,甚至把家里长辈的故事、本地社区的场景塞进去。
两周,一个家长,一套能持续生产课件的工作流,几万行代码。这件事在一年前是绝对不可能的。 没有大模型的时候,任何一个普通老师或家长要搭这种程度的课件,都需要专业团队和大量经费。现在,一个国内十几块钱一个月的模型、一份开源的 Skill、一台家里现成的电脑,就够了。
TeachAny 是完全开源、完全免费的,所以这不是广告。提它是想说明一件更根本的事——
这条 AGI 之路带来的代价,它自己也在长出应对工具。这大概就是 AGI 这副“毒草”,留给我们的那一剂"解药"。
整整一代教育改革者、个性化学习理论家追了一百年都没实现的"一人一课表、一人一路径",在这一波大模型冲击下,突然变成了一件普通家庭自己就能做成的事。可汗学院原本是精英家庭的奢侈品,现在一个什么都不会的家长花两周,就能把类似的体验装进自家客厅。
但有两件事必须说清楚:
第一,这条路并不适用于每个孩子。 有些孩子天生就需要同伴、需要老师的眼神、需要一整套外部节奏感——自驱学习对他们是反人性的。逼他们走这条路,只会适得其反。这条路只适合那些还保有好奇心、愿意自己动手、家庭愿意花时间陪伴的孩子。大约多少?保守估计不到三成,更可能是一两成。
第二,更大的希望在系统外和系统内的联合。 不是每个家长都得自己搭一份课件——那太累了,大多数家长也没那个时间。更可取的路径是:一批有能力、有意愿的家长和老师先把路探出来,把工具磨出来,把案例写出来,开源出去。然后慢慢地——先是少数学校、少数老师开始用,再是教育主管部门开始鼓励,最后在体制内外形成一种新的默契:学校继续承担底座和社会化的功能,家庭和个体化工具承担节奏和深度。
公立教育系统在 AI 时代很难有足够的反应速度——它的天职从来是规模化和公平,不是速度和个性化,这不是批评老师,是系统性的局限。但在它旁边,完全可能长出一条自适应、开源、家长可以上手、孩子愿意自学的新路径。如果有更多人一起做 TeachAny 这类事——不管用什么名字、什么工具——这一代还有意愿和能力学习的孩子,就能得到学校之内和学校之外足够的支持。
这大概是一个普通家长能做的事。
尾声:我们已经回不去了,但我们还有孩子
最后再回到哈萨比斯。那次访谈的末尾,主持人问他:"你晚上会担心这些事情吗?"他沉默了一会儿,然后说——他给自己留出了每天午夜到凌晨 3 点的时间,用来想这些问题。不是读新闻,不是开会,而是纯粹地想——想智能是什么,想人类该往哪里去。
这个细节很有分量。
我们已经没有办法让时钟倒转、让整个产业换一条路走了。能源会被榨干,算力会逼近物理极限,两极分化会比历史上任何一次都更剧烈——这些大势,不是普通人能左右的。
但这不意味着一切注定。在一个被巨头和能源锁定的世界里,留给个人的变量,主要是教育。
这很难。可能 80% 的孩子跨不过这条能力边界。但至少,对读到这篇文章的你——你还有选择。
2026 年 4 月,教育部明确规定:义务教育学校严禁设立或变相设立重点班、快慢班和实验班,全面实施均衡分班、随机分班,严禁入学考试分班。政策方向是对的——义务教育回归普惠和公平,正式放弃那套靠刷题把孩子一层层筛下去的选拔逻辑。
但这件事还有它的另一面:当学校不再替你筛、不再替你分层、不再替你给每个孩子排一条单独的赛道,"因材施教"这四个字,就被悄悄交回到了普通家庭自己手里。
你可以把这看作一种被动的退场,也可以把它看成一次难得的归位——教育本来就不该是流水线的事,它本来就是父母、孩子、老师三方之间,一件很具体、很慢、很个性化的事。
AGI 这条路留下的最关键那张牌,也许不在硅谷的服务器里,而在你自己家的书桌上、你和孩子一起打开的那台电脑上、你们愿意为一个真问题坐下来花整整一个下午的那段时间里。
这张牌,第一次,真的被交到了普通家庭自己手里。
本文来自微信公众号 “腾讯研究院”(ID:cyberlawrc),作者:王鹏,36氪经授权发布。















