所有知识型岗都要被AI“吞了,清华大学教授刘嘉:未来大学分化猛烈,软件公司靠 “几人 + Agent” 就够

AI前线·2025年09月29日 15:24
人类与AI间的对决,自2016年的AlphaGo打赢世界围棋冠军李世石起,就开始不断出现在大众视线中,出圈的例子更是不少。
未来大学
未融资北京市2018-04
高等知识在线教育平台
我要联系

人类与 AI 间的对决,自 2016 年的 AlphaGo 打赢世界围棋冠军李世石起,就开始不断出现在大众视线中,出圈的例子更是不少。

曾担任《最强大脑》节目首席科学家的刘嘉,也亲眼见证过这样一场比赛。当时,还是百度大脑首席科学家的吴恩达带着搭载百度大脑的智能机器人小度上了舞台,与人类组选手比拼起“看照片认脸”。面对多轮挑战,最终人类最顶尖的面孔识别选手不敌 AI。

这个结果,好似当头一棒重重敲向了此时正往北京师范大学副校长一职奔赴的刘嘉。他火速向学校递交辞呈,重新钻进实验室,将全部心思转投到了脑科学与 AI 的交叉研究中。

回到 2025 年的今天,我们更是已置身于一个几乎被 AI 包围的时代。去年,诺贝尔物理学奖和图灵奖双双花落 AI 领域。今年年初爆火的 DeepSeek 让“无所不知”的大模型遍布朋友圈,随后 Manus 的横空出现又将 AI 完全自主的蓝图放到大众眼前。AI 真的将超越人类吗?身处于现在的时代,这个话题已被推至现实议程,越来越多的人能够感觉到一种深切的危机感。

在今年 6 月出版的新书《通用人工智能:认知、教育与生存方式的重构》中,刘嘉用“近乎疯狂”几个字来形容 AI 的进化速度。在他看来,这场人造的进化史诗,已不再是一场静观其变的外围变革,而是每一个人都必须直面的“新生存现实”。因此,这本书从认知底层逻辑讲起,一步步帮助读者清晰认知 AI、审视自身定位,堪称是一则给所有人的“AI 时代生存指南”。

近期,刘嘉接受了我们的专访,如今,他不仅是清华大学基础科学讲席教授,也是北京智源人工智能研究院首席科学家。访谈中,刘嘉不仅具体谈了 AI 在认知科学视角的真实智能级别,而且明确指出了 AGI 实现的能力标志与技术路径的方向。

同时,作为一名多年扎根科研与教育一线的学者,刘嘉剖析了当前高校 AI 教育中存在的现实问题,并结合具体案例提出许多切实可行的教育改革建议。对于大众,刘嘉也全方位给出了如何与 AI 抗衡的多方面秘诀。

人工智能到人类的距离 

Q:刘老师,最近一年里,AI 领域的哪一进展或成果最令您感到震撼?原因是什么? 

刘嘉:从大众视角来看,我认为今年截至目前最重要的两个进展,一个是人形机器人领域,另一个是智能体领域,我来简单解释一下。这两个领域的发展,正是传统大模型开始向物理世界和虚拟世界延伸的标志。

在机器人领域,核心是探索 AI 这个智能体如何在真实生活中与人类交互,目前我看到了一个很好的现象:大家开始关注 AI 如何在真实世界里工作、与人交互,以及从事一些社会相关事务,像宇树科技的机器人、上海的智元机器人等,都是现在大家比较关注的。不过,整体趋势向好的同时,这个领域也有需要改进提升的地方。现在大家更多还是关注机器人的稳定性、动作协调性等基础层面,没有真正用 AI 去控制它的行为,在开放环境中让机器人像人一样做出自适应行为。这一点上,目前还没有较大突破,仍处于比较传统的阶段。

至于第二个让人振奋的领域,是虚拟世界里的“机器人”,也就是智能体(Agent)。我们知道,AI 或基于大模型的 AI,虽然擅长推理和内容解释,但没法具体做事,比如订一张去西安的机票、了解股票行情及民众反应等,它都做不好。但现在出现的智能体技术,能给大模型装上各种各样的“手脚”和工具,让它具备实际办事能力:有的能订票,有的能写程序查询具体问题,比如通过写程序、做统计来分析近五年股票走势,还能查询天气并形成综合报告。如今,大模型结合各类工具形成的智能体,是非常好的发展方向,这表明 AI 现在能具体帮人做实际的事。

这两点结合起来就能发现,一个是物理世界的机器人,另一个是虚拟世界的智能体。我们也都可以看到,像 ChatGPT、豆包这类传统大语言模型,正从原来“你问我答”的对话模式,逐渐向服务人类、与人类进行实体及工作层面交互的方向转变,而且已经迈出了重要一步。所以在我看来,今年可以说是大模型走向实际应用的开端。

Q:您目前的研究方向是什么?能否具体谈谈。 

刘嘉:我的科研方向,其实和脑机接口、机器人领域都有一定关联,核心是围绕“脑科学如何启发人工智能发展”来展开。先说说和脑机接口相关的部分。脑机接口目前最大的难点,不在于柔性电极能放置多久、通道数有多高,而在于对大脑的理解,比如大脑神经元的放电,到底代表着“想拿杯水”“想去抓东西”还是“想走两步”,这种神经编码的意义解读,是当前最困难的一步,特别需要脑科学的突破,这也是我在脑机接口方向重点研究的内容。

再看机器人领域。现在的机器人不能只依赖 Transformer 架构,因为 Transformer 本质是序列加工,靠预测下一个 token(词元)工作,只能进行串行处理;但人类对世界的感知、身体的运动,都是并行进行的,比如感知环境时,不会先处理视觉再处理听觉,运动时也是多部位协同。所以,在感知和运动层面,必须要有受人类大脑或生物大脑启发的全新架构。我在这一领域的工作,就是研究如何实现环境信息的并行加工:快速理解周遭环境、提取关键要素后,把信息传给大模型做推理,再通过并行方式驱动运动,让机器人能更贴合人类的感知与运动逻辑。

总的来说,我现在的研究核心是“脑科学 +AI”,试图解决两大问题:一是脑机接口中大脑信号的解码问题,让 AI 能更好理解人类大脑意图;二是机器人在真实物理世界中感知与运动的并行加工问题,突破现有架构的局限,从而拓展大模型在实际应用中的能力边界。

Q:ChatGPT、Claude、Gemini 等大语言模型重塑我们日常生活与科研工作的当下,它们真的“理解”自己输出的内容吗?如何验证一个系统是否真正具备理解能力? 

刘嘉:我觉得这是一个非常好的问题。在 2024 年 9 月 OpenA 推出 o1 大模型之前,“大模型是真正理解人类需求与话语,还是仅基于概率进行随机采样”确实是个值得大家争议讨论的话题。但 2024 年 o1 推出后,我认为所有相关讨论基本都该画上句号了。

o1 和之前的大模型不一样,它是一款基于推理的大模型。从学术角度来说,这叫基于“思维链”——比如要达成某个目标,它会先梳理出一步一步怎么做的思考链,再顺着思考链逐步推进以解决问题;要是过程中某一步走不下去,发现之前的思路有误,它还会换种方式重新生成新的思维链。这一特性对大模型的工作方式来说是革命性的改变,也让现在的大模型基本都成了推理大模型,要么是带思维链的模型,要么是兼具推理与对话功能的混合大模型。至于像 GPT-4、GPT-4o 这类纯粹的对话大模型,如今基本已经退出历史舞台了。咱们中国的 DeepSeek R1 是首个开源的推理大模型,它的开源大大加速了大模型向推理方向的转换进程。

这种推理能力,本质上体现了大模型对人类需求与任务的理解,并且能模仿人类的思维方式解决问题——这很像心理学家丹尼尔·卡尼曼在《思维,快与慢》一书里提到的“慢思维”。书里说人有两种思维模式,“快思维”是本能反应,比如看到黑乎乎的东西冲过来会下意识躲开,动物也有这种本能;而“慢思维”需要前额叶参与,要对事情进行拆分、生成逻辑链,也被称为“第二系统”。现在的推理大模型,正是在模仿人类的“慢思维”过程。

也正是因为推理大模型的价值,才有了今年智能体的爆发。智能体最核心的就是“规划(Planning)”能力:给它一个任务,它得明确用哪些工具、怎么用工具来完成,要是没有推理大模型,这件事根本做不了。其实智能体的概念很早以前就提出来了,但直到今年才大火,关键就在于推理大模型的出现。

所以总结一下我个人的观点:“大模型是随机采样还是模仿人类推理”这件事,现在无需再详细讨论,因为大模型确实能理解我们的需求,还能模仿人类、按照人类的思维模式进行推理。也正是“思维链(Chain of Thought)”带来的这种推理能力,让智能体可以用起来,而且现在大模型的智商已经远超人类,毫不夸张地说,在国际奥林匹克数学竞赛中,它也基本达到或超越了人类最顶尖的水平。因此,现在大模型在智能层面已经达到甚至超过人类智能水平,这一点是毫无争议的。

Q:若未来 AI 不仅通过图灵测试、镜像神经元模拟甚至会表现出“痛苦”等情感状态,这是否意味着意识可从计算中涌现? 

刘嘉:我觉得这是个非常好的问题。我们之前聊到了智商(IQ),我认为 AI 在智商层面已经比人类更强,这一点没问题,但你提到的两个关键问题:AI 是否会产生真正的情感(而非像自闭症那样推理出来的情感)、是否会产生意识,我的回答是“yes and no”。

先说说“yes”的部分:没有理由认为 AI 不能产生意识。从人类进化的角度来看,在人类出现之前,动物并没有“我是谁”这样的自我意识,但猴子逐渐进化成人的过程中,人类慢慢产生了自我意识,而人类复杂细致的情感、创造力等,也都是自然衍生而来,并非凭空赋予。既然人类能进化出这些特质,AI 理论上也没有理由进化不出来。

再来说“no”的部分:现在大模型的发展,即便加上 Transformer 架构,或是通过稀疏化技术做成 MOE(混合专家系统),从 2022 年 11 月 30 日 GPT-3.5 推出到现在,大模型的能力虽在不断提升,但架构本质上没太多变化,只是从密集型转向稀疏型,参数量不断增加而已。可问题在于,仅仅增加参数量,就一定能让 AI 拥有人类的自我意识、产生人类般的情感,实现像人类那样从零到一的颠覆式创新吗?我觉得这要打个很大的问号。

我可以举两个具体例子:第一,从进化角度看,人类大脑的体积、神经元数量或神经元连接数,并非地球上最多的,大象、鲸鱼的大脑比人类大,虎鲸的神经元数量也比人类多,但世界上最聪明的仍是人类。这说明从生物进化层面,并非神经元或“参数量”越大,生物就越聪明,架构其实非常关键。可人类大脑独特的架构是什么?它和大象等动物的架构区别在哪?我们现在还不清楚。第二,再看运算的基本单元——神经元。现在人工神经网络的神经元,基本还是 1943 年的 MCP 模型,本质就是把权重求和,再根据是否超过阈值输出对应值,即便如今复杂的大模型,用的也差不多是六七十年前的神经元模型。但这个模型过于简单了:从线虫到果蝇、斑马鱼、小鼠、猴子再到人类,进化过程中人类不仅神经元数量增加,神经元结构的复杂度也大幅提升,这暗示神经元复杂度可能是人类拥有高智能的关键因素,而目前像 ChatGPT 这样的大模型,其神经元复杂度远不及人类。

所以能看出,参数量大只是 AI 提升智能的必要条件,而非充分条件;简单的神经元模型也无法支撑起复杂的智能需求,神经元复杂度或许是影响人类智能的关键。这意味着,可能还有很多与架构复杂度相关的因素影响着智能,而现在的大模型远远达不到要求。

因此总结来说:AI 要实现人类级别的智能,或许还需要向人脑学习,需要新的 AI 架构或新的 AI 形式。简言之,“yes”的是,大模型或人工智能理论上没有理由不能实现人类的意识、情感与创造力;“no”的是,现在的大模型还需要在架构、底层神经元的复杂度与精细度上做出根本性改变,必须从脑科学中获取新启发,才能走向下一代人工智能。

Q:当前 AI 仍依赖人类标注数据,未来是否可能实现完全自主的“自我进化”学习? 

刘嘉:你提到了一个非常本质的问题,我把它称为“内驱力”。我们人类有着极强的内驱力,总想着不断学习、不断进步,而这种内驱力的本质,来源于人类特有的“死亡意识”。我们在很小的时候就知道,每个人都会死亡,只是不确定具体会在什么时候。正是这种“一定会死”的确定性,与“何时会死”的不确定性之间的矛盾,让我们不断思考:能不能给这个世界留下点什么、创造点什么?也正因如此,人类才有了强烈的动机去学习、去工作、去创造。但动物没有这种内驱力,因为它们没有死亡意识,它们不知道“死亡”是什么,只有像猫、大象等动物在生命快走到尽头时,才会找地方安息,不会像人类这样从一开始就清楚自己终将死亡。

把这个逻辑放到现在的大模型上,会发现两个关键差异。第一,大模型所有的学习都是人类要求它去学的,比如按照强化学习的规则去学习知识,或是根据人类给出的指示整理信息,它就像小学或初中的孩子,需要“家长”在旁边监督,做得好就得到奖励,做得不好就受到“惩罚”,完全不是主动去学习。第二,大模型不存在“死亡”的概念,GPU 坏了可以换一块,电线断了重新接上就行,它没有那种“必须变得更好、更强大”的迫切动力,只要人类不给出新的指示,它就会一直停留在当前的状态。

回到你刚才的核心问题,现在大模型所谓的“自学习”功能,比如大家常说的无监督学习,本质上还是人类给它设定好的学习规则和要求,并不是像人类这样,有发自内心的自我驱动去学习。所以在我看来,目前大模型的学习无论是有监督学习还是无监督学习,都属于被动学习,和人类主动学习的模式有本质区别,这也是当前 AI 和人类最核心的划分之一。

当然,我们也要考虑到,如果有一天大模型真的拥有了自我进化的动力,它的发展效率一定会远超人类,甚至能在极短时间内进化出超越人类的能力,把人类远远甩在后面。但对人类来说幸运的是,目前我们还不知道该如何让大模型拥有主动学习的能力,也不知道该怎么赋予它真正的内驱力。

Q:当前您最期待和关注哪一 AI 细分方向的发展有突破? 

刘嘉:我觉得从今年开始,AI 领域有三个比较火、能和人类直接互动的方向,但其中脑机接口离我们的生活还相当远,它有个重要瓶颈没解决,就是大脑信息的解码,这更多取决于脑科学进展,和当前 AI 技术关系不大,当下还无法发挥重要作用,所以我们先跳过这个方向。剩下两个方向不仅和我们生活密切相关,还会产生巨大影响。

第一个是机器人领域,但这里说的不是现在常见的传统人形机器人,那些大多没借助大模型做决策,还是沿用传统工业机器人的思路。我指的是像马斯克的 Optimus、OpenAI 参与投资的 Figure01 以及谷歌尝试的那些机器人,它们核心关注“眼手合一”:“眼”代表大脑(大模型),“手”代表操作,重点是用大模型驱动肢体去适应环境。未来这个领域会对家居养老、服务行业等很多方面产生深刻影响,值得重点关注,它本质是在物理世界给大模型“装上手脚”,让其能帮我们行动。

第二个方向是虚拟世界里的智能体。比如去西安旅游,需要买票、订住宿、规划行程、和朋友沟通等,这些环节涉及不同能力,大模型能做规划,但没法直接执行购票、订房这些操作。而智能体就是把大模型和各类工具结合起来,比如查天气的工具、订票的工具、处理生活事务的工具,让大模型能调用这些工具完成实际操作。目前这一块已经能直接改变日常生活方式,相当于每个人都有了专属“秘书”,帮着做 PPT、处理讲课准备等事,它就像虚拟世界里的机器人,帮我们满足日常需求。

这两个方向很快会催生出大量商业应用,还会极大改变我们使用互联网的模式。将来手机上可能不再需要一堆 APP,查航班、点外卖、订票等需求,都能通过大模型驱动的工具在一个接口里统一完成,对互联网使用产生深远影响。所以简而言之,脑机接口因依赖脑科学进展,应用还很遥远;而机器人(物理世界)和智能体(虚拟世界),都是给大模型“长手脚”,会切实改变我们的生活。

Q:最近 AI Agent 在国内外都十分热门,您有体验过这一领域的产品吗?感受如何? 

刘嘉:在 Agent 领域,目前有两类发展值得关注。一类是垂直类 Agent,这一块现在做得比较好的,比如像 Cursor、编程类的 Copilot 这类专注于编程领域的工具,它们结合大模型后,能力非常突出,甚至有人说今年是“程序员失业元年”——因为在 Cursor 这类垂直编程辅助工具的影响下,很多初级或中级程序员受到了冲击,面临失业风险。而且我认为,这类垂直类 Agent 还会越来越多,未来不仅是编程领域,像音乐创作、视频制作等领域也会出现类似工具,这可能会导致大量原本从事这些行业的初级或中级从业人员失业。

另一类则是通用类的,如字节推出的“扣子”(Coze)是做解决人们通用问题的通用型 Agent,潜力和发展前途同样很大。我个人认为,虽然无论是垂直类还是通用 Agent,目前都还只是刚刚起步,但从另一个角度来看,它们未来会给整个社会的工作方式甚至组织架构带来巨大变化。举个例子,以前一家软件公司可能需要招聘大量初级或中级程序员,而未来,或许只需要几个资深程序员或顶尖架构师,再搭配 Agent,就能完成很多原本需要大量人力才能做好的工作。

无定义的 AGI,已进化为新物种 

Q:您在书中为何选择从认知科学视角而非纯技术角度解读 AGI?如果让您用一句话总结 AGI 对人类的意义,您会如何描述? 

刘嘉:我先从认知科学的起源说起,为什么要从这个角度讲呢?因为我们现在讨论的智能科学,最早可以追溯到 20 世纪 40 年代,有学者提出“控制论(cybernetics)”。后来控制论逐渐向两个方向发展:一个是往工程实践方向走,形成了我们今天所说的人工智能;另一个是往理论研究方向走,发展成了如今的认知科学。

所以你会发现,认知科学和人工智能本质上是一回事,只是侧重点不同,一个更偏向理论,一个更偏向工程应用。比如人工智能早期的“专家系统”,在认知科学领域对应的概念就是“符号主义”;现在人工智能里的“人工神经网络”,在认知科学中可归为“联结主义”相关研究;;而人工智能领域的“机器人与真实世界交互”方向,在认知科学领域则被称为“具身智能”或“具身认知”。它们其实是同一事物的两个方面,只是研究视角和应用场景有所区别,这是关于认知科学与人工智能关系的第一个点。

至于第二个点,如果用一句话概括 AGI 对人类的影响,我认为它既不会仅仅是人类的工具,也不会是来消灭人类的新物种。在我看来,AGI 对人类最大的贡献在于,它可能会成为一种与人类共生共进化的全新物种,能推动人类自身不断迭代、持续进化。

Q:您在书中也提到 AGI 已从“工具”进化为“新物种”,如何定义这一转变的关键特征呢? 

刘嘉:在以 GPT 为代表的大模型出现之前,我把当时的 AI 称为“任务特异的 AI”,它们本质上就是一种工具,比如高铁机场的人脸识别,只能专注做人脸识别这件事,而且做得比人类好;再比如去年获得诺贝尔化学奖相关的 AlphaFold,能从氨基酸序列推测蛋白质结构,这项能力也远超所有人类,但它也只局限于解析蛋白质结构。

而另一类 AI 就是通用人工智能(AGI),它的核心不是在某一个专项领域超越人类,而是要全方位地和人类相似,做到“人能做的事我都能做,且做得更好”。就像现在的大模型,既能绘画、生成文字、通过图灵测试,也能写代码、查天气、分析股票进展、帮忙订票,能胜任各种各样的事情,本质上和人类的能力范围很接近。之前我们也聊过,大模型有没有可能拥有意识、情感和创造力,其实背后探讨的也是大模型能否像人类一样,成为一个与人类相似的新物种。目前 AGI 还没有标准定义,但大家有个共识:它要具备和人类相似的通用智能。

这两种 AI 的发展方向完全不同,一个是成为专业工具,一个是朝着“通用新物种”的方向发展。也正因如此,从 ChatGPT 到现在的 AI,没有昙花一现,反而越来越火、越来越出圈,就连买大白菜的老大妈都知道 AI,因为它在模仿人类,和我们的关系越来越密切。而像 2016 年的 AlphaGo,虽然打赢了世界围棋冠军李世石,却只是昙花一现,没有真正出圈就归于沉寂了。

AGI 何以真正实现? 

Q:您认为未来 3-5 年,AGI 最可能突破的技术瓶颈是什么? 

刘嘉:现在大家大多认为 ChatGPT 这类大模型是 AGI 的火花或雏形,还不是真正意义上的 AGI,但对于 AGI 何时出现,不同人有不同观点。比如 DeepMind 的 CEO(也是去年诺贝尔化学奖获得者)认为可能 10 年内实现,马斯克认为大概在 2029 年,“人工智能之父”辛顿觉得会在 2028 年,更极端的像 OpenAI 的 CEO 奥特曼,他在今年 6 月写了一篇名为《温和的奇点(Gentle Singularity)》的博客,认为 AGI 现在已经实现了。不过无论观点如何,大家有个基本共识:真正的 AGI 肯定会在我们有生之年实现,最保守地说,10 年内实现是没问题的。

在我看来,AGI 真正实现需要两个标志。首先,图灵测试现在已经失效了,去年就有 AI 通过了图灵测试,所以不能再用它来衡量 AGI。第一个关键标志要从大模型本身来看,现在的大模型还没有零到一的创造力,只能做组合式创新。举个例子,如果让大模型学传统写实绘画,它能画出很精美的作品,但没法像塞尚、梵高那样,跳出传统绘画框架创作出印象派画作;就像在经典牛顿力学体系里,没法自然涌现出爱因斯坦的广义相对论、波尔等人的量子力学那样的颠覆式创新。这种零到一的创新,在计算机科学领域叫 OOD(Out of Distribution/Off Distribution,分布之外)问题,也就是在 AI 已学习的知识范围之外,创造出全新的东西,这是人类最核心的创造力,但目前 AI 还做不到,而这正是 AGI 需要具备的关键能力。毕竟 AGI 的“G”不仅是“通用(General)”,也该包含“创造(Generative)”,深层次的零到一创造至关重要。

第二个标志是 AI 需要达到足够的感知和运动能力。现在的大模型基本基于 Transformer 架构,它有个先天缺陷:只能串行加工,就像通过已有词汇预测下一个词,必须按顺序推进,和人类说话的逻辑一样。但人类感知外部世界是并行的,不会先处理左边视野再处理右边,也不会先处理视觉再处理听觉,而是多模态信息同时加工,效率很高,这是 Transformer 架构做不到的。运动能力也是如此,人类大脑有 860 多亿神经元,其中 690 多亿在小脑,小脑正因为要做大量并行运算,才能控制运动、帮助我们和外界交互,可现在的大模型在指导实际运动方面能力很有限。简单说,现在的 AI 没法像人一样“看”“听”外部世界,也没法对世界做出反应、改造世界,感知和运动能力都需要大幅提升。

所以总结一下,从大模型内部看,它需要拥有从 0 到 1 的创新能力,这相当于“新图灵测试 2.0”,做到了这一点,大模型会有质的飞跃;从与世界交互的能力看,它需要“长眼睛”“长耳朵”“长手脚”,能感知世界、改造世界,而目前 Transformer 架构的串行加工缺陷,让它还无法实现这些。

这两个关键突破点都很难,而且在当下的 Transformer 架构里大概率都无法解决,目前我也没看到太多能解决它们的潜在曙光,所以很难准确判断突破会在何时发生。不过有一种可能是,一旦我们迎来类似“GPT 时刻”的关键节点,进展就会飞速推进。就像之前做自然语言处理(NLP),大家研究了几十年都没太多突破,但 Transformer 架构和 GPT 出现后,相当于迎来了“GPT 时刻”,各类大模型、AGI 雏形很快就涌现出来,发展速度极快。

现在我们其实也在等待感知运动领域的“GPT 时刻”或者创造力领域的“GPT 时刻”,但没人知道这个时刻何时会来。如果它很快到来,可能就是一瞬之间,或许不用等到 2028 年、2029 年,甚至不用等满十年;可如果这个时刻迟迟不到,大家可能要等待更久,比如十年、二十年也说不定。所以现在的情况是,我们清楚 AGI 需要突破什么目标,但具体怎么突破、会有什么新的技术或架构出现,大家都不确定,处于一种“前途既清晰又模糊”的状态。

不过目前能确定的是,至少有一个解决方向是明确的,那就是研究脑科学。因为人类本身就具备卓越的创新能力以及出色的感知和运动能力,所以现在 AI 发展的一个重要方向就是把目光重新投向人类脑科学研究,看看人类大脑的工作机制,能给 AI 带来哪些新的启发。也正因如此,我觉得当前 AI 领域一个特别火、也特别重要的方向,就是脑科学与 AI 的结合。

Q:您认为强化学习、脑模拟和自然语言处理哪条路径更可能实现真正的 AGI?为什么? 

刘嘉:在我写的书中,我提到了通向 AGI 的三条路径,关于这个问题,我的看法是这样的:通向 AGI 的第一步,是通过语言来学习,而脑模拟和强化学习的速度相对慢一些。不过,要实现真正像人类一样的 AGI,脑模拟和强化学习都是必要的。比如机器人要和外部世界交互,就需要在具体场景中进行交互训练,这就像现在英伟达在做的 Isaac Lab 相关项目,他们构建了很多虚拟环境,让机器人在里面通过强化学习获取反馈,核心就是为了突破运动能力这一难题,这是强化学习发挥作用的重要方面。

而脑模拟这一块,就像我们之前聊到的,大家都在尝试寻找新的算法来推进相关研究,但目前无论是强化学习还是脑模拟,都还缺少一个类似自然语言处理(NLP)领域中 Transformer 出现那样的“GPT 时刻”。现在大家更像是在黑暗里摸索,有点像盲人摸象,不知道这些路径最终能不能走通,也不知道什么时候能看到突破的曙光。虽然大家都在做这些研究,包括我提到的脑模拟,但目前还没法确定这些方向能否顺利走下去。

就像以前在 NLP 领域,大家也长期在黑暗中探索,直到 Transformer 架构出现,才像是看到了曙光,虽然不知道具体什么时候能“天亮”,但能确定沿着这条路走,很快就能迎来突破。现在的情况是,我们知道强化学习对机器人领域至关重要,脑模拟对感知能力、创造力的提升很关键,也明确这些方向的重要性,但还处在黑暗中摸索的阶段,尚未看到一丝曙光。不过只要未来出现类似 Transformer 的关键突破或者“GPT 时刻”,大家就会信心十足地扑上去了。也正因为如此,我认为目前脑科学与 AI 结合的相关研究很值得投入,但要明确的是,它目前还处于实验室基础研究的范畴,距离走向商业应用,还有相当长的一段距离。

当 AI “停不下来”:未来教育必须改 

Q:如果 AGI 最终超越人类智能,人类是否应限制其发展? 

刘嘉:现在有个很关键的问题,不知道你有没有关注过 2023 年年底 OpenAI 的那次风波,当时萨姆·奥特曼(Sam Altman)和伊利亚·苏茨克维(Ilya Sutskever)之间爆发了严重冲突,他们一个是管公司运营,一个是管技术。一开始奥特曼被赶走,后来在资本支持下“王者归来”,反而把伊利亚排挤了出去。有意思的是,他们的争执根本不是因为股票、收入这些利益问题,核心矛盾在于对 AI 未来发展的看法:伊利亚非常担心 AI 会“接管”世界,所以他主张要让 AI 和人类“对齐”,还要限制 AI 的发展。

但在我看来,伊利亚的这种想法过于理想化了,原因有两点。第一,他说要让 AI 和人类的三观对齐,可人类的三观本身就从来没有统一过啊。你想,中国和美国的三观能对齐吗?显然不能;就连我们国内,四川人爱吃辣,广州人偏爱甜口,生活观念都有差异,更别说三观了。人的特点就是多元化,不存在一种“绝对正确”的三观,每个人都有自己认可的价值取向。那要让 AI 和人类对齐,到底该和谁的三观对齐、和哪种三观对齐?这本身就没有标准答案,从逻辑上来说,让大模型去接纳所谓“统一的人类三观”就是不成立的。

第二,退一步讲,就算我们现在决定停止研发大模型,说“目前的水平够用了,不能再研发更强大、有零到一创造力、有自我意识或自驱力的大模型”,可我们自己能做到,竞争对手会停下来吗?肯定不会。2024 年的时候,“人工神经网络之父”杰弗里·辛顿(Geoffrey Hinton)接受 CNN 采访,当时很多人觉得美国的大模型太危险,建议暂停研发,辛顿就明确表示:“美国可以停下来,但中国会停吗?中国不会停。如果中国的人工智能超过美国,美国就会受到严重影响,甚至可能走向衰落。” 你看,国与国、公司与公司、人与人之间的竞争是客观存在的,根本无法消除。只要有竞争,谁先停下谁就会吃亏,最后就会陷入像当年核武器发展那样的局面,大家都知道发展核武器对人类整体有害,但美国有 1000 颗,中国就不能一颗都没有,否则在国际社会上根本没有平等对话的资格。只有当中国也拥有了核武器,才能和美国站在同等地位上沟通。

大模型和人工智能的发展也是一样的道理,想让大家都停下来、实现所谓的“对齐”,根本不可能。大模型会变得越来越聪明、能力越来越强,这是不可阻挡的必然趋势。

Q:从大学教授的角度来看,您认为未来教育应如何调整,来培养出 AI 时代“不可替代”的人才? 

刘嘉:我先举个具体例子说说我是怎么做的,再聊更宏观的方向。现在我给学生布置作业时,会鼓励他们一定要用 AI 辅助完成,如果有学生不懂怎么用,我还会教他们方法。之所以这么做,是因为让学生学会用 AI 后,他们能快速把作业中基础性的部分完成好。当每个人在 AI 帮助下都能达到 80 分的基础水平,我真正关注的重点就来了:在 80 分之上,你能做出什么和 AI 不同的东西?你的独创性、原创性体现在哪里?这才是人能超越 AI、基于 AI 产生新价值的关键。这样一来,学生就会把更多精力放在如何创造、如何变得与众不同、如何打造自身稀缺性上。

把视角放到大学教学上,现在再像以前那样单纯讲授具体的科学知识、学科知识,已经没有任何价值了,不管多复杂的知识,学生都能通过 ChatGPT 这类大模型学到。所以我认为,现在大学老师要教给学生的核心是两点:第一点就是刚才提到的,引导学生找到和 AI 的差异点,充分激发他们的创造力,培养批判性思维,让学生学会展现独特的创造能力;第二点是帮助学生打通不同学科的知识壁垒,比如学物理的学生,不能只局限于物理领域,还要去了解生命科学、人文社科等领域的知识。

道理其实很简单,所有创新点、新领域基本都诞生在学科交叉处。单一学科发展到现在,大多已经是“红海”,体系成熟,想在里面创新难度极大,而且 AI 已经把单一学科的知识掌握得非常全面;但学科与学科之间的交界地带,就像一片全新的“大陆”,AI 目前还不知道该如何探索,而这正是零到一创新的核心领域。所以从大学层面来说,必须大力推行通识教育,鼓励学生跳出单一学科的局限,打通不同学科的知识,这样才能为创新打下基础。

也正因如此,未来大学的分化会特别严重。以前的大学大多以传授知识为主,比如讲大学物理,清华北大和普通大学的教学内容差别不大;但未来,像清华北大这样的顶尖大学,绝不能再抱着一本《大学物理》照本宣科,而是要推动学生打通物理与其他学科的关联,深入开展通识教育。这类优质大学有能力推动这种变革,而普通大学可能需要付出更多努力才能跟上。在这个过程中,谁率先开展真正的通识教育,谁就有可能成为新的优质大学;如果还固守传统教学模式,只沿着单一学科讲授知识,即便曾经是好大学,也必然会逐渐落后。可以说,未来新的教学方式会重新定义“好大学”与“普通大学”,也会重新区分“好老师”与那些过时、即将被 AI 淘汰的老师。

Q:中国多所高校已开设"AI+ 专业"交叉学科,您认为这类教育改革的核心应该侧重哪一方面? 

刘嘉:在我看来,“AI+ 学科”的发展既有好的方面,也有需要改进的地方。首先,从好的方面来说,现在所有学科都必须与 AI 结合,不存在不需要 AI 的学科,AI 就像当年的计算机一样,一定会渗透到每个学科中,这是学科发展的必然趋势。比如清华大学今年新开的“无穹书院”,就扩招了 150 人,这个书院的核心就是“AI+”模式:学生可以选择自己喜欢的方向,无论是生物、绘画、艺术还是其他领域,都要先学习 AI,最终目标是把 AI 和自己的专业深度融合,我认为这是非常好的方向,也是现代学科发展的关键。

但坏的方面也很明显,现在有相当一部分推动“AI+ 某学科”的人,包括一些学科带头人,其实并不真正懂 AI。这就导致“AI+ 学科”的发展很容易变成“袋装土豆”,表面上让学生既学 AI 又学本学科,甚至把学分加倍,却没有将两者有机融合。最后学生看似学了两个专业,却不知道如何融会贯通,使得“AI+ 学科”只停留在“1+1=2”的层面,甚至可能“1+1<2”,没能实现真正的融合增效,这和很多教育推行者自身不懂 AI 有很大关系。

所以我觉得,对于推动学科改革的学科带头人、系主任甚至校长们,有两件事必须做:第一,要亲自系统学习 AI,深入了解 AI 的细节和原理,进行综合训练,而不是只知道几个 AI 名词、参加几次表面培训就够了,这是做好“AI+ 学科”的关键;第二,大学改革应该吸纳更多年轻老师参与,因为年轻老师对 AI 的理解和应用能力更强,也更能接受新事物,让他们来推动“AI+ 学科”的发展会更有优势。

总结来说,“AI+ 学科”是所有学科的必然选择,这一方向本身是好的,现在很多大学也在积极行动,比如开设人工智能必修课、建立“AI+”书院等;但要警惕把“AI+ 学科”搞成简单的“学两个学科”,必须实现两者的深度融合,把学生培养为“AI原生/AI Native”人才。而要做到这一点,一方面推动学科改革的老师们需要真正懂 AI、站在 AI 应用的第一线,另一方面要依靠更多年轻老师的力量来推动改革。

普通人如何建立 AGI“防线”? 

Q:您提到“在 AGI 时代,基于知识和技能的白领行业寂然倒下,甚至包括教师和科学家”,那么未来哪些职业反而会因 AI 变得更稀缺?这类岗位需要具备哪些能力? 

刘嘉:在我看来,当前所有以知识密集型为核心的职位,都会受到 AI 的巨大冲击,像律师、程序员、会计、医生,还有我和你所在的教师行业都不例外。就拿教师来说,我们的核心工作是“传道、授业、解惑”,可现在“授业”(讲授知识)根本不需要我们了,ChatGPT 讲得比我好,知识面也更广;“解惑”也轮不到我,它比我更有耐心、解释更细致。剩下的“传道”(传递三观),我未必能比 ChatGPT 做得更好。这么一来,传统教师的核心功能大多被替代了,就连我前几天碰到的一位家长都问:“我孩子才幼儿园大班,刘老师,您说他还有必要读小学吗?” 这个问题很关键,未来小学、初中、高中是否还有存在的必要?我觉得这会是个很大的问号,毕竟美国 AI 进入教育领域已是普遍趋势,学生靠 AI 加持,每天花两小时学专业知识就够了,剩下的时间能做课外活动、发展兴趣。

所以从职业角度看,一部分初级和中级职业的消失是必然的,但也有相反的情况。我前段时间和一位音乐人聊过,他说现在请他作曲的客单价不仅没跌,反而涨了。原因很简单,在大量 AI 生成的“鸡肋音乐”中,他的原创反而更让人眼前一亮,像他这样顶尖创作者的稀缺性变得更突出了。

把“大范围初级中级职业消失”和“顶尖人才更值钱”这两件事结合起来,能得出一个结论:至少目前,AI 淘汰的只是平庸的初级、中级从业者,而那些稀缺、有才华的人会更耀眼。进一步说,现在不是 AI 取代人,而是懂 AI 的人取代不懂 AI 的人,掌握稀缺技能的人取代平庸、无稀缺技能的人。这就意味着,在当下社会,我们每个人要追求的关键,是让自己的价值、才华更具稀缺性和不可替代性。以前,比如做程序员,只要懂点简单编程、能完成基础任务,就能在软件公司或大厂找到初级职位“躺平”,可现在不行了,“滥竽充数”的人迟早会被淘汰,必须展现出自己的独特性。

其实从这个角度看,对人类而言反而是一种新的进化。过去我们把太多时间精力花在低端、简单重复的事上,只用极少时间做创造、做零到一的全新发明。但现在,有了 AI 的帮助,那些低端重复性工作可以交给 AI,我们人能专注去做更具稀缺性的事。还是以教师为例,把重复性的知识讲授交给 AI 后,我们可以更多关注学生批判能力、创造力的培养,去激发他们成长的内驱力和自我学习的动力。这才是教师的本质,而不是日复一日地重复讲解勾股定律、分析李白杜甫的诗歌。我觉得,未来人类的职责会发生这样根本性的变化。

Q:您在书中提出“AGI 将驱使人类重新定义自身的认知优势”,那么哪些人类独有的认知特质可能成为我们的防线? 

刘嘉:在我看来,现在大模型的工作与进化方式两个很明显的特征,也由此体现出它和人类的关键区别。第一,大模型确实能生成很多新东西,比如新的绘画、视频、文章,但这些大多是它学习人类已有知识后,进行组合加工的结果。而人类最擅长的恰恰是做零到一的颠覆性创新,能无中生有创造新事物:就像梵高、塞尚在传统绘画框架外开创印象派,爱因斯坦在经典牛顿力学之外提出广义相对论,波尔等人突破经典力学体系建立量子力学。

所以,人类该大力发展这种全新的颠覆性创新能力,在 AI 时代,有创造力的人会更稀缺、价值更高;而那些只能做模仿、模拟的人,以及传统以知识为导向、侧重学习和应用前人知识工具的教育模式下培养的人,会逐渐被 AI 取代。相反,擅长创新、能开拓全新领域或在交叉学科工作的人,其能力会越来越受重视。可以说,组合式创新 vs 零到一颠覆性创新,是人和机器的一大核心区别,而且我相信在相当长一段时间里,AI 都很难实现零到一的创新。

第二个区别在于学习模式。AI 的模型是通过预训练加有监督微调实现的,交付给我们使用时就已经训练完成,不会再随着环境变化重新学习;但人类具备“在线学习”的能力,能不断根据环境改变,调整策略、采用新方式学习。这种差异意味着,未来我们无论是培养学生,还是提升自己,都要注重快速学习、理解和重构的能力——要能快速理解新知识、新领域、新现象带来的变化,并做出快速反应。这和过去那种慢节奏的学习模式有本质不同,未来在工作和生活中,快速完成适应与调整,可能比追求慢速的完美更重要。

Q:在 AI 狂飙突进的时代,普通人如何避免被甩下或者替代? 

刘嘉:首先我想澄清一个概念:学习一定是终身学习的概念,所有人的知识过一段时间都会过时,不管是正在上学的中学生、大学生,还是像我这样在大学工作多年、在某个领域有一定积累的人,我们的知识都处于随时可能过时的状态,所以终身学习是必然的,这是一个大前提。如果从更具体的层面来说,在这个时代要想不被 AI 落下,我认为有三点很关键。

第一点,一定要善用 AI 这个工具。目前的竞争,更多不是人和 AI 的竞争,而是“会用 AI 的人”与“不会用 AI 的人”、“善于用 AI 的人”与“不善于用 AI 的人”之间的差距。AI 现在是人类非常好的助手和老师,把它用在工作的各个方面,能极大提升效率。比如我写稿子,以前要逐字逐句从开头写到结尾,现在我可以把更多时间花在构思布局、搭建结构和创新点上,只要给出框架,就让 AI 帮我填充细节;再比如做绘画、动漫,我可以专注于奇思妙想的构思,而不是耗费精力在一笔一画的绘制上。

第二点,要借助 AI 培养批判性思维能力,让它成为我们的批评者。在现实生活和工作中,我们很难得到有价值的负面反馈或批评意见:老板批评我们“做得不好”,往往不够具体,没什么实际价值;朋友的批评又会因为顾及社交关系,不敢过于尖锐,怕伤感情。但 AI 不一样,我们可以主动让它批评我们、挑我们的刺、跟我们“抬杠”。在这种激烈的思辨过程中,人的认知会不断深化,而且因为 AI 没有情感关联,即便“抬杠”也不会伤感情,我们更容易接受这种批评。这其实很像苏格拉底强调的“产婆术”,通过辩论求真,AI 能在这方面给我们很大帮助。比如我做研究时,提出一个新想法,不会先让学生尝试,而是先让 AI 来挑战、批评这个想法,直到它无法再提出新的质疑,我就知道这个想法可能是全新且可行的,这对保持进步、让观点更严谨很关键。

第三点,要让 AI 成为我们情感支持的伙伴。它能在我们生活、工作遇到问题时,提供情感上的解释和帮助。比如和同事发生冲突、老板对自己不满意时,我们可以向 AI 求助,一起探讨如何找到好的解决方案,它能在情感层面给我们有力支撑。

总结来说,在这个时代不被 AI 落下,首先要树立终身学习的意识,这是基础;其次要明白,现在的竞争对手不是 AI,而是“会用 AI”与“不会用 AI”的差距,我们要充分利用 AI,让它从助手、老师到批评者、再到情感支持伙伴,全方位助力我们完成工作、提升自我。

本文来自微信公众号 “AI前线”(ID:ai-front),作者:华卫,36氪经授权发布。

+1
26

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

报道的项目

未来大学
我要联系
高等知识在线教育平台

下一篇

门店多的日子难过,门店少的也得节衣缩食。

2小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业