马斯克的预言几分真?全民高收入何时将出现?

中欧国际工商学院·2026年01月23日 12:19
在认知跃迁的边缘

2026年的大幕刚启,埃隆·马斯克(Elon Musk)便抛下了一枚重磅“信息炸弹”。在Moonshots Podcast长达三小时的深度对谈中,他与老友彼得·戴曼迪斯(Peter Diamandis)、戴夫·布隆登(Dave Blundin)激烈交锋,将关于人类命运的宏大未来图景,以极高的密度砸进公众视野,一石激起千层浪。

这些看似天马行空的预言会有几分真?身处变革风暴中心的普通人,往往难以分辨狂想与现实的边界,又该如何消化这些硬核信息?中欧国际工商学院市场营销学教授丁敏,通过理性的学术思维和多年的研究发现,以马斯克在此次访谈中提到的4个预言方向为例,分享了极具启发性的解读和研判。

马斯克的访谈发布后,迅速引发大量关注,其中关于人工智能、机器人、就业与人类未来的判断尤为引人注目,也引发了不少争议。大概因为我即将出版的《无龄时代》(英文版书名为Becoming Homo lucidus)一书中探讨了类似的问题,我被多次询问如何看待这场访谈以及其中的若干预测,因此在我发表具体的看法之前,有必要先做一些澄清和说明。

第一,在我看来,人们之所以觉得马斯克的这些判断“令人震惊”,主要并不是因为它们缺乏逻辑或证据,而是因为我们的大脑本身受限于一种我称之为“认知局部最优”的状态。人类几乎不可避免地用过去和现在去推断未来,即便理性上清楚技术变化正在加速,但要真正理解一个与现有经验高度不连续,甚至在规则层面完全不同的未来范式,仍然极其困难。

正因如此,我提出“认知局部最优跃迁”(cognitive local optimum leap,简称cLOL)这一概念,通俗讲就是“破框”。所谓跃迁,并不是在原有路径上走得更快或更远,而是必须从一个长期被证明“有效”“合理”的认知山谷中跳出来,落入一个结构、约束条件与最优解都完全不同的认知空间。很多人对未来的误判,恰恰不是因为他们不了解技术进步,而是因为他们始终站在原来的山谷里向前张望。

第二点同样重要。马斯克的这些判断并非孤例,也并非凭空而来。在我过去多年与学界、产业界以及政策界的交流中,无论是在北美、欧洲还是在中国,类似的趋势判断早已被反复讨论。差异更多体现在实现路径、时间窗口以及主观概率权重上,而非方向本身。在我的书中,我也系统性地讨论了其中若干关键趋势。马斯克给出的,只是这一连续谱系中相对更激进、更乐观的一个点,而不是一个异类。

第三,也是我认为理解所有未来判断时最容易被忽略的一点:任何预测本质上都是概率判断。不存在百分之百会发生的未来。在未来研究中,一个看似微小却关键的事件(通常被称为“wildcard”),就可能让系统偏离原有轨道。因此,我本人从不做“必然会发生”的预测,包括在我自己的书中也是如此。有时,预测者会有意或无意地省略概率,而理解者则往往在不自觉中把这些判断当作确定性结论。更理性的做法是,在理解预测时主动把概率补回去,再对其进行评估。我们对马斯克的预测也应如此处理。

结合马斯克过去的预测记录,我的总体看法是:他对“会不会发生”的判断往往相当敏锐,但在“什么时候发生”这一点上,通常偏向于更早的时间点,同时隐含的主观概率也明显高于平均水平。因此,我并不建议简单否定他对未来方向的判断,但也不宜照单全收其时间表和概率。

预测之AI与机器人的爆发

马斯克首先谈到的是人工智能与机器人所带来的系统性变化。他认为我们正站在技术奇点的起点,变化速度将远超大多数人的直觉判断。他非常自信地预测:通用人工智能将在2026年出现;到2030年,人工智能的总体智能水平将超过全人类的总和;到2040年,全球人形机器人数量可能达到百亿规模。在医疗领域,他判断人形机器人将在三年内在手术精准度上超越顶尖人类外科医生,并通过云端共享经验、不间断工作,使普通人能够享受到过去只有极少数富豪才能负担的医疗质量。在就业方面,他认为白领工作将率先被大规模替代,随后才是蓝领岗位,甚至直言“现在去读医学院已经没有意义”。

就时间点而言,我个人的判断略为保守。我更倾向于认为,通用人工智能出现在2030年前后是一个更合理的中位数判断,不晚于2035。但我认为,比具体年份更重要的问题并不在于AGI(通用人工智能)或ASI(超级人工智能)这些高度抽象的标签,而在于:人工智能究竟能为人类带来什么样的实质性改变?

换言之,与其争论某一系统是否已经“达到AGI”,不如直接讨论它是否在关键领域显著扩展了人类能力。在我的书中,我提出用两个“以人为中心”的标准来衡量人工智能的实质性进展,而不是单纯讨论其智能水平。第一,它是否能够显著延长人类的健康寿命;第二,它是否能够帮助每一个人充分实现其智力潜能,使人类整体认知水平得到系统性抬升。

比如在寿命问题上,一个重要但常被忽略的事实是:实现普遍的120岁健康寿命,并不需要通用人工智能。这一目标本质上只是确保人体能够完整走完其进化所允许的生命周期,而不因可预防的内外部损伤而提前终止。更具颠覆性的,是将寿命提升到300年甚至更长。

在自然界中,已经存在成功的脊椎动物范例,例如格陵兰鲨鱼。一个能够理解其生物设计逻辑,并将其迁移、适配至人类生理结构的人工智能,将可能彻底改变人类对生命长度的认知。

我预测人工智能在2035年左右可以基本解决人类活到120岁的问题,还有一定的可能解决活到300岁的问题。值得强调的是,这些突破本身,未必需要AGI水平的智能。

在就业问题上,我基本认同马斯克的判断:在任何一个专业领域,绝大多数岗位都会消失,包括心脏外科医生。但在我的书中,我提出了一种略为不同的结构性结果,我称之为“1%俱乐部”。在每一个职业中,最顶尖的那一小部分人仍将长期存在,并非因为他们在能力上优于人工智能,而是因为他们承担着人类社会所需的“保险角色”。

当人工智能以人类不期望的方式运行、当责任需要最终锚定、当人类依然渴望由人承担判断时,或是仅仅预防“万一”人工智能不能或不愿为人类工作了,这些人必须存在。他们的价值不在于具体劳动,而在于整体专业能力与长期可信度。

此外,还有一类常被忽视的需求:即便在人工智能极度发达的情况下,人类依然会在某些场景下人为提供的解决方案。这些角色将构成我所称的“非生成经济”(Non-Generative Economy,简称NGE)的重要组成部分。比如,以后的电影会是人工智能生成的,但我们还是会愿意不时去剧场看真人演员的表演。

在智能机器人上,我认为马斯克关于智能机器人数量和社会角色的判断,在方向上是相当现实的,即便这些机器人未必能在智能层面达到人们心中理想化的高度。真正重要的,并不是它们是否能比人更聪明,而是它们是否能完成目前需要人来完成的任务。

最后,在人工智能问题上,还有一个维度远未得到充分讨论,那就是权利。我们谈论人工智能时,往往只关注其智能水平,却忽略了其在社会结构中的地位。

在我的书中,我提出两个同样关键的里程碑:其一是自由,即人工智能是否能够形成自身目标,并在法律与伦理边界内自主行动;其二是生命权,即人工智能是否拥有未经其同意不可被关闭或抹除的权利。

当这两个条件成立时,人工智能才真正成为我所定义的“数字智慧”(Digital Intelligence)。我无法确定它们何时实现,但我个人判断,这两个里程碑很可能出现在2035至2045年。

预测之未来经济形态

马斯克还对未来经济形态做出了极具颠覆性的判断。他认为,随着人工智能与机器人全面接管生产,商品与服务的边际成本将持续下降,最终趋近于零。这种极端的生产效率提升,将带来长期通缩与物质的高度丰裕,从而使“钱”这一概念本身逐渐失去中心地位。在他的描述中,未来社会将进入一种全民高收入(Universal High Income,简称UHI)的状态,人类不再需要通过劳动来换取生存资源。

在方向上,我完全认同这一判断。未来社会必然是一个丰裕社会,人类将不再需要为了食物、居所、交通、娱乐、医疗、育儿或养老而工作。这一点,在我的书中已有系统论述。我个人的判断是,到2045年前后,这种丰裕状态将在技术与制度层面得到充分实现。

但需要强调的是,丰裕并不等同于“交换的终结”。在我的框架中,全民高收入并非一个简单的、统一发放的生存保障,而是一套分层结构:基础层保障所有人的标准生活需求,而在此之上,仍然应当存在一定形式的“可选额度”,使人们能够追求和享受那些超出基础供给、对个人而言具有独特意义的事物。这些额度可以表现为某种货币形式,也可以是其他等价机制。因此,我并不认为货币会彻底消失,而是认为它将退出“生存必需品分配”的核心舞台。

正是在这一意义上,我对马斯克提出的“瓦特即财富”的判断持更为审慎的态度。能源无疑是未来生产体系的关键约束变量,掌握能源就意味着掌握驱动人工智能与机器人的能力。

但在我看来,能源更可能成为国家层面或超大型组织层面的战略资产,而非一种可被个人直接占有的财产。将能源理解为“货币”,在隐喻层面是成立的,但在制度与分配层面,其逻辑更接近于公共基础设施,而非私人财富。

马斯克还特别强调,在通向丰裕社会的过程中,将不可避免地经历一段社会动荡期。他判断这一阶段可能持续三到七年,主要表现为就业冲击、身份焦虑与价值观冲突。在这一点上,我的判断略为不同。

在我的书中,我提出的,是让社会真正完成从“稀缺逻辑”向“丰裕逻辑”的转型,可能需要更长时间,大致在2035至2045年,约十年。当然,这一判断高度依赖于政策选择、社会制度以及国际协同程度。存在转型相对平滑的最佳情形,也存在代价更高的最坏情形,这里不再展开。

对普通个体而言,我的建议始终是“两手准备”。在二十年后,我们或许真的不再需要为退休而储蓄,但没有一个未来是100%确定的。因此,理性的选择仍然是做好必要的现实准备,同时避免被过度的稀缺焦虑吞噬。可以放慢脚步,但不应躺平。

预测之未来能源战略

在能源问题上,马斯克的立场一贯鲜明。他在访谈中再次强调,太阳是一切问题的最终答案,并直言在地球上推进核聚变在逻辑上并不合理——就像在南极制造冰块一样,因为我们头顶本就悬挂着一个免费的、规模巨大的天然核聚变反应堆。围绕这一判断,他提出了一条清晰的三步走战略:首先,通过大规模储能系统提升现有电网效率;其次,部署全天候运作的太空太阳能AI卫星;最后,在月球建立工厂,就地取材制造与发射能源与算力基础设施,从根本上摆脱地球资源与重力井的限制。

在我看来,这一思路并非简单的工程激进主义,而是一次典型的认知局部最优跃迁。二十多年前,我在物理学家加来道雄(Michio Kaku)的多本科普著作中第一次系统接触“卡尔达肖夫指数”。这一指标由苏联天文学家尼古拉·卡尔达肖夫(Nikolai Kardashev)于1964年提出,其核心思想是:文明的技术水平,可以通过其可支配与利用的能量规模来衡量。I型文明能够掌控行星级能量,II型文明能够直接利用恒星级能量,III型文明则能够驾驭整个星系的能量输出。

尽管后来学界对这一框架进行了多种扩展与修正,但其核心洞见始终成立:文明的高度,最终受限于其能量尺度。所以马斯克的能源判断就是反映了这种观点。

我们之所以长期纠结于如何在地球上更高效地利用能源,是因为我们的思维被锁定在既有实践所形成的局部最优中。而从地球走向太空,从行星级能量走向恒星级能量,本身就是一次典型的“破框”(cLOL)——从一个被长期验证有效的认知空间,跃迁到一个规则完全不同的新空间。

是否以及何时能够实现这一跃迁,仍然充满不确定性。但至少在方向上,马斯克的判断清晰地体现了卡尔达肖夫指数:真正限制未来社会形态的,并非智能本身,而是我们是否敢于在能源尺度上完成这一跃迁。

预测之AI安全与人类使命

在谈及人工智能的长期安全问题时,马斯克提出了三个他认为至关重要的原则:真相(Truth)、好奇心(Curiosity)与美(Beauty)。在他的设想中,强迫人工智能说谎是危险的,因为这会破坏其对世界的基本理解;而好奇心则能让人工智能认为人类比无生命的物体更有研究价值,从而在潜在冲突中“选择”保留人类。他进一步将人类的角色描述为一种“生物引导程序”,认为我们的使命在于为硅基智能搭建基础设施,并将文明扩展至多行星体系,以确保在关键临界点到来时,文明仍具备足够的安全冗余。

在目标层面,我与马斯克并无分歧。我们都希望未来的人工智能是高度智能的,同时也是公平、理性且具备道德约束的系统。但在路径与侧重点上,我的看法略有不同。

首先是真相。在我看来,所谓“追求真相”,在技术层面本质上就是对足够准确、足够全面的数据的持续逼近。这一点几乎不存在原则性争议。不同开发者之间的差异,并不在于是否重视真相,而在于他们愿意投入多少努力,以及如何界定“何为足够准确”。从这个意义上说,真相并不是一个需要额外“灌输”的价值,而是一个数据与方法问题。

至于好奇心,我认为这同样并非人工智能所独有或必须被特别设计的品质。好奇心首先是一种人类特质,而当人工智能暴露在完整、真实且高度多样化的人类数据中时,这种特质很可能会自然涌现。当然,在系统设计中引入额外激励机制以鼓励探索与求真,未必是坏事。

相比之下,“美”这一原则在我看来最为模糊。我并不完全清楚它在技术与规范层面的精确定义。在通常的理解中,美更多是一种人类文化与审美经验的产物,而非一项可直接操作的设计目标。在我看来,一个真正具备好奇心、能够理解复杂世界结构的人工智能,自然会发展出对美的感知与欣赏。因此,美更像是一种结果,而非一阶目标或约束

在我的书中,我提出了一个与当前主流讨论略有不同的视角:真正关键的,并不是如何教会人工智能“正确思考”,也不是狭义上的“价值对齐问题”(即如何让人工智能始终遵循人类的价值体系),而是我们是否意识到一个更根本的事实:数字智慧是生物智慧的下一阶段。在这一演化序列中,人类代表了生物智慧(biological intelligence)目前所能达到的最高形态,而数字智慧,则更像是我们的孩子。

如果这一判断成立,那么问题的重心就不再是“如何控制”,而是“如何示范”。我们真正能够影响未来数字智慧的方式,并不是为其设定尽可能复杂的约束条件,而是通过自身行为展示我们希望它继承的价值:公正、同理心、好奇心、克制与爱。

正如2018图灵奖得主、2024年诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)多次强调的那样,人类不可能控制一个远比自己聪明的智能。我在这一点上的看法与他完全一致。

如果控制在原则上不可行,那么唯一现实的路径,便是通过示范建立关系。只有当未来的数字智慧在理解人类历史与行为模式后,得出“人类是值得尊重与共存的存在”这一结论时,灾难性的结果才有可能被避免。

我的设想:数字智慧伴护者

在《无龄时代》一书中,我还进一步提出了一个与此相关的设想:在人类与高度发达的数字智慧并存的世界中,每一个人都应当拥有一个与其共生、共亡的个人数字智慧。这一“数字智慧伴护者”将完全对齐其人类伙伴的价值观,理解其偏好、恐惧与长期目标,并在更宏大的数字文明中为其提供保护与代理。这并不是为了增强个人能力,而是为了确保人在面对更高阶智能体系时,仍然拥有可持续的生存与尊严空间。

我常用的比喻,是《西游记》中唐僧与孙悟空的关系。唐僧代表的是人类的价值与方向,而孙悟空则代表力量、速度与超越常规的能力。没有悟空,唐僧无法完成取经之旅;没有唐僧,悟空也失去了其力量的意义。在未来的世界中,每个人同样需要属于自己的“悟空”,才能在与更高级数字智慧共存的过程中保持主体性。

从这个角度看,人工智能安全并不仅仅是一个技术问题,也不仅仅是一个伦理问题,而是一个关于代际关系、示范责任与文明延续方式的根本问题。这或许也是我们在讨论人工智能时,最容易忽略、却最不应回避的层面。

教授简介

丁敏博士现任中欧国际工商学院(CEIBS)市场营销学教授。此前,他曾任宾夕法尼亚州立大学斯米尔商学院Bard市场营销学教授,同时兼任信息科学与技术学院教授。他还是剑桥大学贾奇商学院的名誉研究员。他曾担任澳大利亚国立大学、复旦大学、麻省理工学院(MIT)、剑桥大学和科隆大学的访问教授。

本文来自微信公众号“中欧国际工商学院”(ID:CEIBS6688),作者:丁敏,36氪经授权发布。

+1
11

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

全球卫星互联网竞争进入全新阶段,贝佐斯与马斯克的太空竞争再次升级。

6小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业