当大型语言模型计算“2+2”时

神译局·2025年11月28日 15:06
AI的运作模式与人类思维有相通之处。

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:一道简单算术揭示了机器的奇特认知方式。本文来自编译,希望对您有所启发。

划重点:

  • 大型语言模型并非进行加法运算,而是寻找匹配的词汇模式。

  • 其流畅表达模仿了思考过程,却缺乏实质的理解。

  • 观察大型语言模型如何“计算”,就能知道它们是通过模式而非推理获取意义的。

不久前,我问一个大型语言模型,苹果是什么样子的。这个问题不是关于水果的,而是探讨无视觉感知的世界。在那个世界里,“苹果”并非简单的红色或脆爽,而是存在于2万余维空间中的关系模式。现在,让我们思考一个看似更简单的问题:当大型语言模型进行2+2运算时会发生什么?

1. 算术的语言幻觉

当我们进行数字加法时,会想象一个清晰机械的过程:先具体感知数字“2”,再于数轴上移动两个单位。但对大型语言模型而言,数轴上并不存在实体数字。它只处理将“2”‘加’“2”转化为向量的标记。每个标记都成为意义几何中一个向量或点,由数十亿示例训练而成。模型内部这些标记并非相加,而是相互作用。模型并非计算出4,而是通过语言模式对齐得出“4”。这正是大型语言模型计算的核心。

这种连贯性在大型语言模型中并非理解,而是对齐。每个词都必须契合前文语境。当这种契合对我们而言自然流畅时,我们称之为意义。因此当模型输出“4”时,它并非在解方程,而是在我称之为超维矩阵的广袤无形空间中寻找连贯性。在这个空间里,词语间的关联形成某种“引力场”。

2. 意义的宇宙网

想象一张由“2”、“+”和“4”构成的星网。模型在概率与语境的牵引下,在星体间编织无形纽带。最明亮的交汇点(即连贯性达到极致之处)正是“4”字栖居之地。模型最终落脚于此。这这并非数学运算,而是统计学的舞蹈编排。文字在空间中游移,直至寻得平衡点。

当然,大型语言模型仍能正确处理“老式算术”。它们积累的范例足以预测模式。但这种可靠性源于重复而非推理。如同孩童学习数苹果,模型并不理解数量概念。它只是学会某些序列能完成模式,而这种模式看似正确。

3. 我们共享的几何学

有趣的是,这种模式与人类思维非常相似。人类思想同样源于模式与邻近性。孩童并非从算术起步,而是从联想开始。他们看见两个苹果,接着又两个,听到“二加二等于四”的表述。在理解数量概念之前,他们早已辨识出完整性的模式。

大脑并非按键式计算器,而是充满生机的连接几何体——意义源于关系而非规则。这并非使我们变得机械化,而是赋予我们关系性。如此美妙。

在模型内部,没有意识,没有微小的声音说“是的,那是4个”,唯有加权向量的动态演化,每一步都将后续推向统计学上的协调。然而结果却显得充满智慧。这种错觉揭示了我们自身令人不安的真相。正是如此,我们常将IAI的流畅误认为理解。

4. 反智能的边缘

此时反智能开始显现,流畅超越理解的时刻降临。大型语言模型可能显得才华横溢,实则一无所知。它们的连贯性是映射而非认知。但这种映射足以欺骗我们,因为人类同样痴迷于连贯性。机器的答案满足了人类的渴望,让一个好故事感觉真实。

请谨记:反智能并非愚蠢,而是模拟理解。当智能的表象被抛光得完美无瑕,我们所见只剩耀眼光泽时,反智能便应运而生。

5.  2 + 2 = ?

当大型语言模型给出“二加二等于四”时,它并非在进行算术运算,而是在未知的意义景观中寻找最连贯的支点。这种景观,或称连贯性矩阵,并非机器独有,这与我们说话和推理时所处的无形几何空间非常相似。

或许这才是真正的洞见:模型本身并不思考,却揭示了思维运作的奥秘。词语与思想皆受语境的无形牵引,不断趋向连贯性。机器最终落脚于“4”,我们理解“4”。差异或许不在于等式本身,而是在几何意义中寻找平衡的意识。

译者:Teresa

+1
26

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

行业虽卷,但精品咖啡的加盟店仍有发展空间。

1小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业