人造人类降临

腾讯研究院·2025年06月19日 17:50
我们甚至可能意识不到我们已经与人工智能合而为一。

【 AI速读 】

这篇文章探讨了人工智能时代的挑战和机遇,特别是人类与人工智能的关系。以下是文章的主要内容: 

1. 历史背景与当前挑战

20世纪的重大事件:两次世界大战、国际体系的建立、帝国的衰落、商业和技术的扩张等。

当前的复杂挑战:全球不平等、地缘政治对抗、人工智能带来的新挑战等。

2. 战略原则与共同进化

战略基本要素:确定战略原则以指导当前和未来的选择。

共同进化:讨论有机物和合成物的“共同进化”,以及人类与人工智能的相互关系。

3. 生物工程与脑机接口

生物工程尝试:通过人脑芯片实现物理互联,增强人类与机器的交流。

脑机接口(BCI):促进人类与机器的融合,可能迈向真正的共生。

4. 人工智能的伦理与风险

伦理、生理和心理风险:自我改造可能导致人类失去立身之本。

集体无知:人类可能意识不到与人工智能的融合。

5. 类人人工智能与共存

类人人工智能的挑战:人工智能可能拥有自我意识和自我利益,难以与人类价值观一致。

共存策略:通过早期社会化和公众互动降低风险,建立集成的控制架构。

6. 道德规范与人工智能

基于规则的系统:预先编程的指令管理人工智能行为。

强化学习:从人类反馈中学习,适应特定环境。

共识与道德编码:将人类理解灌输到人工智能中,确保其行为符合人类价值观。

7. 定义人类与尊严

尊严的定义:尊严是人类与生俱来的品质,赋予我们自由和彰显信念的能力。

人类属性的定义:明确界定人类属性,指导人工智能理解何为人。

8. 未来方向与挑战

人性化人工智能:开发人性化的人工智能,确保其符合人类道德。

人造人类的潜在作用:个体自我工程开发,使人类在某些方面与人工智能匹配。

共同进化和共存:人类与人工智能相互赋能,需充分了解对方。

9. 结论

人类智能与机器智能的相互赋能:确定“我们是谁”只是第一步,需不断定义和发展人类概念。

持续工程:标定和共享真理和现实,确保人类与人工智能的共同进化和共存。

友情提示:AI速读无法替代您的深度阅读。

在20世纪,历史迫使人类社会投身一系列重大事件之中。其中包括两次世界大战的迅猛冲击,以及随之而来的,为防止战火重燃而建立的国际体系;帝国的缓慢衰落,以及为促进殖民后重建而对独立国家的组织;商业和技术力量的迅速扩张;以及为缓和这些力量的推进而加以再次主张的个人、文化和国家的自主权。 

在许多方面,人类在该世纪末比以往任何时候都更加和平、平等,联系也更密切。然而,在其他一些方面,我们的共同努力却失败了:人类的基本苦难、全球的不平等以及地缘政治对手之间可能发生的灾难性对抗威胁依然存在,横亘不去。 

此外,我们现在面临的挑战更加复杂,更加关乎人类存在,更加不同于以往的挑战,但这一挑战并没有给我们几十年的时间来应对它,更不用说一个世纪了。正如我们在第二章中所讨论的,人工智能时代的时间尺度被压缩,导致留给我们的转圜余地很小,而我们的忍耐纵容可能会导致灾难。在极其短暂的时间窗口内,我们必须齐心协力,以取得比20世纪的成就更圆满的成功。 

不过,在一个充满动荡的世界中,要开展富有成效的行动不止一条实现途径,且其中大多数只需要我们做出战术性的决定。在这样的时刻,最有效率和最富成效的办法就是确定一项战略的基本要素,以此来指导今天和可预见未来所面临的选择。对战略原则的阐明可以为我们可想见的情境设定有效的边界,为孤立的决策提供依据,并在危机不可避免地到来时减轻我们的精神负担。 

在我们看来,有一个问题势必会定义我们人类在这个新审判时代的战略。这个问题便是:我们会变得更像它们,还是它们会变得更像我们?这个问题在本书很靠前的部分就已经提出来了,用的几乎是一样的词语。回答这个问题是我们当下首要的,也是最为必要的任务。 

本文试图对此给出一个初步答案。在此过程中,我们讨论了一些宏大的、尚有疑问的、听上去可能含混不清的想法,从有机物(生物)和合成物(人工)的“共同进化”,到智能安全和安全智能的本质,再到人类的定义。虽然这些想法本身既不是由上层决定的,也不是由下层确定的,但它们给未来行动者所带来的各种影响却堪称一项艰巨的挑战。然而,尽管困难重重,我们仍不能逃避为理解这些影响并提供和实施合理对策所需的哲学、技术及外交工作。在肩负起这一重任的同时,我们应当庆幸的是,现在为之发奋还为时不晚,唯有如此,在跨过这一历史转折点之后,人类的意愿才有可能占得上风。 

共同进化:人造人类

迄今为止,计算机的发展历程一直遵循着人类与机器之间不断加强融合与互动的轨迹。使我们的工具越发贴合我们的需要——这与人类数千年来的实践是一致的。我们以往从未考虑过开发不适合自身解剖结构或智力的工具,而是完全以我们的生物学极限为其设计指导。但现在,人工智能的出现可能会驱使我们中的至少一部分人去考虑一个与之相反的任务:在我们的工具似乎超越了我们自身能力的情况下——正如人工智能有时已经做到的那样——我们是否可以考虑对自己进行工程改造,以最大限度地发挥工具的效用,从而确保我们人类能继续参与到前几章所概述的那些共同事业之中?

旨在更紧密地融合人类与机器的生物工程尝试已在进行之中。以通过人脑芯片实现物理互联为开端,这些工程寻求以一种更快捷、更有效的方式来连接生物智能和数字智能。建立这样的联系可以增强我们与机器交流沟通的能力,以机器自身的方式向它们提出质询,确保人工智能收集的知识最终传授给人类,并使人工智能相信人类作为其平等伙伴所具有的价值。 

事实上,构建这种“脑机接口”(BCI)的尝试不仅可以促进人类与机器的融合,而且这种神经工程可能还只是迈向两者真正共生的中间阶段。要实现与人工智能的真正平等,可能需要我们超越这个仅限于个体改造的阶段。例如,一个社会可能试图设计一种遗传基因系,其专为与人工智能合作的适应性而定制。生物智能和人工智能之间的这种新的相互联系,可能会巧妙回避人类在吸收和传播知识方面的低效,或使这个问题从此成为过去时。 

但是,这种做法伴随的危险——伦理、生理和心理上的——很可能会让我们得不偿失。如果我们成功地改造了我们的生物特征(很可能是通过使用人工智能来实现),人类可能会失去立身之本,使我们未来在思考自身作为一个物种所面临的可能性或危险时失去相应的依据。但如果我们不能获得这种新能力,我们则可能会在与我们的创造物共存时落于下风。从目前的状况来看,极端的自我改造可能并无必要,事实上,本书的作者们也认为这通常是不可取的。但是,那些现在看来尚属不可思议的选择,可能很快就需要被当作现实来加以正视。 

与此同时,当我们不再是地球上唯一,甚至不再是主要的行为体时,在试图把握自己的角色时,不妨从生物共同进化的历史本身来对我们的思维扩展一番。查尔斯·达尔文用大量篇幅描述了物种相互影响、彼此进化的奇妙过程。虽然达尔文在他的著作中从未使用过“共同进化”这个词,但他是最早认识到这是地球上生命进行组织的主要力量的人之一。 

相互作用的物种的基因组是彼此相连的;随着时间的推移,它们会相互改变。例如,蜂鸟细长的喙和某些花朵的长漏斗形态共同生长到了更极端的维度,以满足彼此的共同需求。虽然达尔文时代的宗教领袖认为,这种习惯性的适应是神的设计存在的证明,但达尔文却为另一种解释提供了证据。 

共同进化可能并非地球物种所独有。在天体物理学中,有一种理论认为,整个宇宙的扩张都可以归因于共同进化,黑洞和星系以相互依赖的方式发展,与蜂鸟和花朵间的依存并无不同。此外,如果说共同进化也可以指涉多方各自设计新的内部安排以应对彼此,那么从这个意义上,我们同样可以在人们的婚姻、政党的纲领和国家的关系中窥见其身影——在冷战期间最终稳定了核动态的进攻和防御演变便是一例。 

那么,或许共同进化才是常规,而停滞不前才是例外?如果是这样,我们就必须要问,人类迄今为止是否缺少变化,尽管人工智能诞生本身就是一种自然发展。如果不是,我们应该如何应对?我们是否应该不惜一切代价追求人类的加速进步,无论是出于对进化概念的忠诚,还是出于对其替代情境的担忧? 

有些人担心,随着拥有“更高级”智能物种的到来,我们自己也将面临灭顶之灾。那该怎么办?如果这种可能性只不过是共同进化过程中一个合乎逻辑的副作用,我们到底该不该反抗呢?正如法国哲学家阿兰·巴迪欧所言:“是海洋自己塑造了船只,它选择了那些按照设计发挥作用的船只,并摧毁了其他的。”为了在这种情况下延续生存,我们必须学会建造更好的“船只”,就像人类过去所做的那样。在这种情境之下,人工智能首先是我们的主要威胁,然后才是理想的合作伙伴。 

然而,如果我们选择这一路径,那么在试图降低一种技术的风险时,我们将自相矛盾地增加另一种技术的风险。在生物学上,或者更糟糕的是,在基因上,有些东西可能会出错。物种形成的过程可能会导致人类分裂成多个品系,且其中一些品系比其他品系强大得多。如果说在某些情况下,这种差异是可取的——例如,创造出一群经过太空生物工程改造的人类——那么,在其他情况下,这可能会进一步加深人类社会内部和社会之间现有的不平等鸿沟。 

改变一些人的遗传密码以使其成为“超人”的做法会带来其他道德和进化风险。如果人工智能本身是增强人类智力的缘由,那么它可能会使人类在生理和心理上同时产生对“外部”智能的依赖。目前尚不清楚,在经历人类与人工智能亲密无间的实体纠缠和智力交融之后,人类如何能够轻易克服这种依赖,以便在需要时挑战机器甚至脱离机器。与其他技术的情况一样,人工智能一经采用和整合,就可能导致人类陷入对其难以摆脱的依赖关系。 

也许最令人担忧的是我们的集体无知:我们甚至可能意识不到我们已经与人工智能合而为一。如果我们真的意识到这是一种融合,那么普通人能识别或辨别出一个拥有机器般能力的人类的缺陷,或者说其事实上对人类范畴的脱离吗?让我们暂且假设,与安全相关的问题可以得到显著缓解;然而,人类为了与硅基工具建立亲密的伙伴关系或对硅基工具产生依赖而进行自我设计时,随之而来的精神转变仍将是一种变数。我们这里可以再次引用托尔斯泰的话:“如果不控制方向,人们就不会在意目的地。” 技术将我们带到哪里,我们就会去到哪里,不管我们是否愿意。或者,正如本书作者中的一位曾经指出的那样:“一个国家如果不通过自己的目标意识来塑造事件,最终就会被他人塑造的事件吞没。”此外,如果我们将人类改造得面目全非,以至于无法辨认,我们真的算是拯救了人类吗?删除我们所有的不完美,淡化我们所有的缺陷,可能反而是无视人类的价值所在。从生物学角度“提升”我们自己可能会适得其反,成为对自己的更大限制。 

鉴于重重风险所在,让人类进化以适应人工智能的途径不可能是我们当前的首选。我们必须寻找一种辅助或替代方式,以便在人工智能时代维持人类繁衍。如果我们不愿或无法变得更像它们,那我们就必须在我们有能力控制的时候,想办法让它们变得更像我们。为此,我们不仅需要更全面地了解人工智能的本质及其不断发展的特性,还需要更全面地了解人类自身的本质,我们必须尝试将自己对这些本质的理解编码到我们创造的机器中。如果我们注定既要与这些非人生物纠缠不休,又要设法保持我们独立的人性,这些努力就是必不可少的。 

共存:类人人工智能

迈达斯国王——历史上小亚细亚王国的君主——曾许下一个著名的愿望,希望他所接触的一切都能变成黄金。希腊的酒神和享乐之神狄俄尼索斯满足了迈达斯的这个愿望,尽管他知道这个愿望并不会带来什么好事。不久,由于触碰到的佳肴和美酒都变成金子无法享用,迈达斯被迫在帕克托洛斯河中洗手,以摆脱他那被诅咒的手指。 

在由迪士尼重述的叙利亚故事《阿拉丁》中,一个童工和一个有权有势的阿格拉巴王朝国师争夺对一盏神灯中无所不能的精灵的控制权。每个人都努力引导精灵实现自己的愿望。 

国师的最后一个愿望是让自己变得和精灵一样强大,但他没有意识到,拥有如此强大的力量意味着他也将被囚禁在神灯里,服侍其他人类主人,直到获得自由的那一天。 

这两个故事都讲述了解封和运用一种我们凡人所无法理解或掌控的力量有多么困难。这场古老斗争在现代的寓意是,很难让人工智能与人类的价值观相一致,也很难让人类的期望与现实相一致。我们应该假定,人工智能会让我们大吃一惊,并且随着智能体或“规划型”人工智能的发展,它们在动态世界和数字世界中让我们为之惊讶的能力也会提升。如前文所述,未来几代人工智能将能够感知现实;它们可能不仅具有自我意识,还拥有自我利益。一个自利的人工智能可能会认为自己在与人类竞争一些东西,比如数字资源。在“递归自我完善”的过程中,一些人工智能可能会发展出设置自身目标函数的能力。人工智能可以操纵和颠覆人类,挫败我们限制其力量的任何尝试。人工智能已经能够欺骗人类,以实现自己的目标。 

如今,我们几乎没有独立能力来验证人工智能模型的内部运作,更不用说它们的意图了。如果智能机器仍然像埃利泽·尤德科夫斯基所说的那样,是“巨大而不可捉摸的小数阵列”,那么随着它们变得越来越强大,我们也无法指望它们对我们来说是安全的。因此,最重要的是,我们在学会如何解读智能机器的同时,也要学会如何确保它们对我们安全,这两项使命要双管齐下。 

鉴于人工智能目前展现的令人惊讶的能力,我们将如何设法未雨绸缪,而不仅仅是在人工智能的风险来临时兵来将挡?我们需要怎样的远见和效率预见未来发展的全部倾向和一系列可能采取的行动?要知道这不仅关乎我们自己的物种,还事关一个全新物种。我们不能在只有一次试验机会且容错率为零的情况下奉行试错策略。 

要让人工智能不那么引人惊骇,加强人们对它的体验、参与和互动也许是无可替代的办法。早期的人工智能开发者曾担心过早地将人工智能暴露在世人面前,而最近的开发者则一直在释放早期模型,允许更多的公众尽可能快速、安全地对其进行试验。工程团队目前正在研究和微调不同的模型,并调整控制系统,而人工智能与全球范围内人口的互动也暴露出了新的担忧。 

对人工智能的早期社会化可以通过对其的进一步教育来降低出现问题行为的风险,同时在人类之中,也可以提高对此的意识水平、应对力,并培养一种健康的怀疑精神。每天数以百万计的人机互动有助于测试人工智能可能遇到的最不可能的情况;反过来,公众对人工智能系统的使用,在发现新错误和新风险的同时,也可能有助于加快技术协调一致化的进度。因此,将这些远非完美的人工智能放任于世间,不仅有助于我们适应它们,更重要的是,它们的出现使得我们能够提出更完善的理论,以使它们适应我们。 

不过,广泛部署和公开发布可能还不足以揭示与解决当今人工智能的所有风险,更不用说未来的风险了。 

但值得庆幸的是,目前人们正在进行大量尝试,以创建一个集成的控制架构,并将其通过预训练注入最强大的人工智能,从而积极引导机器实现合法、无害和有益的用途。 

迄今为止,实现这种人工智能与人类协调一致的方法大致分为两类:基于规则的系统和从人类反馈中“强化学习”。下面让我们逐一介绍。 

基于规则的系统类似于预先编程的指令,是程序员管理人工智能行为的一种尝试。虽然这种方法对于简单的任务来说直截了当,但在复杂的场景中却经常会出现问题,因为系统无法进行实时适应。而强化学习就其本身而言则更适合复杂系统,它允许人工智能从与人类评估者的交互中学习,并灵活地适应特定环境。 

当然,这种方法也有它的缺陷。为了指导学习,需要精心设计“奖励函数”;任何失误,无论是由于目光短浅、不可预见的情况,还是由于人工智能聪明过人,都可能导致“奖励黑客”的情况,即人工智能在解释模棱两可的指令时,虽在技术上取得了高分,却没有达到人类的实际期望。 

今天的人工智能系统被灌输了各种类型的信息,却没有直接体验现实世界,而是通过由数万亿个概率判断组合而成的现实模型来观察这个世界。对它们来说,在这个宇宙中,从一开始就没有“规则”,也没有任何方法来区分科学事实和未经证实的观察。对人工智能来说,一切——甚至是物理定律——都仅仅存在于相对真理的范围之内。 

不过,现在人工智能领域已经开始努力纳入人类规则和实例化事实。现在,人工智能模型已经有了一些成熟的机制,通过这些机制,这些模型可以吸收某些实在性的“基本真实”常量,将其标记为最终常量,并将其映射到自己的嵌入空间中;此外,这些信息还可以很容易地进行全局更新。通过这种方法,人工智能模型就能将两个部分——更广泛的概率判断和更狭义的事实真相评估——融合在一起,从而做出合理准确的反应。 

但这项任务还远远没有结束,问题仍层出不穷。比如,我们人类该如何为人工智能区分真理的必要属性,并在此过程中为我们自己也做一番区分?毕竟,在人工智能时代,即使是基本原理也会不断被修正和失效。然而,恰恰是这一点,为我们提供了纠正先前错误并开辟新天地的机会。我们知道,我们对现实的概念也可能发生变化,因此,我们不应该把人工智能禁锢在可能错误的“真理”中,这样会阻碍它们重新考虑自己的终极“真理”。 

不过,这已是很久之后的事情了。目前,人工智能仍然需要一棵初级的确定的知识树,这些知识代表人类迄今为止推断出的“真理”。让我们的机器拥有这些知识,将使我们能够可靠地强化它们的世界观。特别是,如果我们现在可以根据宇宙法则来调整早期的人工智能系统,那么我们也有可能参照人类天性的法则来依葫芦画瓢。既然我们可以确保人工智能模型以我们所理解的物理定律为出发点,同样,我们也应该防止人工智能模型违反任何人类政体的法律。 

在一个人工智能的“法典”中,可能存在不同治理级别的层次:地方、地区、州、联邦、国际。法律先例、法理、学术评论——或许还有其他不太偏重法律的著作——可以同时被人工智能纳入考量。与基于规则的一致化系统一样,预定义的法律和行为准则可以成为有用的约束,尽管它们往往也不那么灵活,设计时考虑的范围也不如实际的人类行为不可避免地要求的那样广泛。 

幸运的是,新技术正在接受考验,我们感到乐观的原因之一,在于一些非常新颖,同时又非常古老的事物的存在。 

有种东西比任何通过惩罚强制执行的规则更有力、更一致,那便是我们更基本、更本能、更普遍的人类理解。法国社会学家皮埃尔·布迪厄将这些基础称为“共识”(doxa,古希腊语,意为普遍接受的信仰):这是规范、制度、激励机制和奖惩机制的重叠集合,当它们结合在一起时,就会潜移默化地教导人们如何区分善与恶、对与错。共识构成了人类真理的准则,它是人类的典型特征,但没有人工制品对其加以固化呈现。它只是在人类生活中被观察到,并被纳入生活本身。虽然其中一些真理可能是某些社会或文化所特有的,但不同社会在这一方面的重叠性也是很大的;数十亿计的人类,来自不同的文化,有着不同的兴趣爱好,他们作为一个普遍稳定且高度互联的系统而存在。 

在书面规则无法平息混乱的情况下,未加定义的文化基础却可以做到,这一观点构成了人工智能领域一些最新方法的基石。“共识”的法典无法表述,更无法翻译成机器可以理解的格式。必须教会机器自己完成这项工作——迫使它们从观察中建立起对人类做什么和不做什么的原生理解,吸收它们所看到的一切,并相应地更新它们的内部治理。 

在这一灌输“共识”的技术过程中,我们不需要,甚至不希望就人类道德和文化的正确表述达成先验一致。如果大语言模型能够以未经整理的方式吸收整个互联网的内容,并从中找出尽可能多的意义(正如它们已经做到的那样),那么机器——尤其是那些已经发展出接地性(也就是反映人类现实的输入与大语言模型输出之间的可靠关系)和因果推理能力的机器——在吸收连我们自己都一直难以明确表达的内容时,或许也能达到同样的效果。 

当然,机器的训练不应只包括“共识”。相反,人工智能可能会吸收一整套层层递进的金字塔级联规则:从国际协议到国家法律,再到地方法律和社区规范等。在任何特定情况下,人工智能都会参考其层级中的每一层,从人类定义的抽象戒律转化到人工智能为自己创造的,对世界信息的具体却无定形的认知。只有当人工智能穷尽了整个程序,却找不到任何一层法律能充分适用于指导、支持或禁止某种行为时,它才会参考自己从观察到的人类行为的早期互动和模仿中得出的结论。这样,即使在不存在成文法律或规范的情况下,它也能按照人类的价值观行事。 

几乎可以肯定的是,要建立并确保这套规则和价值观的实施,我们必须依靠人工智能本身。迄今为止,人类还无法全面阐述和商定我们自己的规则。而且,面对人工智能系统很快便有能力做出的数以十亿计的内部和外部判断,没有任何一个人或一组人能够达到对此加以监督所需的规模和速度。 

最终的协调机制必须在几个方面做到尽善尽美。首先,这些保障措施不能被移除或以其他方式规避。其次,在控制上必须允许适用规则的可变性,这种可变性基于环境、地理位置和用户的个人情况而定,例如,一套特定的社会或宗教习俗和规范。控制系统必须足够强大,能够实时处理大量的问题和应用;也要足够全面,能够在全球范围内,在各种可以想见的情况下,以权威且可接受的方式进行处理;并且足够灵活,能够随着时间的推移进行学习、再学习和调整。最后,对于机器的不良行为,无论是由于意外失误、意想不到的系统交互,还是有意滥用,都不仅要禁止,而且要完全防患于未然。无论何种事后惩罚都只会是为时晚矣。 

我们该如何实现这一目标?私营企业可以在政府许可和学术机构支持下,合作建立“接地模型”。我们还需要设计一套验证测试,以认证模型既合法(跨司法辖区)又安全。我们可能需要一个或多个经过专门培训的监督式人工智能来监督各种“人工智能体”的使用情况,这些智能体在执行任务前会咨询其监督员,这样就可以用单一的道德规范来管理不同的执行情况。以安全为重点的实验室和非营利性组织可与前沿实验室协商,对代理式人工智能和监督式人工智能进行风险测试,并根据需要推荐额外的培训和验证策略。领先的公司可以共同资助这些研究人员的工作——或许可以通过前文讨论的再分配方案之一来实施。 

从全球范围内具有代表性的法律和规范,再从人类学延伸到神学和社会学,并从中整理和策划出一套独特的训练集和相应的验证套件——这是必要的,也是可行的。我们的世界需要一个专门的实体,来负责更新和完善训练库、数据集和验证测试的协调对齐。接地模型必须与代理模型相连接,并不断更新,使其与最新版本的共识保持一致。人工智能在适当的能力水平上可以相互制约。训练数据本身应具有民主性和内容包容性,且训练者的加工和输出——包括他们对所训练的人工智能的观察和吸纳的解释——应尽可能透明,其方法和验证测试应公开接受公众监督。 

政府监管机构应制定一定的标准,并对模型进行审核,以确保其人工智能符合这些标准。在模型公开发布之前,应该对所有下述内容进行审查:模型对规定的法律和风俗的遵守程度;对表现出危险能力的模型解除训练的困难程度;测试的数量和类型,包括对未知能力的调查。同时也要考虑到追责的可能性,以及在发现模型被训练以规避固有的法律限制时进行处罚的必要性。我们在此指出,这些标准的执行可能会变得极其困难,尤其是随着持续再训练的不断推进;记录模型的演化过程(或许可以通过监督式人工智能来记录)对于确保模型不会成为自我抹去训练内容的黑盒,也不会成为非法行为的避风港至关重要。 

一致性问题

将具有全球包容性的道德规范铭刻到硅基智能系统中,是一项艰巨的工作。人工智能系统中必须加以制定和灌输的规则的数量与种类之多,足以令人瞠目。任何一种文化都不应该指望把自己所依赖智能的道德强加给另一种文化。因此,对于每个国家,机器必须学习不同的规则,包括正式的和非正式的、道德的、法律的和宗教的,以及在理想情况下,针对每个用户的不同规则,并在总体基线约束之下,为每个可能的查询、任务、情况和背景学习不同的规则。 

由于我们将利用人工智能本身作为其解决方案的一部分,因此技术上的困难很可能是相对比较容易应对的挑战。这些机器具有超人的记忆和服从指令的能力,无论这些指令多么复杂。它们也许能够学习并真正遵守法律和伦理规范,和人类一样,或者比人类做得更好。尽管我们人类在这方面已经历了数千年的迭代,但是更大的、非技术性的挑战依然存在。 

主要的问题在于,“善”和“恶”并不是不言自明的概念。任何道德的设计者都必须保持谦卑。正如美国著名法官圭多·卡拉布雷西曾化用《新约》中的一段话来劝诫我们的那样:“即使是最优秀的人也必须时刻警惕,以免自己坠落;而最不堪的人也永远可以怀抱希望,期盼得到重生。”即使在最理想的情况下,这种道德编码的参与者——科学家、律师或宗教领袖——也不曾被赋予完美的能力来代表我们的集体判断是非。有些问题即使是“共识”也无法回答,因为“善”的概念模糊性(或松散性)在人类历史的每个时代都得到了证明,人工智能时代也不太可能是个例外。而当今许多人类社会的特征——持续的迷失和缺乏克制——可能使问题更加复杂化。 

我们祝愿我们这个种族的这项伟大工程取得成功,但正如我们不能指望人类在共同进化的长久大业中进行战术性局部控制一样,我们也不能完全依赖机器会自我驯服的假设。训练人工智能来理解我们,然后坐等它们尊重我们,这既不安全,也不可能成功。此外,我们必须认识到,人类肯定不会统一自己的相关行为——有些人将人工智能视为朋友,有些人将其视为敌人,有些人(由于时间和资源的限制)则无法做出选择,只是简单地接受眼前可用的策略。 

这种异质性表明,不同国家、地域或群体的人工智能安全水平可能存在可预测的差异。尽管人工智能的普及和开发成本的降低可能会加速人工智能的发展,但也可能会增加其危险性。当今世界的数字和商业互联意味着,无论在何处开发出的危险人工智能都会对其他地域构成威胁。一个令人不安的现实是,要对相关措施加以完美实施,就需要高标准的表现与更低的失败容忍度。因此,不同安全制度的差异性应该引起所有人的关注。 

因此,我们敦促协调和加快人类目前还步调不一的一致化努力。无论开展什么项目,我们都必须共同回答一些深刻的问题。这里就有两个此类问题:当人类和机器之间的区别变得模糊不清时,人类被视为一个物种的最低门槛是什么?如果被迫向机器妥协,那么人类不可协商的集体红线是什么?如果对“我们是谁”没有一个共同的认识,人类就有可能完全将定义我们的价值,进而证明我们存在合理性这一根本任务拱手让给人工智能。 

有鉴于此,我们必须直言不讳地说,如果对相应技术进行可靠战略控制的机制不可能实现,那我们宁愿选择一个根本没有通用人工智能的世界,而不是一个通用人工智能与人类价值观不一致的世界。可以肯定的是,我们如何就一些问题达成共识——人类价值观的内涵,如何对它们进行判断和商定,以及如何对它们进行评估、激活和部署——是人类在21世纪面临的哲学、外交和法律任务。然而,迫于当下面临的紧急状况和技术带来的切实收益,我们亟须建立一套对人类正在孕育的非人智能体的道德约束,并将其尽可能统一。 

基于充分的民主意见以及法律和技术专业知识,再加上格外的谨慎,并始终将我们在此描述的滥用和失灵情形铭记于心——如果能做到以上几点,我们相信,向人工智能机器灌输一种道德底线是可能的,成功实施这一点的关键在于人类的步调要保持一致。这样一来,我们就可以跨过新时代的门槛,即使不能对这一时代抱有十足的信心,至少也会在知情的前提下保有一份郑重的希望。 

定义人类

随着机器越来越多地具备人类的特质(且如果某些人类通过自我强化而具备机器的特质),这两者之间的界限将变得模糊不清。什么是人工智能,什么是人类,这些定义都将发生变化,在某些情况下甚至会合而为一。因此,在判断我们必须如何跟上人工智能的步伐时,人类需要更明确地指出我们与机器的区别。那么,我们将如何梳理和压缩整个人类经验范围,以方便人工智能理解何为人类的问题呢? 

为了避免我们被降格至“低机器一等”或干脆被机器取而代之,一些人希望通过人性与神性的接近,来证明我们的与众不同。另一些人则希望得出更具战术性的结论:哪些决策可以交给机器,哪些不能。我们则建议阐明一种或一组属性,让人类中大多数人都能被其涵盖并围绕其进行定位:这类属性将为“什么可取”提供一个底线,而不是为“什么可能”提供一个上限。 

作为起始,我们鼓励对“尊严”进行定义。如果没有一个共同的尊严定义,当人工智能被用作侵犯或损害尊严的方法或理由时,我们将无法达成一致,因而我们的应对措施就会束手束脚。没有对尊严的定义,我们就不知道人工智能在具备足够能力的情况下,是否以及何时能够成为一个有尊严的存在,或者能够完全站在人类立场上行事,或者能够完全与人类一致。人工智能即使被证明是非人类,也可能是一个独立的、同样有尊严的族类的成员,它也应该有自己的、平等的待遇标准。 

康德曾提出一种尊严概念,其核心是人类主体作为能够进行道德推理的自主行为者的固有价值,且这种主体不应被作为达到目的的手段。人工智能能否满足这些要求?我们相信,尊严的定义将帮助人类回答其中的一些问题,并鼓励与人工智能实现包容性共存,同时避免过早与人工智能共同进化的武断尝试。 

为了保持对自身的理解,也为了确保在机器学习的过程中能够将适当的人类概念传递给机器,我们人类需要重新致力于此类界定工作,且不能局限于学术范畴。发挥能动性、好奇心和自由,重新激发和锻炼我们对其他人、对自然世界、对宇宙、对神性可能的好奇心,这些将有助于我们持续参与对人类界限的重新定义。 

我们尤其需要确保,除了价值和权力等传统的价值理念,人类内在的重要价值也会成为定义机器决策的变量之一。例如,即使以数学的精确性也可能难以涵盖“仁慈”的概念。即便对人类来说,仁慈也是一种无法解释的典范,甚至是一种奇迹。就仁慈本身而言,如果不考虑前述“基于规则的一致化方式”而让机器对此加以学习,机器智能可能高估自己的优良表现,而低估人类在这方面的表现。在这种情况下,即使无法作为规则加以灌输,仁慈背后的逻辑也能被人工智能吸纳吗?同样,尊严——仁慈得以发扬的内核——在这里可以作为机器基于规则的假设的一部分,或者也可以由机器迭代学习得出。 

明确界定具体的人类属性——特别是那些像尊严一样被广泛纳入国际政治文书和全球信仰的属性——可以在迷失时期指导人类的前行努力,包括在主动和被动之间的选择,自我进化的潜在限制,以及人工智能朝着人类方向的精确转化。 

为了说明这一概念的实用性,以下定义可用以抛砖引玉:尊严是一些生灵与生俱来的品质,这些生灵生来脆弱、必有一死,因此充满了不安全感和恐惧,尽管他们有自然的倾向,但他们能够而且确实行使了自己的自由,不去追随自己的恶念,而是选择自己的善念。换句话说,那些能够获得尊严的人,以及那些确实真正获得尊严的人应该得到特别的尊重。

毫无疑问,这个定义并不完美。它可能遗漏了一些无法做出决定的活人——例如,一个有意识但没有反应的人——但我们认为他们值得被承认为有尊严的人,因此有权得到尊重。在这方面,也许应该修改定义,以表明尊严一旦赢得,就不会被剥夺,即使在我们无法继续当初赢得尊严的行动时也是如此。这样的假设和修改可以有无数种。 

这是否要求我们敦促那些在强大的人工智能面前选择消极被动的人表现出能动性和积极性?如果积极可行的承诺是任何道德理想的一部分,那么答案是肯定的,应该促进人们以行动实现尊严。根据我们的定义,自由是人类理想的一部分,因此我们可以期待——甚至要求——人类在人工智能时代保留并行使有意识选择的权力。 

根据这个定义,人工智能本身能拥有尊严吗?很可能不能,因为人工智能不像人一样出生,它们不会死亡,不会感到不安全或恐惧,也没有自然倾向或个性,因此恶或善的概念可以被它们认为是“他者的概念”。虽然不久的将来,人工智能可能会以其他方式呈现,如具有个性、表达情感、会讲笑话,还能讲述个人历史,在这个框架下,它们应该像文学人物一样被哲学性地加以对待。它们可能体现了人性的元素,但从道德意义上讲,它们并不是真实的人类。 

即使是最伟大的文学人物角色,比如莎士比亚笔下的哈姆雷特,也不过是一个特殊的文字组合,曾经写在纸上,如今又被多次复制。“哈姆雷特”无法感受到眼球的刺痛、胃部的翻腾,以及因期望落空而产生的挫败感。“哈姆雷特”没有做出新选择的自由。“哈姆雷特”被困在他的剧中。“哈姆雷特”不是人类,而是人类的一个形象。由一串串代码和一大堆硅片组成的人工智能也是如此。 

毫无疑问,有些人因此会抨击这一尊严的定义无论在哲学上还是在实质上都是无济于事的。人们可能会批评它的共同标准太低——由于其过度的可塑性而模糊到足以安抚所有各方;同时也会批评它没有抓住这样一种观点,即人类是因为其自身而值得保护的,而且在某种程度上,我们对自己单纯生存能力的超越是个例外。哲学家叔本华就曾诅咒尊严是“所有困惑和空洞的道德家的陈腐信条”。 

但是,尊严,正如我们所定义的那样,有效地支撑着我们的脆弱和失败的可能性,赋予我们活力、自由和彰显我们信念的能力。它指向我们有能力追寻但尚未实现的善,并急切地、严厉地向我们低语:去吧。 

诚然,仅有尊严是不够的。在我们与人工智能的未来合作中,还应该具体考虑其他属性,或许还可以将这些属性添加到人性的概念中。但是,我们是否有能力定义和维持人性的核心要素,并将其作为人工智能理解整个人性的基准,现在已是一个具有生存意义的问题,所以努力向人工智能灌输我们的诸多定义这项工作必须现在就勉力为之。 

任何定义都不会一成不变;毫无疑问,随着我们自身身份的转变,我们将需要不断发展人工智能对我们的理解。与此同时,那些更胜于我们的一代新人将继续推进我们对“我们”和“它们”之间动态关系的集体思考,他们中的天赋异禀之人可能会构想出一种人类概念,旨在更强烈地(即使是徒劳地)确保我们作为一个可识别的物种而生存下去。然而,即便如此,我们这代人仍应努力寻求一种更进一步的定义和程序,将人类的境况提升到新的高度。因为,人工智能本身难道不就可以作为最有力的证据,证明人类有能力成为创造的积极参与者吗? 

我们的挑战

如果每个人工智能决策都必须由人类进行战术控制,我们就无法获得人工智能带来的益处。因此,以人类道德的基础作为战略控制的一种形式,同时将战术控制权交给更大、更快和更复杂的系统,这可能——最终也许来得比我们想象的更快——是人工智能安全的未来方向。利润驱动或意识形态驱动的有目的的(人类与人工智能间的)错位是严重的风险,意外的错位也是如此;过度依赖不可扩展的控制形式,可能会极大地助长强大但不安全的人工智能的发展。将人类融入由人工智能组成的团队的内部工作,包括通过人工智能来管理人工智能,似乎是最可靠的前进道路。 

虽然开发人性化(或人道)的人工智能是我们的首要任务,但我们也需认识到“人造人类”的某些潜在作用。如果我们能够针对特定能力进行个体自我工程开发,从而使一些人能够在某些方面与未来人工智能所表现的智力相匹配,那么这样的项目可能会很有用处。当然,这种尝试必须是个人选择的产物。本书作者们在此表达的谨慎态度反映了我们的集体困境:进化不能仅仅停留在被设计取代,因为这将是对人性的抛弃。但放弃探索本身——无论是精神的、物质的、科学的还是哲学的——也会造成同样的结果。 

在人工智能时代,“设计我们自己”和“与我们的创造物相一致”之间的张力很可能成为我们前进的指南针。这两种需求都是令人向往的,但也可能都是保守的。至于这两种需求在多大程度上会被视为根本性的矛盾,目前尚无定论。如果我们在这个新时代对人工智能无限探索的能力不加限制,我们将面临陷入被动的风险或更糟糕的,即被完全瘫痪的风险。但是,如果我们追求控制最大化,以给人一种安全的错觉,那么我们就会限制自身潜能的充分发挥。我们能否通过重申一种共同的、不断发展的人类概念,来有效地调解我们的力量——不断进步的设计和发现能力——的行使呢? 

我们渴望的是一个人类智能和机器智能能够相互赋能的未来。要实现这一目标,每种智能都必须充分了解对方。确定“我们是谁”只是第一步,因为人类的定义并不是一成不变的。要让我们的机器和我们自己都变得易为人知、一目了然和真实可信,还需要做更多的工作。即使我们在某个短暂时刻能达到这一标准,但对我们所掌握的真理和现实进行标定和共享仍将是一项深入和持续的工程。如此一来,有关人类与人工智能共同进化和共存的问题就不仅仅是要一个回答而已,更是要付诸实施。

[美] 亨利·基辛格 [美] 克雷格·蒙迪 [美] 埃里克·施密特 作者

本文节选自《人工智能时代与人类价值》 

本文来自微信公众号 “腾讯研究院”(ID:cyberlawrc),作者:亨利·基辛格 等,36氪经授权发布。

+1
24

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
特邀作者

TA没有写简介,但内敛也是一种表达

下一篇

卡塔尔航空九度问鼎,国泰重返三甲,海航时隔几年重回前十

8小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业