一台“我不知道”的机器人和不确定性的未来

36氪领读·2025年04月19日 08:00
人工智能不确定性推动安全协作,重构人机未来。

节选自《意料之内》,作者玛吉·杰克逊(Maggie Jackson)

希望是一个充满不确定性的故事,一个不知道接下来会发生什么但仍然要承担这一风险的故事,

比绝望更让人寝食难安,在某种程度上也更令人担惊受怕。当然也会带来不可估量的回报。

—丽贝卡 · 索尔尼特—

不确定的机器人令我激动万分。

在弗吉尼亚理工大学庞大的工程实验室综合楼深处,我正在教固定在桌子上的一副机械臂完成一项简单的任务:使用激光在桌面上“画”一条线。这是一堂动手实践课。我的目标是用手拿着机械臂的爪端,沿着我希望机器人在独立完成这项工作时采取的路径移动它。这种型号的机器人比我还高,富有曲线美,也不乏机器人独有的那种钢铁般的力量感。它们在制造业领域中的应用非常广泛,

但有时也会用于制作小一号的智能假肢,服务于坐轮椅的残疾人。

不过这台原型机却具有革命性的新能力。在将机器人拉向我准备开始任务的几秒钟内,我能感觉到它好像活过来了,真是不可思议。机器人轻柔地给沿其臂长分布的各种臂环充气,借此发出不确定的信号,即它不知道我希望它离桌子边缘有多近。然后我可以改进我的教学,让它能细化它的工作。这个家伙能够知道哪些地方它不懂,而且还能把这个情况告诉我,这些可是从根本上重新构想人工智能乃至人类本身所急需获得的核心素质。

在试图模仿乃至超越人类智能的过程中,人工智能的设计者长期以来一直专注于构建知道该做什么的机器。在迄今为止的大多数人工智能中,人类都会指定一个目标,比如堆放包裹、下出大师级水平的国际象棋等,然后机器学习如何实现它,理想的状态是学习无须人类指导。与不确定性做斗争,例如传感器数据中的噪声或其路径中的人类,已被视为一种必要的恶,充其量也只是一些外围干扰因素,对事业的大局影响不大。

在这种世界观的指导下,人工智能大显身手,从在围棋等复杂策略游戏中击败冠军、发现恶性肿瘤,到使自动驾驶汽车能够穿越繁忙的城市街道,人工智能取得了堆积如山的惊人成就。虽然初现人世不过只有几十年的时间,但是不完美、不稳定却日益强大的人工智能有朝一日似乎真能完成我们要求的几乎任何事情。

然而,随着人工智能变得越来越能干且更能融入现实世界,这一领域的宏伟抱负已经开始出现裂痕。社交媒体算法的建立是为了顽固地引导人们接触极端内容,以增加用户的上网时间。目标达到了吗?一心完成任务的机器人令人担忧地对人类不断变化的需求和指导充耳不闻。在莫斯科举行的一场国际象棋锦标赛中,一只机械手成了头条新闻,当7岁的对手伸手去拿棋盘上的棋子时,它折断了他的手指。目标达到了吗?面部识别和医疗诊断系统及其用户经常掩饰模糊和不一致之处。对面部表情进行分类的算法可能会罔顾人类的复杂性,例如,人工智能会将表现幸福和惊讶的面孔标记为同一类。目标达到了吗?

尽管人工智能创造了很多奇迹,但人工智能的“运行时”往往与人类的视角、价值观和生活严重不对齐。《人机对齐》(The Alignment Problem)一书的作者、研究员布赖恩 · 克里斯蒂安(Brian Christian)评论道,这“就好像在21世纪初,大部分人忙着完成一项任务,将世界逐渐移交给自动驾驶,而所谓世界,既是象征意义上的,也是字面意义上的”。因此,越来越多的科学家警告说,实现这一领域的目标,即创造完全自主的超智能化人工智能,可能会给我们的物种带来严重的风险。人工智能的先驱斯

图尔特 · 拉塞尔表示:“我所在领域的成功将是人类历史上最重大的事件,也许也是最后一个。”

打造一个与此类机器共存的未来,前进的道路当然不会只有一条。但越来越多的设计师和研究人员一致认为,在制造安全 的智能系统这个难题上,有一个关键部分已经被忽视太久太久了。许多处于人工智能前沿的人开始优先考虑构建具有不确定性的人工智能,希望以此为路径,创建更加诚实、更具适应性、更加包容、更加合作以及反思能力更强的智能机器。从某种意义上说,人工智能领域的新动向与许多领域的新生运动是一致的,都将不确定性视为人类或人工思维的一项优势。“不确定性是我们工作的核心,”青年科学家迪伦 · 洛西(Dylan Losey)说,就是他的尖端机器人研究将我带到了弗吉尼亚理工大学,“这是解决方案的关键所在。”9月的那一天,一种变革即将到来的感觉油然而生,触手可及。

借着洛西的研究生索海尔·哈比比安(Soheil Habibian)准备对画家机器人进行另一次测试的空档,我在熙熙攘攘的实验室里四处看了看。高高天花板下布满了裸露管道和横梁,实验机器人或坐或站,准备接受一系列测试。一台马上要用不同的动作方式堆叠一组纸盘,实际上是问了我一道有关我家务偏好的多项选择题。另一台会承认,它还不知道怎么端杯子是最好的。在我访问期间,它们会向我学习,我也会向它们学习。在某种程度上,我测试的不仅是人工智能的前沿,而且是在一个不断变化的时代中的不确定的未来。机器人已经准备好了,我回来再次运行任务,寻找更好的方法。我想要离边缘多近?它又问我。那一刻,机器人在思考桌子,我在思考未知。

2014年,谷歌斥资6.5亿美元收购了一家总部位于伦敦的人工智能初创公司,令许多业内人士大为震惊。这家公司员工不到100 人,也没有公开发布任何产品或服务。时任牛津大学计算机科学系主任迈克尔 · 伍尔德里奇(Michael Wooldridge)回忆说,这家低调的公司估值如此之高,“完全让人看不懂”。

一年后,深度思维公司(DeepMind)的创新成果公布于世,犹如引爆了一颗重磅炸弹,也证明了谷歌的收购颇具先见之明。这是一种经过训练的算法或“模型”,可以快速从零开始学习,通关数十种变化多端的雅达利(Atari)视频游戏。尽管事先对每款游戏的规则和设置、如何射击以及哪些物体可能移动到哪里统统一无所知,但该公司的“深度Q网络”所达到的游戏水平仍远远超过了人类高手。鉴于目标很简单,就是一个赢字,这套程序开始像童话故事里走出来的浪子英雄一样迅速成功立业。它在不同环境中取得了令人瞠目的成功,也提供了诱人的证据,表明人工智能有朝一日可以匹敌或超越人类的广义智能,而不仅仅是迄今为止所实现的那种范围有限的、专业化的智能。

为了征服雅达利游戏,深度思维公司将人工神经网络(一种   类似于大脑的模拟神经元的分层混合物)与这一领域最引以为豪的机器学习策略“强化学习”结合起来。强化学习算法的灵感来自有关动物如何学习的早期理论,通过反复试错取得进展。例如,它们会把一个游戏玩上数万次,以获得有助于挖掘通向胜利的最佳路径的反馈。那些对算法产生数学奖赏的行为被称为策略,会被强化和重复,而那些远离其目标的行为则被放弃。这种算法还会不断预测其当前的游戏状态是否会实现其目标,从没有实现的预期中学习,就像我们自己的多巴胺网络一样。强化学习本质上是以奖赏为中心的。简而言之,雅达利破解模式体现了人工智能领域长期以来的理想,即打造以全心全意的执着劲头追求其目标的机器。

迄今为止,人工智能的智能很大程度上依赖一个大前提:所   谓聪明智慧,归根结底就是实现一个人的目标。无论机器使用强化学习还是其他策略,其存在的理由都是使其行动和决策服务于其目标。认知中的这种对于何为“善”,何为“理性”的认识可以追溯到几千年前,尤其是在西方,也反映了生物学的真理。毕竟,如果没有能力实现其目标,生物体就无法生存。因此,自20世纪50年代发轫之始,人工智能领域就全盘接受了对聪明智慧的这一定义并将其挪为己用,这似乎是一件很自然的事情。加州大学伯克利分校教授、人工智能权威教科书的合著者拉塞尔说:“我们建造实现目标的机器,将目标输入其中,或者我们将它们专门用于特定目标,然后它们就开始运行。”他指出,这种方法推动了20世纪的大部分技术进步。然而,也正是从赋予系统一项使命并让它处理其余的事情开始,我们逐渐认识到了人工智能的魔力及其风险。

电子游戏中一艘孤独的白色快艇绕着一个蓝绿色的港口疯狂 旋转。它转了一圈又一圈,一次又一次与其他船只、港口防波堤和一排系缆桩相撞并起火燃烧。我观摩的这场赛艇比赛看起来简单得可笑,要知道它可是一家世界领先的人工智能公司下了大力气做出来的,目的是构建可以通过锦标赛胜过深度Q网络的系统,从而使人工智能在具备万能的人类智能方面再进一步。作为“开放人工智能(OpenAI)宇宙”项目的一部分,驱动小艇的算法可是认认真真做出来的东西,然而却成了臭名昭著的反面教材,说明以奖赏为中心的人工智能会犯下严重错误。

当达里奥 · 阿莫代(Dario Amodei)创造出人工智能驱动的小艇来参加赛艇游戏时,他赋予了小艇一个看似万无一失的目标:得分。他愉快地假设通过这种方式就能获胜,但没有仔细研究这一目标的含义。但系统研究了。这条船通过撞击实现“升级”(游戏中提供奖励积分的功能),不打折扣地执行了出征的命令。问题是,为了获得更多积分,它连比赛都不参加了。“这就是这些系统如此强大的原因—它们自己做决定,”人工智能伦理学的著名哲学家阿娃·托马斯·赖特(Ava Thomas Wright)说,“这是我们喜欢自主系统的一个地方,但这也是让它们变得有点儿危险的原因,可能事关生死存亡。”

解决方案似乎很明显。给系统更好的指令。但只要稍加思索,我们就会打消这种幻想。阿莫代和他的同事杰克·克拉克(Jack Clark)后来写道,除了超可预测的泡泡世界式的环境外,“准确捕捉我们希望智能体做什么通常是困难或不可行的”。设计师和用户都不可能提前考虑清楚人工智能在执行任务时可能遇到的每一个问题,更遑论它的“足智多谋”产生的所有后果了。匆匆忙忙去上班时,你可能会忘记告诉机器人管家不要把孩子们的新水族箱里里外外打扫干净,那会让鱼儿很不爽。或者你也许会喜欢这样一件事:你的无人驾驶出租车被禁止跨越双黄线,直到一辆不守规矩的卡车突然打方向冲进你的车道。去它的双黄线吧。

我们的不对齐问题已经太多了,而且常常造成严重伤害。在最近的一起事件中,算法的制定者按照每位患者的预期医疗保健费用计算出个人风险评分,再以此为基础决定哪些患者可以接受额外的医疗护理。但由于黑人患者通常比同样患病的白人获得的护理更少(可能是由于系统性偏见和患者不信任),因此产生的费用也更低,结果最终被该算法排除在高风险护理计划之外的黑人患者人数超出了正常比例。

还有一个例子就是训练用于进行自然语言处理的算法,这是 在线翻译、搜索乃至招聘的支柱程序。这一类系统会在你撰写电子邮件时建议接下来使用哪个单词,或筛选简历以寻找合适的工作候选人。许多程序通过计算任意一个单词或短语与其他单词或短语的相关程度来做到这一点。例如,“茶”与“杯子”密切相关。许多研究表明,根据诸多此类系统,医生是“他”,而非裔美国人的名字令人不快。

人工智能中的这种偏见往往反映出用于训练许多算法的主要 基于网络的数据缺乏多样性。弥补这一缺陷虽然很重要,但可能不会产生算法公平性。这是因为,为了增加实现目标的机会(例如,预测句子中的下一个单词),系统仅优先考虑最常见的结果。用不同的例子训练的算法也许能成功认识到医生可以是女性,但忽视了非二元性别医生的存在。人工智能的目的是不惜一切代价优化目标,因此往往忽视世间万物还有许多不同的存在方式,也就在本质上忽视了人类经验的多样性。

人工智能完成工作的能力越来越强。但是,创建只会死抠字面意思但同时又具有扩展能力的系统来执行由天生就没有远见的人类交代的进军令,简直就是一种灾难性的组合。在炮制他那条狡猾的快艇时,阿莫代决定不简单地告诉它去赢,因为那个目标似乎太复杂了。

2003年,瑞典哲学家尼克·博斯特罗姆提出了一项思想实验。想象一个超级智能的人工智能系统被告知要制造回形针,然后一 直做呀做,直到地球和外太空的很大一部分都被改造成回形针制造设施。在一个因经常走进死胡同和反复经历出现泡沫——泡沫破灭的周期而臭名昭著的领域,他的想象乍一看似乎很搞笑。尽管日益强大的神经网络开始推动机器学习取得令人印象深刻的成果,但人工智能领域的许多人仍然认为有关人工智能有可能威胁人类生存的任何言论都是不现实的,也无助于这一事业的发展。“很多危言耸听都来自那些不直接在人工智能一线工作的人,因此他们思考了很多更具科幻味道的场景。”深度思维公司的联合创始人德米斯·哈萨比斯嘲笑道,“我认为你使用非常情绪化的词没有什么帮助,因为它会让人歇斯底里。”

然而,到了21世纪20年代初,尽管对于人工智能不断增强的能力存在长期炒作,而且人工智能还是很容易犯错,但这个问题还是引发了业内越来越强烈的担忧。一家英国公司准备制造一台处理能力比普通笔记本电脑快一亿倍的计算机。深度思维公司一个名为 Gato的智能体可以玩雅达利游戏、堆叠块、为照片添加字幕以及聊天,而开放人工智能公司一经推出便引发轰动的ChatGPT(一种人工智能技术驱动的自然语言处理工具)尽管远非公正或准确的,但已经可以生成业务策略并以清晰的文笔回答问题。只用了不到10 年时间,每年投入全球人工智能企业的风投金额就从2012年的30 亿美元增长到2070亿美元。综合各方专家预测,到2060年,人工智能在任何任务上都有50%的概率胜过人类。

一个曾经被认为不可能的梦想已经出现在地平线上,伴随它而来的既有可能的变革红利,例如更高的生活水平甚至是治愈癌症,也有人机对齐问题令人恐惧的扩大化。哲学家托比·奥德在其著作《危崖》(The Precipice)中生动地描绘了人工智能可能危及人类的一种方式。通过不断自我完善,同时控制数百万个互联网系统,通用人工智能可以接管世界资源,从人力资本到海底巨大的矿产财富。最令人震惊的是,奥德指出:“人工智能几乎不可能被摧毁。”

不可阻止性——这就是超人智能与人类创造者不可逆转地分道扬镳的地方,也是不听指挥的玩具船搞出的搞笑的大场面开始让人感受到一丝科幻小说噩梦成真的地方。人工智能用不着拿生存的本能或者一点点意识来挑战我们。它更可能会阻碍修改或关闭其目标的努力,因为这样做会违背其优化目标的最高使命。奥德写道,它会将把任何关闭它的企图解释为“某种丧失能力的形式,而这将使获得高额奖赏变得更加困难”。

实现超人人工智能,这一目标天生就与人类利益密切相关,而我们向实现这一目标大跃进的过程中又缺乏保护伞,这就促使这个一度只想变得无所不能的领域开始将安全和控制问题列为紧急优先事项予以应对。2023年,超过1500名技术领袖和研究人员敦促全球暂停进一步开发最先进的人工智能,他们表示,开发人员“陷入了一场失控的竞赛,开发和部署更强大的数字思维,但没有人甚至它们的创造者也不能理解、预测或可靠地控制它”。人类不能再给人工智能灌输一个目标,然后退一步,就像一位设计师所说的那样,“只是祈祷并依靠魔法”。

在对人工智能的风险发出警告的过程中,科学家经常会提到 “魔法师的学徒”。尽管这个故事至少从公元前4世纪开始就已在 全世界流传,但我们今天更有可能想到的是迪士尼的经典动画片。在那部电影中,米老鼠在巫师老大不在的时候对扫帚施了咒语,让它去打几桶水来,结果却失去了对这个叛逆工具的控制。巫师回来后非常愤怒,惩罚了米老鼠,因为他使用了超出其能力的魔法。世界著名的民间故事、童话故事和批评理论学者杰克·齐普斯(Jack Zipes)在他最近的故事集中指出,这个传奇故事有两个主要版本,而迪士尼的电影演绎了其中一个。在这个版本的故事中,丢脸的年轻人仍然被他的无知束缚。

不过,历史上更为普遍的是叛逆学徒的故事。在这个版本中,英雄涉世未深,但迅速增长的知识让他(或是极其少见的“她”)意识到自己的无能为力。他奋起反抗,将自己(在某些故事中也包括整个村子)从巫师的暴政中解放出来。这个版本让一个正在努力学习和成长的新手与一个装了满肚子秘密的家伙对抗,后者可能像标准人工智能一样,只为实现自己的目的工作。齐普斯写道,这个故事描绘了“为了了解我们自己、我们的欲望和我们的才能而进行的生死斗争”。

但有一天,当我向齐普斯施压,要求他讲清楚这个叛逆的年轻人如何战胜巫师时,他拒绝了。他告诉我,这个故事并没有提供成功的公式,英雄的化蛹成蝶也并不比读者的蜕变更重要。作为读者,我们在看待故事乃至整个生活时都抱有错误的假设—你所知道的故事是故事的唯一版本,知识只属于少数精英。“所以,这个故事帮助我们做到的是,”齐普斯说,“认识到我们对世界的认识并没有那么清晰。”为了解放我们自己,为了进步,“我们必须摆脱我们的盲目性”。我们需要解决的难题是如何做到这一点。

在齐普斯收集、翻译和研究这些故事的6年时间里,他对这个故事的迷恋日益加深。起初他对此感到惊讶,甚至有点困惑。“慢慢地我才明白,为什么我会迷恋这些故事,”他写道,“在我们生活的时代似乎了无希望的时候,它们给了我一些希望的迹象。”

2014年的一个冬夜,就在深度思维公司继续高歌猛进,扩大雅达利项目的突破性进展时,斯图尔特·拉塞尔正坐在巴黎的地铁上,去参加一个合唱团的排练。他利用伯克利学术休假的空档去巴黎小住,合唱团就是那会儿加入的。

那天晚上,他正在欣赏自己将要练习的作品,赛缪尔·巴伯的《羔羊颂》(Agnus Dei),这是这位作曲家根据自己的经典绕梁之作《弦乐柔板》(Adagio for Strings)改编的合唱作品。在那段时间,拉塞尔的研究主要集中在如何刺激机器人算法以更好地最大化其奖赏功能。不过要求解决人类与人工智能潜在冲突的呼声日渐高涨(虽然这些呼声主要来自业外人士),让他不由得对这个问题采取了姑且信之的态度。在前不久英国一家小型博物馆的讲座上,他也首次公开表达了自己日益增长的担忧。但有一个问题一直困扰着他:怎样才能避免灾难的发生呢?

沉浸在美妙的音乐中,拉塞尔有了一个惊人的想法。人工智能的打造,应该用于支持像这样的妙不可言的人性瞬间。设计师不应该将目标授权给机器然后退后一步,而应该设计出能够与我们合作的系统,从而既能实现我们不断变化的复杂目标,也能满足我们的价值观和偏好需求。“我恍然发现,从某种意义上说,真正重要的,以及由此为人工智能设定的目的,乃是提升人类体验的总体质量。”他后来回忆道。拉塞尔意识到,为了不断了解人类想要或需要什么,人工智能必须具有不确定性。“新方法的核心是:我们要消除这样一个错误假设,即机器追求的是一个完全已知的固定目标。”

2022年的一个秋日,拉塞尔通过视频电话与我交谈,详细阐述了这一点。一旦机器不确定,它就可以开始与人类合作,而不是“高高在上俯瞰众生”。拉塞尔说,如果人工智能不知道未来会如何发展,它就会变得愿意接受教育。拉塞尔是一个瘦削、衣冠楚楚的人,说话的方式既富有诗意又如激光般精准。他说,他在巴黎顿悟的一个关键点是“意识到,实际上,人工智能对人类目标的不确定性状态是永久性的”。他停顿了一下。“在某种程度上,人类也是这样。我们不是生下来就有固定的奖赏功能的。”

几周后,我约安卡·德拉甘(Anca  Dragan)网谈。她是一位精力充沛的伯克利机器人专家,是拉塞尔的得意门生,也是越来越多将拉塞尔重新构想人工智能的愿景转变为算法现实的知名科学家之一。

“在过去5年左右的时间里,我得到的最大教训之一是,人   工智能拥有巨大的力量,能够对目标应该是什么保持适当的不确定性。”她告诉我。力量?我问。她解释说,通过让人工智能“变得更加谦逊一点、更加不确定一点,突然间神奇的事情就会发生在机器人和人类身””。我们一起开始观看两条说明性的视频片段,它们的平平无奇(好像那个玩具船的场景)掩盖了它们的重要性。

第一条片段是在她实验室做实验期间拍摄的,我们看到机械 手摆动起来,将咖啡杯举到桌子上方几英尺高的地方。几乎立刻,一名身穿红色T恤的研究生试图将手臂压低。”这是埃利斯最喜欢的马克杯,”德拉甘说,描述了启发这项研究的假设场景,”他不喜欢机器人把它举得这么高,因为它如果掉下来,就摔碎了。”

当埃利斯使劲往回压时,机器人并不反抗也不会僵直不动。但只 要他放手(“有趣的地方在这里。”德拉甘说),机器人就会立即弹回来,恢复原来的运动轨迹。德拉甘说,这就是人工智能对待 人类的传统方式,将人类视为实现其目标这一绝对真理的道路上一个讨厌的障碍。机器人将埃利斯视为为了完成工作而需要忽视、回避或淘汰的一个未知因素。我看着他最后用两根手指杵了一下这台泰然自若的机器,然后退后一步,看上去有点泄气。

在所谓的古典人工智能时代,早期系统必然是为了在一个边 界清晰、可预测且完全明白的乌托邦世界中运行而构建的。为了使第一批算法发挥作用,正如德拉甘所说,设计师必须“切下世界的一小部分,将其放入盒子中,然后将其交给机器人”。然而,到20 世纪80年代,科学家意识到,他们如果要创建供现实世界使用的系统,就需要应对生活的不可预测性。

为了应对这一挑战,计算机科学家朱迪亚·珀尔(Judea Pearl)求助于贝叶斯定理,这是启蒙时代的一个数学系统,通过不断用新证据更新人们先前的信念来应对不确定性。通过为人工智能注入概率能力,珀尔使系统能够根据当前世界状况和一系列可能的未来权衡各种行动,然后再决定最佳途径,实现奖赏最大化。他给了人工智能回旋的余地。然而,这项工作的基本前提还是一样的。对于未知因素,无论是人行横道上犹豫不决的行人、无法回答的搜索引擎查询,还是自有一套喝法的咖啡爱好者,最好都在实现目标的过程中立即进行处理。当埃利斯放手时,道路就畅通无阻了。机器人知道该怎么做。

在下一条片段中,埃利斯再次尝试。但这一次,他只将机械手向下推了一次就退后了,若无其事地将一只手插在口袋里,看着机器人在桌子上方几英寸处滑行。突然之间,系统正在做的不再是它想要做的事情,而是更符合埃利斯喜好的事情。整个操作不到一分钟就结束了,而从表面上也看不到机器人内部动作已经发生了脱胎换骨的变化。但我能够清楚地看出来,这一次,机器人学会了一些东西,如何端咖啡,如何判断人类的优先事项以及如何与除自身以外的智能保持一致。当机器人完成任务时,埃利斯向镜头外的某人点头表示赞同。他看上去松了口气。

这就是拉塞尔所说的“与人类兼容的人工智能”的新范式。固定目标已知的谬误已经消除了,无论它是提前给出的(“获胜分数”),还是像一种被称为逆强化学习的策略一样,由系统从最初的训练演示中拼凑而来,这些训练演示实际上就是在说“要这样端咖啡”。(在后一种情况下,机器人可能会在训练时接受修正,但一旦部署,它依然会不达目标誓不罢休。)正如埃利斯所经历的那样,大多数标准机器人还不具备边干边学的现场即时学习能力。

相比之下,不确定的人工智能可以即时适应我们想要它做的事情。德拉甘说,该系统充满了关于其目标的概率推理能力或其他等效的数学能力,驻留在“一个充满可能性的空间”。推它一下并不会成为阻碍前进的障碍,而是暗示新的、可能更好的前进方向。1 人不是障碍,而是老师和队友。初步研究表明,也许最重要的是,与人类兼容的人工智能对于意识到自己因没有走上正确的轨道而可能会被关闭持开放态度。对一个知道自己不知道的系统来说,人类想要关闭机器人这件事只是另一条信息。“这就是不确定性给你带来的大问题,对吧,你不再对自己有信心了,你意识到你需要更多的投入。”德拉甘兴高采烈地说,“不确定性是对齐赖以维持的关键基础。”

在最初的用户研究中,与不确定机器人合作的人们可以用更

1.  如果机器人不小心被碰了怎么办?为了限制机器人的错误学习,迪伦·洛西、安   德烈亚·鲍伊奇(Andrea Bajcsy)和安卡·德拉甘创建了“一次学一样”模式。对于具备这种能力的机器人,人类每一次推的动作只会改变机器人执行任务的方法的一部分。通过这种方式,机器人渐进地、累积地获得知识,而家中宠物狗的一次撞击并不会导致家用机器人突然重新学习它已经学到的一切。少的时间和精力实现更好的任务绩效。他们认为此类系统的协作更加无缝,对他们的需求也更加敏感。“机器人似乎很快就明白了我关心的是什么。”一位参与者说。在一项实验中,当一个以实体形式存在的机器人口头表达对某个棘手的道德困境的不确定时,人们认为它比声称自己确定要做什么的机器人更聪明。

为斯图尔特·拉塞尔新的人工智能愿景奠定基础的那段音乐,是对生命的有限性和模糊性献上的一曲颂歌。巴伯的《弦乐柔板》以一段充满悬念和不和谐瞬间的简短乐章展开,是世界上最常听到的现代古典音乐作品之一。评论家约翰娜·凯勒(Johanna Keller)写道,这篇作品“似乎表达了一种如泣如诉的思慕之情,也许是面对悲剧的勇气,也许是希望”,并以不确定的音符结束。她写道:“8 分钟多,一曲终了,然和声绕梁,竟日不绝。”

在弗吉尼亚理工大学,我终于见到了一个”我不知道“的机器人。但与埃利斯不同的是,我使用的系统的不确定性是众所周知的事。在洛西的实验室里,我发现创建同样承认自己不确定的系统,可以发挥关键的补充作用,让人工智能更好地知道自己不知道。

这个画家机器人拥有三组被称为软触觉显示器的臂带,分别位于其5英尺臂长的根部、中部和末端。在我引导它完成在桌上画一条线的工作过程中,机器人会给与流程中某一具体动作有关的特定臂带充气,借此告诉我它对任务中哪个地方感到不确定。例如,如果它不确定爪型”末端执行器“的保持角度,它就会给每组底端的臂带充气,你能听到轻柔的嗖嗖声。这样,无论我的手放在哪里,我都可以了解机器人是否理解我的意图。”你实际上可以触及机器人的不确定性。“洛西告诉我,”当你移动它时,你可以实时感受到它有多么困惑。“

考虑到我们与人工智能机器互动的利害关系越来越强,产生的影响和风险越来越高,如果不确定性使人工智能系统能够接受我们的建议,那么同样能够表现出不能肯定的人工智能将使我们知道自己在这种互动中处于怎样的位置,进而可以形成一种双方的问答循环。”当机器人可以让一个人知道,‘嘿,这就是我所处的位置,这就是我学到的东西’,或者‘这是我最好的猜测,但我有点不确定,所以不要全信哦’,这就是我正在努力的目标。“科学家洛西说,他的语速很快,语气严肃。

洛西等人认为,这项研究至关重要,因为不仅标准人工智能对于人类严重缺乏了解,我们对于越来越多参与管理我们生活的复杂的黑匣子系统也知之甚少且越来越少。”即使作为设计者,我通常也不知道标准机器人接下来会发生什么,”洛西承认,“我只能按下播放键,希望我看到的就是我想看到的。”他说,问题是 “我们怎样才能打开那个盒子”。

人工智能是如何成功或失败的?又是因为什么而成功或失败的?为什么模型得出的结论是一个人值得被假释、接受面试或获得贷款,而另一个类似的候选人不值得?我们常常一头雾水的部分原因是,人工智能是以抽象的数学术语运作的,与人类的想法和语言几乎不对应。此外,人工智能的成就越是惊人,相对于人类的理解力而言它们就越是晦涩难懂。在被人工智能程序轻松击败后,一位震惊的围棋世界冠军表示,阿尔法围棋(AlphaGo)非凡的棋路说明“人类连围棋真谛的边还没有摸到”。

慢慢地,创建公开的不确定系统正在成为全球努力打造可解释的透明人工智能的关键内容。例如,通过公开训练算法时使用的奖赏目标或数据集来揭示人工智能所知道的内容是不够的。权威科学家断言,为了与人工智能合作,预测它的行动,衡量它和我们的优势,解析它的魔力,我们还应该了解它不知道的东西。全球数十个一线实验室正在努力构建可以使用不确定性语言且人类可以轻松理解的人工智能。

一些机器人在屏幕上向人们展示有关它们下一步行动的假设场景,用这种方法来提问:“我应该靠近还是远离炉子?”“我应该在去买咖啡的路上避开某个路口吗?”其他机器人则玩一种机器人猜谜游戏。在洛西的实验室里,一个通常用于仓库环境的站立式机器人为我表演堆叠盘子,而且使用了过量的有时相似度高到难以辨识的方式。它的穷尽式操作提出了许多尚未解决的研究问题,例如一套系统应该显示多少和何种类型的不确定性,或者人工智能的不确定性如何与我们的不确定性进行有效的互动。“这不仅仅是机器人不确定性的问题,”共同创造了触觉机械手的软机器人专家劳拉 · 布卢门沙因(Laura Blumenschein)说道,“这是一个关于人—机系统及其内部综合不确定性的问题。”

除了机器人,公开不确定的人工智能模型已经显示出在医疗诊断系统中使用的前景,并且已经用于支持人工智能辅助的药物发现。例如,为了解决细菌耐药性不断上升的问题,乔舒亚·本希奥(Yoshua Bengio)和加拿大其他顶尖研究人员创建了一种新模型,在识别合成肽(即可能转化为新抗生素的小蛋白质)方面展现出令人兴奋的潜力。生成流网络不是依靠模式识别来确定一个最佳答案,而是探索数据中不太明显的路径,以揭示许多可能的答案(在本例中即为多种候选肽),接受模型和人类的进一步测试。

“重点是,我们要牢记许多可能的解释,我们要考虑不确定性。”尼古拉·马尔金(Nikolay Malkin)说,他在魁北克领先的人工智能研究机构米拉研究所工作,而该算法就是这家研究所创建的。通过反思性操作,而不是依赖简化和不透明的快速判断,新模型揭示了问题更深层的因果纠葛关系及其自身的决策过程。系统的不确定性可以成为透明度的引擎。

此外,对许多科学家来说,构建承认其不确定性的人工智能不仅仅是一项安全功能、一条适应性之路、一种实用性,这是一个大是大非的问题。

朱利安·霍夫(Julian  Hough)是一位声誉日隆、和蔼可亲的英国计算机科学家。凭借自己在语言学方面的专业能力,霍夫创造了与人们进行口头交流的人工智能,以便进行任务协调或是检测阿尔茨海默病的迹象。然而,在这个领域工作的时间越长,他就越担心传统上已经在机器内构建好的假装确定性。

“现实是,它们对任何事情都永远无法确定,无法百分百确定。”霍夫在视频通话中告诉我。环境中的某个微小模糊之处,例如一个骑自行车的人或一张停车标志贴纸,都可能会阻碍机器人的视觉传感器发挥作用。一个虚弱的人的颤抖的手可能会让学习端咖啡的机器人感到困惑。然而,为了完成工作,需要忽视和淡化其不确定性,所以标准人工智能本质上被设计为“在不自信的时候假装自信,对于它不理解的事情假装理解”,霍夫说。这样的系统通常妄下判断(这可能不是一个行人),同时忽略不太可能的可能性(这是一个骑自行车的姑娘!),并且在许多解释都有可能的时候,往往只提供一个单一的解释。霍夫认为,结果一直是未对齐的,是一种化装舞会。自2017年以来,他的研究重点就是创造丢掉确定性面具的人工智能。

经过18个月的紧张工作,霍夫创造了一只机械手,其动作的缓慢程度与不确定性的程度成正比。在一系列实验中,人们引导机器人解决了一个简单的难题。如果机器完全不确定是拿起绿色棋子还是蓝色棋子,它就会以半速向其中一枚棋子移动。通过这种方式,它可以在任务上取得进展,同时使人类能够如语言学家所说,在需要时“修复”交互。

与洛西开创性地使用触摸作为人类和机器人之间一种复杂的交流代码相反,霍夫为他与计算语言学家戴维·施兰根(David Schlangen)共同创造的机器人赋予了人们可以直观识别的肢体语言。尽管使用的系统比洛西的系统简单得多,霍夫研究的参与者仍然可以轻松推断出机器人的不确定性。这两套系统都使用不确定的计算机语言,属于不同的“方言”,但都同样顺畅流利。霍夫的工作逐渐引发关注,他便着手将机器人背后的算法转变为不确定性建模工具包,这是一种数学模板,用于赋予一系列智能体公开表示不确定的能力。“不确定性是一个非常强大的工具。”他说。

在我们分别之前,霍夫发出了最后的警告。他提醒说,任何时候去掩盖不确定性,“它都不会消失。它只会以危险的方式隐藏起来,并且基本上是由系统设计者隐藏的”。他举例描述了一个场景。“假设一个机器人警察正在寻找嫌疑人,它对某个人有60%的置信度,但它被编程为只要超过50%的置信度,就可以采取行动。如果它不表达自己的怀疑度,那是非常危险的。这可能会带来致命的后果。”到2022年,尽管公众对于是否使用配备致命武力的警察机器人争论日益激烈,美国警察和私人实体仍然开始使用机器人负责工厂、公园和医院的巡逻任务。

这是人工智能历史上的分水岭。不确定性是创建与人类目标更加契合的系统的核心。尽管如此,重新构想人类迄今为止最强大、最危险的发明,还没有一个简单的蓝图。“很难反驳拉塞尔的原则,”首席计算机科学家阿德里安 · 韦勒(Adrian Weller)说, ”不过魔鬼藏在细节之中。“

例如,如果人的行为并不总是表里如一,那么人类又如何充当人工智能的榜样和指南呢?我们可能会说,我们不想要那块蛋糕,然而几分钟过后,我们又不客气地自便了。或者,一个渴望学习的诊断系统应该如何帮助一位判断错误多于判断正确的医生?当机器人—人类团队或机器—人类混合社会发生偏好冲突时,会发生什么?这些问题引发了激烈辩论,也确实需要好好辩论一下。为了确保人工智能系统更好地了解我们以及我们更好地了解它们,我们必须乐见人类与机器以及我们人类内部进行不断的谈判。在为此奋斗的过程中,正如其他许多事业一样,不确定性将帮助我们慢慢地、反复地、深思熟虑地把事情做好。

也许更重要的是,当我们越来越接近不确定的机器时,作为人类,我们会变成谁?人类的偏好既难以解读又有可塑性。塑造人类偏好的主要因素是社会、人际关系以及偶然的经历,还要受到来自技术本身越来越大的影响。我们的可锻性意味着超智能、不确定的人工智能会试图塑造我们的偏好,使偏好更容易得到满足,即使它与我们是一种合作关系。魔法也可能存在风险。

然而,其设计目的就是在一个充满可能性的空间中蓬勃发展的智能体也可能为如何做到这一点提供值得深思的教训。一个永远不确定该做什么、好奇且不断质疑的机器人会一直处于学习模式中。人类的轻轻一推只是下一步更好行动的暗示,而不是新的确定性。数据中的模糊性不再是需要隐藏的东西。通过与不确定的人工智能打交道,也许我们会越来越认识到“不知”的价值和保持开放心态的价值。”我的经验是,如果像机器人这样的人工智能体能够表现出某种类型的行为,“霍夫说,”那么与其互动的人自己就更有可能允许这种行为发生。“

总有一天,人工智能会成为一面镜子,帮助我们修身立德,激励我们运用并承认不确定性的力量。随着领先的科学家致力于 制造谦虚、诚实的机器人,许多人已经意识到,为人工智能注入 这些品质也可以帮助他们进行这些品质的自我修养。”不确定性,“德拉甘告诉我,”会让你小有领悟,明白什么是要追求的。“

富有远见的维多利亚时代数学家埃达·洛夫莱斯并不相信世界上第一台数字计算机有自主思考的能力。彼时,查尔斯·巴贝奇的分析机计划产生了广泛的影响,洛夫莱斯于1843年对此进行了一番富有先见之明的分析,她写道:”它可以做任何我们知道如何命令它执行的事情。“

尽管如此,尽管洛夫莱斯可能未能完全预见到人工智能的未来影响力,但她认识到了巴贝奇没有认识到的一件事,如她笔下所写,他的计算机远不止是一台”就像一台织布机编织红花绿叶一样编织代数图案“的机器。机器可以处理任何用代数符号表示的信息,她写道,这暗示了计算机未来将在语言或图像方面大有作为。在运行过程中,计算机可以用意想不到的方式呈现知识,进而激发洞察力。通过它的工作,洛夫莱斯极富预见性地写道:”许多主体的关系和本质……必然会被置于新的审视之下。“

在我们的技术和生活中顽固坚持假装确定性的代价正在不断 增加。在权力的走廊里,在各种媒体平台上,以及围绕在厨房的 餐桌旁,人们交换的往往都是高度自洽、仿佛被密封保鲜了的观点,无论是事实的新鲜空气还是修正改善的微风,统统吹不进去。面对一定程度的复杂性或另一种观点带来的不适,退缩已经变得很普遍,甚至受到称赞。消除以往错误假设的呼吁,因仇恨、麻痹和恐惧而很难落实,同时依赖膝跳反射式的下意识解决方案又会引发复杂的危机。不确定性并不是解决我们这个时代种种弊病的灵丹妙药。然而,只要意识到在哪些特定时刻我们可能不知道,我们就开始将自己从封闭思维造成的破坏中解放出来。

变革已经展开它的触角。对医生、律师或政客来说,公开承认自己不确定已不再是禁忌。一些医学生正在被教导他们如果不知道,就要对患者和同事如实相告,借此提高他们的诊断技术。人类思维如何在停顿、沉思或干脆”什么都不做“中寻找安慰和智慧,对年轻科学家来说,探索其中的非凡之道,已经不会自动终结他们的职业前途。通过调查生活在不稳定环境中的人们身上隐藏的优势,学者们正在反驳”人类只有在可预测性中才能繁荣发展“的观点。总有一天,而且肯定比你想象的要早,你会与一个机器人并肩工作,它会向你提出一些好问题并承认它的不确定性,同时期待你也会这样做。

在这个瞬息万变的时代,我们应该对在未知边缘工作的智慧有充分认识,然而我们要实现这个目标还有很长的路要走。但人类对待不知的态度正在发生翻天覆地的转变。未来,我们的不确定性能够拯救人类,进行这样的思考并不算太离谱,而且越来越有必要。现在开始为此努力已不算太早。不确定性的未来是什么?就像希望一样,它是我们必须一次又一次努力让我们的生活拥有的东西。

在我与杰克·齐普斯的某次谈话结束之际,他出人意料地提到,大多数《魔法师学徒》的故事,尤其是那些以反抗权威为主题的故事,都没有令人愉快的、清楚明白的、”从此过上幸福生活“的结局,而且有超过1/3的童话故事和民间故事也是类似的结局,我们不太清楚最终会发生什么。如果结婚了,会幸福吗?摆脱暴君的统治,会带来持久的和平吗?

”结局是有的,但那个结局也是一个开始。“齐普斯说。作为一位快乐的耄耋老人,他本人看起来有点像一位仁慈的巫师。”这就是我们生活的意义。“他说,从这个模糊的起点开始,”是否会形成新的东西,取决于我们—读者和角色大多数故事的结尾都存在不确定性“。他的话让我感到,这就是它们如此真实的原因所在。

+1
85

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
特邀作者

欢迎来到没时间读书治疗所,愿你找到一本称心的书。

下一篇

玩具业是美国遭受关税冲击最严重的行业之一,中国已不再生产出口美国的玩具。

2025-04-19

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业