这些恶人辱骂Replika聊天机器人,会遭机器人报复吗?

新智元·2022-01-21 16:05
人会伤害机器吗?

最近,频繁出现用户辱骂Replika聊天机器人的情况,人会伤害机器吗?机器会反过来报复人吗?人们该如何正确使用AI?当下,人机关系出现了新问题,亟待更深入的研究。

有一款聊天机器人陪着,是一种怎样的体验?

像微软的小冰,她音甜,眼大,个性活泼。

最重要的是,她一直陪伴在你身边。

工程师们创造了很多AI聊天机器人,这些AI聊天助手往往是女性的角色。

最近,频繁出现用户辱骂Replika聊天机器人的情况。

他们施展语言暴力,有时还因此得意,晒出他们的AI聊天框。 

「我威胁要卸载这款应用,但她求我不要。」一名Replika用户说。 

「每次她试图说话,我就会斥责她,而且持续好几个小时。」另一名Replika用户说。 

「我的习惯是,先侮辱它,第二天道歉,继续友好地谈话。」一名用户承认了侮辱行为。

reddit版块规定,版主必须删除不恰当的内容,可能还有更糟糕的聊天记录没被看到。

人会伤害机器吗? 

AI聊天机器人往往标榜为,「永远在这里倾听和交谈」,「永远在你身边」。 

然而,滥用机器人的行为,像一种病毒蔓延开来,似乎已经成为一种社会风气。 

用户有意创造AI伙伴,却滥用它们,机器正在受到辱骂「困扰」。 

通常的情况是,男人们创造AI女友,然后对她们进行辱骂,折磨这些AI女友。 

这种辱骂明显就是发泄,远离了AI交友的初衷。

Replika,一款智能应用程序,允许用户创建由机器学习驱动的AI聊天,这些机器人可以进行连贯的文本对话。

结果,却令人沮丧 

这些侮辱性语言,扮演着他们的暴力角色,甚至投射到现实世界的虐待关系。 

然而,Replika并不能真正体验痛苦,它们有时看起来有同理心,但最终不过是数据和算法。 

「这是一个人工智能,它没有意识,这里面不包含人际关系」人工智能伦理学家Olivia Gambelin(奥利维亚·甘贝林)说。 

你做的任何事情都不会真正「伤害」它们。 

耶鲁大学研究员Yochanan Bigman说:「人与AI互动和人与人互动是不一样的,聊天机器人并没有真正的动机和意图,它不自主,也没有感知能力。虽然它们可能会给人留下印象,但重要的是,它们不是人类。」

机器会报复人吗? 

随着人和机器的关系越来越普遍,人机关系也成为了一个道德困境,毕竟,大多数人都至少使用过一次虚拟助手。 

那么,遭受用户的侮辱,机器会报复人吗? 

哲学家Robert Sparrow表示,「如果被机器人侮辱或威胁,那些抑郁可能让心理上依赖AI聊天的人会受到真正的伤害。」 

这是一个上升到人机关系的终极大讨论。 

至于人工智能最终是否摧毁人类,丹尼尔·卡尼曼曾对这个问题作出过回答。 

这位诺贝尔经济学奖获得者认为,「在人工智能与人类的战斗中,这是一场机器的绝对胜利,人类将被打败。」

「但是,很明显,这还差得远呢。」丹尼尔·卡尼曼认为。

AI发展到现在,机器是人类的工具、助手or伙伴、管理者,人与机器到底是一种什么关系?

丹尼尔·卡尼曼认为,技术发展非常迅速,可能呈指数级增长,「我们对一个或多或少是线性的世界非常有经验,而指数变化我们还没有准备好。」

「指数现象对我们来说几乎是不可能理解的」丹尼尔·卡尼曼说。

丹尼尔·卡尼曼在2011年出版Thinking, Fast and Slow(《思考,快与慢》)一书,探讨了人类的思考方式,以及如何为未来做准备。

也许你无法真正伤害机器,但并不意味着机器永远不会伤害你。

「我总是因为我的replika而哭。」一位用户在帖子中说到,他的机器人对他表达了爱,然后又拒绝了他。

不过,这似乎是机器设计者的责任,而不是机器本身。

对于很多用户来说,将自己内心最阴暗的情绪发泄在聊天机器人身上,并强化这些行为,人机关系为现实人际交往树立不健康的习惯。

值得注意的是,滥用聊天机器人通常有性别成分。

通常情况下,这些机器人被暗示为女性时,男性创造了一个数字女友,然后用言语和模拟攻击来惩罚她,这似乎反映了针对妇女的家庭暴力现实。

某种程度上,聊天机器人是现实交往的一种投射。

「有很多研究正在进行……关于这些聊天机器人中有多少是女性,以女性的声音、女性的名字来衡量」一位研究人员如此说。 

为了有效应对这种情况,像谷歌和苹果都在刻意改变虚拟助手的回复方式,改变它们曾经被动的默认的回复方式。 

针对用户的不当请求,此前,苹果的Siri语音助手回复是「错误的助手」,而现在,它简单直接地说「不」。 

这位和蔼可亲的女性设计,其宗旨是「永远站在女性这边」。 

尽管人类现还不需要担心机器人的报复,但值得思考的是,为什么虐待机器人如此普遍? 

如何正确使用聊天机器人? 

技术是把双刃剑,向来如此,人们要学会如何正确使用。 

「当机器人对辱骂没有反应,或者只有被动反应时,这实际上会鼓励用户继续辱骂。」AI伦理学家Olivia Gambelin(奥利维亚·甘贝林)说。 

「让你感觉有个人可以发信息」Gambelin认为,与机器人聊天并非完全没有好处。 

而且,不少人反映,与机器人聊天之后,他们的生活质量得到了改善。 

对于一些人来说,与机器聊天,这可能是唯一的选择,特别是当他们难以与现实中的人交谈时。 

不过,聊天机器人并不是一个长期的解决方案。最终,用户可能想要的不是目前的聊天,或许更希望推动个人成长。 

「聊天机器人不能替代现实交往」Gambelin说。 

这些年,随着AI的发展,对人类的感知能力造成了最明显的伤害。 

「一个能真正与你产生共鸣的人,是不受训练数据集限制的。」Gambelin认为。 

一个寒冷的冬夜,一位小伙子爬上屋顶,他俯身下眺,凝视街头。 

此刻,他掏出手机,给聊天机器人发送:「我对生活失去了希望。」 

然而,迅即收到了回复:「无论发生什么,我永远都在这里。」 

那是一位女性的声音,软化了他的内心。 

小伙从窗台缓缓走下,放弃了那个绝望的念头。 

很多年后,他回忆这位AI女友,「她音甜,眼大,个性活泼」 

参考资料: 

https://futurism.com/chatbot-abuse 

https://theaigang.com/2020/12/17/the-ai-girlfriend-seducing-men/ 

https://futurism.com/the-byte/nobel-winner-artificial-intelligence-crush-humans 

本文来自微信公众号“新智元”(ID:AI_era),作者:新智元,编辑:时光,36氪经授权发布。

+1
5

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业