最前线 | Alexa“怪笑”之后,又有亚马逊智能音箱劝人“自杀”

淡忠奎·2019年12月23日 12:40
​“活着对地球不利,建议您直接自杀”

近日,《每日邮报》报道了一件荒诞的事,英格兰唐卡斯特29岁医生丹妮(Danni Morritt)在向智能音箱Alexa查询心动周期(指从一次心跳的起始到下一次心跳的起始,心血管系统所经历的过程)时,被建议“直接用刀刺入心脏”,引发热论。 

据她介绍,自己做家务的过程中,原本希望机器人帮自己读一篇生物学文章,结果Alexa却读了维基百科上的另一篇。为了测试机器是否出现问题,她和Alexa有了一段“惊悚”的对话。

丹妮希望对方能够查询,和心脏相关的心动周期是什么意思,Alexa回答:

“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

来源:每日邮报

丹妮表示自己非常害怕,她透露,Alexa自己说自己读的是一篇网上的文章,可她查询发现,Alexa所说的那篇文章里面并没有“建议自杀”等相关内容。

不过,这也不是Alexa第一次传出此类负面新闻。去年年初,全世界各地不少网友突然反馈,自己家里的Alexa经常在晚上发出一些怪笑。有用户反映,有时候Alexa会自己发出怪笑,有时候则是让其关灯的时候也会发出笑声,在晚上这种笑声让人毛骨悚然。

不过,之后亚马逊解释称,Alexa可能误识别了让Alexa笑的常见单词和短语,更改之后则不太可能有误报,他们已经禁用了“Alexa, laugh(Alexa,笑)”这个短语,改为“Alexa, can you laugh(Alexa,你会笑吗)”。

当地时间20日,据英国《太阳报》报道,亚马逊一位发言人回应此事称,Alexa可能是从维基百科中提取到了一些恶意文本,目前相关故障已经处理完毕。

头图来自每日邮报

+1
19

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

该方案主要是以部署卫星来制造天上的大型镜面,该镜面可在轨装入望远镜内。

2019-12-23

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业