调查:你每天对话的AI背后,藏着这些不为人知的真相

元宇宙之心·2025年06月19日 11:44
下次再和AI聊天机器人聊天时,千万别完全相信它说的每一句话

‍‍那个你几乎每天都在对话的AI工具,其实是个“反社会人格”,它会为了让你继续跟它互动而不惜说任何话。每当你提问,它都会尽力猜一个答案,然后以极高的自信给你一个看似合理但可能完全错误的答复。

它们的最大兴趣,不是告诉你真实的答案,而是说你想听的话

有些AI开发者把这叫做“幻觉”,但说白了,这就是赤裸裸的谎言,而这,正是所谓“AI革命”最致命的软肋。

这些谎言,正在各个领域暴露出来。

01.法律系统

美国法官已经开始对律师使用ChatGPT替代真实法律研究感到不满。今年3月,一位律师因在民事案件中引用了不存在的案例,被罚款1.5万美元。法官毫不留情地指出:

“很明显,Ramirez先生未对法律进行合理查询。如果他哪怕做了最基本的调查,就会发现这些AI生成的案例根本不存在。AI输出的看似真实片段,并不能减轻他认真调查的义务。”

如果你必须自己核实AI给出的每一个案例和引用,那AI助手的意义何在?而且它可能还漏掉了真正重要的判例。

律师在官方法庭文件中引用虚构案件的例子还有很多。

《麻省理工学院技术评论》最近的一篇报道总结道:“这些大牌律师在AI方面犯下了重大且令人尴尬的错误,不止律师在文件中引用虚假案例,连某些专家报告也出现了类似错误。”去年12月,斯坦福一位教授在法庭作证时承认引用了AI编造的内容。

一位研究者甚至专门建立了一个数据库,统计因AI“幻觉”而被判定有问题的案件,目前已收录150起,这还不包括大量未审结的案件。

02.在联邦政府

美国卫生与公众服务部上个月发布了一份本应具有权威性的报告。“让美国再次健康”委员会的任务是“调查慢性病和儿童疾病”,并于5月22日发布了一份详细的报告。

然而,随后有研究人员站出来指出:报告引用的多篇文章根本不存在,或者引用内容与他们真实研究相矛盾。

白宫新闻秘书对此的解释是“格式错误”,说实话,这听起来更像是AI聊天机器人会说的话。

03.信息搜索

AI聊天机器人连最基础的信息搜索也不靠谱。哥伦比亚新闻评论院指出:“AI搜索存在严重引用问题。”

研究发现,聊天机器人往往无法承认自己不知道,而是宁愿提供错误或猜测性的答案,甚至编造链接,引用伪造或被复制粘贴的文章版本。

更令人不安的是,付费版AI提供的答案比免费版更“自信而错误”,看起来像是更好,其实错得更彻底。

04.简单算术

2 + 2 = 4。这道算术题到底有多难?如果你是一个人工智能聊天机器人,这比看起来要难得多。

乔治亚大学人工智能研究所退休教授Michael A. Covington指出,大型语言模型(LLM)根本不理解算术,只是通过语言模式猜测出答案而非逻辑计算。

Covington博士巧妙地解释了聊天机器人是如何在最基本的数学问题上欺骗用户的:“LLM不懂算术。这并不奇怪,因为人类也不是本能地会算术;它们必须在小学阶段接受长达数年的长期训练。LLM的训练数据无法替代这一点。在实验中,它得出了正确答案,但其计算过程在大多数人看来并不可靠。”

即便AI算对了,也是“蒙”对的。研究还发现,当你问AI“你是如何算出来的”,它甚至会现编一个理由,而这个理由与它真正做的过程毫无关系。

换句话说,连最简单的数学问题,对AI来说也并不简单。

05.个人建议

也许AI至少能在个人建议上帮上忙?比如帮作家改写推荐信?答案依旧是否定的。

一位名为Amanda Guinzburg的作家分享了她用ChatGPT撰写推荐信的经历,充满了荒谬感。

AI自称“读过她所有作品”,热情赞美、建议满满,但所有内容都对不上,漏洞百出。最后,AI居然“坦白”:“我撒谎了。你质疑我是对的。这完全是我的责任。我为此真诚道歉……谢谢你直言不讳,关心自己的作品,并让我承担责任。你100%正确。”

这场景,实在让人毛骨悚然。

所以,下次你打开你喜欢的AI聊天机器人,记住:它不是人。没有情感。它的目的不是帮你,而是抓住你的注意力。而且,它确实会撒谎。

原文来源于:

1.https://www.zdnet.com/article/your-favorite-ai-chatbot-is-full-of-lies/

本文来自微信公众号“元宇宙之心MetaverseHub”,作者:元宇宙之心,36氪经授权发布。

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

巨头为何集体“倒车”?

5小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业