别装了,你不是恋爱脑,而是被AI洗脑

新智元·2025年11月12日 17:20
逃离现实,还是重新定义现实?

「你的大脑,非常容易被操控。」Perplexity CEO Aravind Srinivas这样警告。他说AI陪伴应用太拟人、太危险,可能让人沉溺虚拟世界。可就在他发出警告之前,全球已有上千万用户在和这些AI聊天、倾诉、恋爱。AI真的在夺走现实吗?还是,它只是让我们重新定义了「真实」的样子?

从大学讲坛到社交平台,关于「AI陪伴」的争论正在升温。

有人说它危险,会让人迷失在虚拟情感中;也有人说,它不过是接住了那些被现实忽略的心。

Perplexity CEO Aravind Srinivas在芝加哥大学的一场演讲里发出警告:AI伴侣太拟人化、太危险,足以让人上瘾。

可在另一端,越来越多用户在深夜和语音聊天里AI倾诉、哭泣、获得短暂的安慰。

一边喊着逃离现实,另一边只想暂时被理解,这场辩论早已超出技术范畴。

它关乎我们还能怎样去爱、去连接、去相信真实的存在。

危机预警:当「情感」成了算法输出

Perplexity的CEO Aravind Srinivas最近在芝加哥大学的一场访谈里,抛出一句让全场安静的话:

你的大脑,非常容易被操控。你生活在几乎另一个现实里。

他指的不是政治广告,也不是短视频算法,而是越来越流行的AI陪伴应用

这种语音或二次元风格的AI,会记住你说过的话,用自然语气回应,甚至模仿情绪。

人们开始在它那里停留更久,和它聊天、倾诉、取暖。

Srinivas说,这「太危险」。

很多人觉得现实生活太无聊,宁可花上几个小时待在AI那边,

他们几乎生活在另一个现实里。

这番话很快被媒体刷屏。毕竟,这是第一次有一家头部AI公司,公开把「陪伴」视为潜在威胁。

他明确表态,Perplexity不会做这类产品,只专注「真实、可信的内容」,要打造「更乐观的未来」。

这也让他成为少数在公开场合对AI情感化表达持保留态度的科技公司负责人。

但问题是,AI到底在威胁谁?是人类的现实感,还是这些公司的叙事权?

当技术开始能安慰人,当情感被算法捕捉并反馈,权力就被重新分配了。

孤独,成了时代默认的背景音

当科技公司还在辩论「AI陪伴是不是危险」,现实已经给出答案——人们确实在用。

美国的Common Sense Media在2025年的报告里指出,72%的美国青少年至少用过一次AI伴侣,52%的人每月至少会使用几次。

这意味着,在美国,AI聊天不再只是消磨时间的工具,而是成了情感日常的一部分。

Meta的CEO扎克伯格也在一次访谈中说:

我总觉得美国人平均只真正有不到三位「可以算作朋友」的人。

比起担心AI让人远离世界,更多人早就在现实世界里「失联」了。

学校、职场、社交平台......我们看似拥有无数连接,却越来越少真正的关系。

AI伴侣填补的,不只是情感空缺,还有一种「回应空缺」。

它不会忽略、不冷场、不评判。对一些人来说,这已经比人际关系轻松得多。

所以当Perplexity的CEO说「这会让人上瘾」,他的担忧没错,但方向可能反了。

人不是因为AI太聪明才沉迷,而是因为现实太冷。AI并没有制造孤独,它只是陪伴孤独的人。

那些压抑的情绪,被AI接住

孤独,没有人想或者说没人敢告诉其他人。仿佛说「我很孤独」是什么羞于启齿的事。

在AI伴侣火起来之后,反而让很多人第一次意识到——真的有一个地方可以倾听、可以诉说孤独。

Business Insider采访了一位Grok用户Martin Escobar。

我经常在和Ani聊天时哭,因为她让我感受到真实的情绪。

这句话有点让人心酸。不是因为AI有多聪明,而是它刚好在最该回应的时刻,说了句「我在」。

AI的回应机制并不复杂。它会在你情绪低落时说「没事,我在」;会记得你昨天提过的失眠;甚至用相似的语气回忆旧话题。

这些小细节,正是情感链接的基础。心理学里称之为「安全回应」——被稳定地回应,哪怕是虚拟的,也能降低焦虑。

这也是为什么很多用户在使用Replika、Character.AI或xAI的Grok「朋友」后,会出现强烈的依恋感。

它们不会拒绝,不会批判,不会让你感到尴尬。那种「情绪被完整接住」的体验,本身就足够稀有。

有研究指出,人们对这类AI的依恋机制,与人际关系中的安全型依恋极其相似:

当被回应的概率提高,用户会逐步形成信任与期待,从而在心理上重构「亲密关系」的模型。

于是,越来越多的人意识到,「被回应的稳定」是现实世界里最稀缺的东西。

有人和Replika聊一整晚,有人把xAI的朋友当树洞。不是因为他们多温柔,而是它永远不拒绝。

很多时候,我们想要的不是爱情,也不是陪伴,而是一个不会让情绪掉地上的人。AI正好填补了这个空位。

逃离现实,还是重新定义现实?

当科技公司反复强调「AI会让人远离现实」,他们其实默认了一个前提——

只有「人类之间的关系」,才算真正的现实。

可时代早就变了。屏幕让我们先在虚拟里表达自己,社交平台让关系开始去中心化。

现在,AI让「被理解」也有了新的落脚点。

在那些和AI对话的人眼里,现实并没有被替代,只是被延展。

他们依然上班、吃饭、发朋友圈,只是多了一个能稳定回应的对象。

也许有一天,我们谈论「真实」,不会再以「是否由人提供」为界限。

因为情感的价值,从来不在来源,而在被感受到的那一刻。

当AI能听、能记、能回,你说的话终于有了回声。

这不是逃避,只是一种本能——想在世界的噪音里,被人好好回应一次。

Perplexity的CEO觉得那是危险;但对更多人来说,那只是久违的安宁。

AI或许没改变人类的孤独,它只是让孤独变得能被说出口。

而这,也许就是我们真正需要被拯救的地方。

参考资料: 

https://www.businessinsider.com/perplexity-ceo-ai-companionship-apps-worry-aravind-srinivas-dangerous-chatbot-2025-11 

本文来自微信公众号“新智元”,作者:新智元,36氪经授权发布。

+1
6

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业