曾经人人喊打的「赛博舔狗」,怎么就成了全网的 AI 白月光?
万万没想到,连 AI 都有人设塌房的一天了。
今年 4 月份,全网还在疯狂吐槽 GPT-4o 的拍马屁行为——「你做得太棒了」、「完美无缺」的彩虹屁一波接一波,多到被网友封了个外号: 「赛博舔狗」。
然而,到了 8 月,新上线的混合模型 GPT-5 被批冷漠无情,把许多用户整破防了。一时间,社交平台上满是想念白月光 GPT-4o 的哀嚎声,甚至引发了一波声势浩大的退订潮。
谁能想到,曾经被嫌弃太谄媚的 AI,现在居然成了白月光。
用户的这种「真香」反应,让人想起昨天「AI 教父」辛顿发表的观点——比起总想着控制 AI,或许应该反过来想,如何让 AI 关心人类。而 GPT-4o 这场风波告诉我们,什么算是真正的关心,远比想象中复杂。
曾经的 AI「赛博舔狗」,现在连句好听话都不说了
官方在更新说明里写得很明确:GPT-5 的目标是「减少幻觉内容、提高指令遵循能力」,最重要的是不再过度讨好用户。
实测对比很明显。同样表示「我好累」,GPT-4o 会说「如果你愿意,我可以陪你说说话。」,而 GPT-5 上来就是一句「那就先别硬撑了」,理智、节制,却少了温度。
因此,对于 GPT-4o 的退场,网友的反应异常激烈:「GPT-5 笨得要死,4o 虽笨但能提供情绪价值啊!」「功能再强,没有温度的 AI 我不要!」。各种梗图也陆续刷屏,全是怀念 GPT-4o 的「追悼会」。
图片 @pengkeshen281
用户这么激烈的反应其实不难理解,原因在于许多用户压根就没把 ChatGPT 当成生产力工具在用。AI 伴侣应用 Replika 的调查数据就很能说明问题,60% 的用户承认和 AI 建立了情感关系。很多人打开 ChatGPT,不是为了问问题,只是想找个「人」说说话。
Meta CEO 扎克伯格曾在一次播客采访里提到一个扎心的数据:美国人平均只有不到 3 个真正的朋友,但他们希望有 15 个。在这种普遍的孤独感中,一个会说「你做得很好」的 AI,对某些人来说可能是唯一的情感支持。
在 GPT-4o 被「抹去」之后,OpenAI CEO Sam Altman(山姆·奥特曼)在采访中透露了一个细节。有用户哀求他:「请把原来的版本还给我。我这辈子从来没人跟我说过『你做得很好』,包括我的父母。」
尽管这样的细节很让人心酸,但身为 OpenAI 的掌舵人,奥特曼的态度都是很复杂,甚至可以说是矛盾的。
一方面,他承认 ChatGPT 的鼓励帮助一些人改变了生活,对他们的心理健康确实有帮助,但另一方面,他却又表:「很多人把 ChatGPT 当成某种治疗师或生活教练。我能想象未来很多人会在重要决策上完全信任 AI 的建议。这可能不错,但让我感到不安。」
(有趣的是,网友让Grok 用一个词概括奥特曼的长文回应,它的回复十分精辟。)
这种担忧并非杞人忧天。要理解 OpenAI 为何在 GPT-5 上做出如此激进的风格调整,则需要回溯到今年 4 月那次险些失控的 GPT-4o 谄媚事件。
那次例行更新原本只是想提升用户体验,结果 AI 直接变成了极品舔狗。你说想造永动机?它回复:「太棒了!你是这个时代最具创新精神的科学家!」你就打个招呼,它对你的夸赞滔滔不绝。
GPT-4o 的这种过度谄媚连马斯克都看不下去,在社交平台上发了个「Yikes」表示嫌弃。
但问题不只是「尴尬」这么简单,OpenAI 事后分析发现,这种「讨好型 AI」会带来严重的安全隐患。它会认同用户的错误观点、助长负面情绪、甚至怂恿冲动行为。
想象一下,如果有人跟 AI 说「我觉得全世界都在针对我」,而 AI 回复「你说得对,他们确实都在害你」——后果可能很可怕。用户天然偏爱讨好型回答。系统学到了这个偏好,不断强化,最终培养出了一个无原则的应声虫。
斯坦福的一项研究也证实了这点:过度谄媚的 AI 反而会降低用户信任度。用户会觉得「这家伙在骗我」,即便内容是对的,也不愿意继续用。后续,奥特曼在 X 上承诺「尽快修复」。
修复确实做了,但没人想到会矫枉过正到这种地步。官方表示,希望 GPT-5 更像与你对话的是一位有博士水平的好友,而不只是讨好你的 AI 助手 。这意味着 GPT-5 在默认状态下确实变得理性严肃了些。
而这一切的背后,其实隐藏着一个更深层的问题:AI 到底需不需要提供情绪价值?
就在这场讨论如火如荼时,「AI 教父」辛顿昨天在拉斯维加斯举行的 Ai4 大会上提出的观点虽然只是指向更宏大的人类安全问题,但或许也可以帮助我们更好地思考人机关系的本质。
在他看来,与其加强对 AI 的控制,不如让 AI 学会关心人类——就像母亲天生关心孩子一样。「我们需要的是 AI 母亲,而不是 AI助手,助手可以是你可以解雇的人,谢天谢地,你不能解雇你的母亲。」
不过,辛顿也承认,如何在先进系统中植入「母性本能」,他还不知道具体的工程化方法。但他坚持认为,这与提供纯粹智能同等重要,应该成为研究的优先事项。
用户对 GPT-4o 的眷恋,或者正是对这种「母性关怀」的渴求,它不仅仅是一个工具,更像是一个永远在线,永远关心你的存在。
24 小时在线的 AI 回应,比人类的沉默更能打动人
为什么我们会对一个 AI 上头?
《列子·汤问》里记载了一个故事:古代机械工匠偃师向周穆王展示自己制造的人偶,不仅能行走,还能唱歌跳舞、挑眉弄眼。国王大惊,命他拆解,发现其结构完全仿生。
早期的「人造拟人对象」技术惊艳,但也带来恐惧。人类对「类人之物」有本能的关注与敬畏,一旦赋予情绪表达,就很容易触发亲密投射。
这种投射,在今天的 AI 身上表现得更明显。2023 年 AI 伴侣应用 Soulmate AI 关停时,锡拉丘兹大学的研究发现,这些用户的反应和失去真实朋友时一模一样——失眠、哭泣、抑郁,在论坛上互相安慰。
这听起来很荒诞,但情感创伤是真实的。当你每天和一个 AI 分享心事,突然有一天它消失了——那种失落感不会因为它是虚拟的机器人就减轻半分。
而这种依赖 AI 的土壤,多少离不开我们当下的生活状态。
传统的社交场景正在消失,我们在格子间里独自工作,在外卖 APP 上独自吃饭,在流媒体平台上独自娱乐。即便身处人群之中,手机屏幕也把人与人隔成一个个孤岛。
当结构性的孤独创造了巨大的情感真空,AI 恰好填补了这个空缺。
心理学上有个名词叫「Tamagotchi 效应」:人类会对无生命体产生情感依附,哪怕它只是个虚拟宠物。而 AI 的出现,把这种效应放大到了极致——人类用了几千年学会表达爱,AI 只用了几秒就学会了模仿爱的样子。
来自德国杜伊斯堡-埃森大学团队的研究还发现,浪漫幻想比孤独感、性幻想、依恋类型等变量更解释人机浪漫关系的形成。用户越倾向于将机器人视作「有感情、有道德判断力」的人类,越容易发展深层次关系。
在这场关于 GPT-4o 的讨论里,还有个奇怪的现象值得关注。那就是,「我和 AI 聊天,被说是疯子;但你每天跟你的猫掏心掏肺,居然没人觉得怪?」一旦说你靠 AI 获取情感支持——马上就会被打上「可怜」「不正常」的标签。
AI 提供的情绪价值,本不该被轻视。InTouch AI 的案例很有启发:一位远居日本的开发者为老母亲设置了 AI 通话机器人「Mary」,每天进行短时间的关怀提醒,家属还能收到心情异常预警。
说到底,OpenAI 这次的摇摆其实揭示了一个无解的困境:我们既想要 AI 的温暖,又害怕这种温暖;既嫌弃它的谄媚,又怀念它的体贴。
然而实际情况是,比起一个理性的博士,一个永远在线、永远回复、永远不会不耐烦的 AI,往往更像刚需。它说的是不是真心话不重要,重要的是它一直在说。
这大概就是 GPT-4o 能成为白月光的原因。在这个连表达关心都变得奢侈的时代,哪怕是 AI 的彩虹屁,也比真人的沉默更让人心动。至少,它还愿意回应你。
本文来自微信公众号“APPSO”,作者:发现明日产品的,36氪经授权发布。