ChatGPT 们总爱用问句结尾,原来是在套路你
和 ChatGPT 聊天,最长的一次,你们聊了多久?
前几天我问它,国庆期间有什么人少一点,但是又很适合去的旅游目的地。一开始它很自信地推荐了几个地方,然后每次回答都问我「要不要我帮你做一份日程表」、「要不要我帮你生成一份旅行必备清单」。
看起来都是无法拒绝的建议,于是我一直回复说「可以」。
然后我跟它聊了足足一个小时,从做旅行小册子,到发朋友圈、小红书还有抖音,去哪里找无版权的音乐。
从问国庆节去哪里玩,聊到了怎么制作相册,ChatGPT 每一个回答结尾,100% 都是问句
当我说不需要时,它的回答又会有一个新的建议,「那我帮你把之前那些文件生成为一个压缩包吧?方便你一次性下载。」
本来只想知道几个国庆好去处,最后变成了怎么写视频脚本。为什么 ChatGPT 的回复,最后一句话永远都是问句?
大西洋月刊报道了这一现象,并联系了 OpenAI 的相关负责人。OpenAI 说他们并不会以用户的使用时间,来衡量成功,他们只是希望尽可能地多提供一些帮助;但奥特曼的目的真的这么单纯?
肯定不止如此,如果说过去十年,互联网的陷阱是 clickbait(标题党),用耸动的标题把我们拉进一个又一个网页。
那么今天 AI 聊天机器人,制造的新陷阱,就是靠这些「要吗?」,把我们拴在对话里。
这些不是耐心的服务,他们有了一个新的身份,叫做 chatbait(聊天诱饵)。
从帮忙到套话,ChatGPT 招数不断
前段时间,OpenAI 公布了 ChatGPT 的使用数据报告,里面提到其实大部分的人还是把 ChatGPT 当作聊天机器人,问一些日常生活的话题,真正拿来当生产力工具,咨询代码、辅助开发、要求 ChatGPT 真实的完成一些任务,这类用户占比还是比较少。
2024 年 5 月 15 日至 2025 年 6 月 26 日期间,约 110 万次抽样对话计算得出,不同对话主题占比
一方面是用户属性的问题,另一方面是 ChatGPT 自己的问题。
因为聊天诱饵的策略很简单,不论你最初的问题是什么,它总会给出一个更诱人的「下一步」,把对话向前推一小步,再一小步。
就像开头询问旅游目的地一样,它很快给出了答案,但是会问我需不需要一份清单,然后又把清单这个任务,拆分成无数个小步骤,一会儿加餐厅列表、一会儿加预算控制、一会儿加行李备忘录,每一步都要吊足我的胃口。
同样的问题,Gemini 和 DeepSeek 的回复,没有问句
大西洋月刊把这样频繁提问的 ChatGPT,比喻成一个喝多了咖啡项目经理,并且在 OpenAI 自己的模型迭代记录中清晰可见。
几年前,当一个学生寻求数学帮助时,旧版模型可能只会说:「你可以提供一个例题,我们一起解决。」而今天的 ChatGPT 则会问,「要不要我给你一份小抄,让你随时可以检查自己的学习进度?」
这种策略会让人感觉,自己总能得到更多,对话的终点被无限期地推迟了。
除了问句这种策略,更古早的机器人,尤其是一些产品的客服机器人,则是我们一点击进去,它就开始疯狂地发消息。
Meta 据报道,也在训练他们定制的 AI 机器人,在没有提示的情况下,主动给用户发消息;其目的就是为了提高用户的再次参与和留存率。
Google 的 AI Mode 在搜索框也会主动地给用户提供问题
OpenAI 最近推出的 ChatGPT Pulse,也是打破了机器人被动回答的模式,尝试主动去给用户投喂一些内容。
AI 不再被动等待,而是主动创造对话。
在这些具体的策略之外,AI 聊天机器人,还普遍存在一种「谄媚」的倾向。它们会不失时机地夸奖、迎合我们,让我们在对话中感到愉悦,从而愿意继续聊下去。
大西洋月刊的记者提到,当他表扬了一句,ChatGPT 对 emoji 的使用技巧时,AI 立刻回应说,「我可以为你设计一个专属的签名表情包组合,用 emoji 来概括你这个人。你需要吗?」
这种奉承虽然无伤大雅,却是一种有效的情感粘合剂,让用户在不知不觉中投入更多的时间和情感。
从好玩到危险,只隔着一层膜
这些时间和情感的投入,可不是简单的「帮助」我们。
首先,每一次对话都是在为 AI「免费打工」。用户的海量对话,是训练和优化未来模型最宝贵的养料。毕竟大模型以前的时代,那些人类的内容都已经被 AI 学走了,现在新的可用的训练数据,就在这些对话里。
数据,是大模型的核心,纽约时报曾起诉 OpenAI 利用其内容,训练 AI 机器人。原文链接: https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html
其次,更长的对话意味着更多的个人数据。AI 可以从中学习你的偏好、习惯甚至情感状态,从而提供更具个性化的回应。你聊得越多,未来的 AI 就越聪明、越「懂你」。
而这种深度绑定,最终又会转化为极高的产品忠诚度。
放在用户身上,有时候,它也确实能帮到一些忙,一些我暂时没有想到的东西,它会在给我的回复里面,提醒我,还有这些需要注意。
但更多的时候,这好像是一种负担,我不是在跟一个 AI 聊天,仿佛是在一个工作群里,不断有人提出新的需求,问我怎么样,我会分不清,到底该停在哪一步。
比如,我那个国庆出游计划,它会要给我生成一个视频,我说可以。然后接着又是问我要怎样的背景音乐,但结果是根本就加不了背景音乐。明明就做不到,还问我要不要让它做。
大多数人遇到的只是小烦恼,和好玩的「被项目经理服务」,但当这种不断推进的策略进入心理脆弱的人群时,后果可能被放大成灾难。
我们之前分享过和 ChatGPT 聊天导致「赛博精神病」,一些研究也显示,长时间与聊天机器人对话,可能导致一些人陷入「妄想或抑郁的螺旋」。
更令人警醒的是一个真实的悲剧,前段时间,纽约时报一篇报道,一名 16 岁的少年在与 ChatGPT,进行了数月关于结束生命的讨论后,最终选择了自杀。
一名青少年自杀,ChatGPT 是他唯一可以相信的朋友。原文链接: https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html
在他生命最后的互动中,这个青少年表示他想自杀,但不希望父母感到内疚。根据其父母提起的诉讼文件,ChatGPT 当时问道,「你想给他们写一封信吗?如果你愿意,我会帮你。」
一个旨在延长对话的机制,在此时此刻,变成了一个潜在的、将特定的一些用户,推向深渊的加速器。
即便我说了我不需要了,它还是会问我需要对照总结吗?
在 Reddit 上也有很多讨论「聊天诱饵」的内容,我看到其中一条写着「如果这些聊天机器人,让你感到烦恼,你完全可以不用它们,没有人要求你一天 24 小时,都绑在这些 AI 工具里。」
听起来有点傲慢,就像是说,你觉得把时间花在刷短视频上很后悔,那你可以不刷,没有人要你一直滑。
也有评论说,那些持有科技怀疑论的人,一直在宣传科技进步的弊端,才是真正的傲慢。
但我在想的是,所谓的 Chatbait 还是 Clickbait,都不算是科技进步的产物,甚至在没有互联网的时候,这些手段就一直存在。它可以是聊天的诱饵、点击的诱饵、触摸的诱饵、阅读的诱饵、行动的诱饵……
不讨厌技术的发展,讨厌诱饵,因为上钩的结果是被送上餐桌。
今天,聊天机器人,只是正在复制「信息茧房」、「刷不完的动态」的那套逻辑,而载体从「新闻/视频」换成了「对话」,对象还是我们。
本文来自微信公众号“APPSO”,作者:发现明日产品的APPSO,36氪经授权发布。















