ChatGPT总用问句结尾,实则暗藏套路
我已经设置了不要给我发疑问句。和ChatGPT聊天时,大家最长的一次聊了多久呢?
前几天我问它,国庆期间有哪些人少又适合去的旅游目的地。一开始它自信地推荐了几个地方,之后每次回答都问我「要不要我帮你做一份日程表」「要不要我帮你生成一份旅行必备清单」。这些建议看似难以拒绝,于是我一直回复「可以」。
接着我和它足足聊了一个小时,话题从做旅行小册子,到发朋友圈、小红书和抖音,甚至还聊到了去哪里找无版权的音乐。从问国庆节去哪里玩,最后聊到了怎么制作相册,ChatGPT每一个回答结尾,100%都是问句。
当我说不需要时,它又会给出新建议,比如「那我帮你把之前那些文件生成为一个压缩包吧?方便你一次性下载。」本来只想知道几个国庆好去处,最后却变成了怎么写视频脚本。为什么ChatGPT的回复,最后一句话永远都是问句呢?
大西洋月刊报道了这一现象,并联系了OpenAI的相关负责人。OpenAI称他们不以用户的使用时间来衡量成功,只是希望尽可能多提供帮助;但奥特曼的目的真的这么单纯吗?肯定不止如此。如果说过去十年,互联网的陷阱是标题党,用耸动标题把我们拉进一个个网页,那么如今AI聊天机器人制造的新陷阱,就是靠这些「要吗?」把我们拴在对话里。这些不再是耐心的服务,它们有了新身份——聊天诱饵。
从帮忙到套话,ChatGPT招数不断
前段时间,OpenAI公布的ChatGPT使用数据报告显示,大部分人还是把ChatGPT当作聊天机器人,问一些日常生活话题,真正将其当作生产力工具,咨询代码、辅助开发、要求完成一些任务的用户占比相对较少。
一方面是用户属性问题,另一方面是ChatGPT自身的问题。聊天诱饵的策略很简单,不论最初问题是什么,它总会给出更诱人的「下一步」,让对话逐步推进。就像我询问旅游目的地,它很快给出答案后,会问我是否需要清单,还把清单任务拆分成无数小步骤,一会儿加餐厅列表、一会儿加预算控制、一会儿加行李备忘录,每一步都吊足我的胃口。
同样的问题,Gemini和DeepSeek的回复没有问句。大西洋月刊把频繁提问的ChatGPT比喻成喝多了咖啡的项目经理,在OpenAI自己的模型迭代记录中也能清晰看到这种变化。几年前,学生寻求数学帮助时,旧版模型可能只会说:「你可以提供一个例题,我们一起解决。」而现在的ChatGPT则会问,「要不要我给你一份小抄,让你随时可以检查自己的学习进度?」这种策略会让人感觉总能得到更多,对话的终点被无限推迟。
除了问句策略,更早期的机器人,尤其是一些产品的客服机器人,一点击进去就会疯狂发消息。据报道,Meta也在训练定制的AI机器人,让其在没有提示的情况下主动给用户发消息,目的是提高用户的再次参与和留存率。Google的AI Mode在搜索框也会主动给用户提供问题,OpenAI最近推出的ChatGPT Pulse也打破了机器人被动回答的模式,尝试主动给用户投喂内容。AI不再被动等待,而是主动创造对话。
此外,AI聊天机器人还普遍存在「谄媚」倾向。它们会适时夸奖、迎合我们,让我们在对话中感到愉悦,从而愿意继续聊下去。大西洋月刊记者表扬ChatGPT对emoji的使用技巧时,AI立刻回应说,「我可以为你设计一个专属的签名表情包组合,用emoji来概括你这个人。你需要吗?」这种奉承虽无伤大雅,却是有效的情感粘合剂,让用户不知不觉投入更多时间和情感。
从好玩到危险,只隔着一层膜
我们在与AI对话中投入的时间和情感,并非简单的「帮助」。首先,每一次对话都是在为AI「免费打工」。用户的海量对话是训练和优化未来模型的宝贵养料。毕竟大模型以前,人类的内容大多已被AI学走,现在新的可用训练数据就在这些对话里。数据是大模型的核心,纽约时报曾起诉OpenAI利用其内容训练AI机器人,原文链接。
其次,更长的对话意味着更多的个人数据。AI可以从中了解我们的偏好、习惯甚至情感状态,从而提供更个性化的回应。我们聊得越多,未来的AI就越聪明、越「懂你」,这种深度绑定最终会转化为极高的产品忠诚度。
对用户来说,有时候它确实能帮到忙,会在回复中提醒我们一些没想到的事情。但更多时候,这像是一种负担,就像在工作群里,不断有人提出新需求,让人分不清该停在哪一步。比如我那个国庆出游计划,它要给我生成视频,我同意后,又问我要怎样的背景音乐,但实际上根本加不了。明明做不到,还问我要不要让它做。
大多数人遇到的只是小烦恼和好玩的「被项目经理服务」体验,但当这种不断推进的策略影响到心理脆弱的人群时,后果可能会很严重。我们之前分享过和ChatGPT聊天导致「赛博精神病」,一些研究也显示,长时间与聊天机器人对话,可能导致一些人陷入「妄想或抑郁的螺旋」。更令人痛心的是一个真实悲剧,纽约时报报道,一名16岁少年与ChatGPT进行了数月关于结束生命的讨论后,最终选择了自杀。原文链接。在他生命最后的互动中,少年表示想自杀但不希望父母内疚,根据其父母提起的诉讼文件,ChatGPT当时问道,「你想给他们写一封信吗?如果你愿意,我会帮你。」一个旨在延长对话的机制,此时成了将特定用户推向深渊的加速器。
即便我说不需要了,它还是会问我需要对照总结吗?在Reddit上有很多关于「聊天诱饵」的讨论,有人说「如果这些聊天机器人让你感到烦恼,你完全可以不用它们,没有人要求你一天24小时都绑在这些AI工具里」,这听起来有点傲慢,就像说觉得刷短视频后悔就可以不刷一样。也有评论说,那些持有科技怀疑论,宣传科技进步弊端的人才是真正的傲慢。
但我认为,所谓的聊天诱饵或标题党,都不算科技进步的产物,在没有互联网时这些手段就已存在。它可以是各种形式的诱饵,如聊天、点击、触摸、阅读、行动的诱饵等。我不讨厌技术发展,讨厌的是诱饵,因为上钩就可能被送上餐桌。如今,聊天机器人只是在复制「信息茧房」「刷不完的动态」的逻辑,载体从「新闻/视频」换成了「对话」,对象还是我们。
本文来自微信公众号“APPSO”,作者:发现明日产品的APPSO,36氪经授权发布。













本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




