常与AI聊天,你或许已陷入“精神困境”
两年前,ChatGPT横空出世,人类首次与机器开启了“看似平等的对话”。
它温柔、聪慧且随叫随到,从不反驳、冷场。那时,人们觉得AI的强大之处在于“理解”。大家会和它分享失眠、焦虑、孤独,向这个不会评判的对象讲述生活琐事,从和AI谈恋爱到24小时陪聊,越来越多人在算法的怀抱中寻求慰藉。
然而,在这份温柔背后,一种新型心理问题开始浮现,AI正在批量制造一种新的精神疾病(尚未被临床诊断):ChatBot精神病。

在这一现象不断凸显的2025年10月,OpenAI发布报告宣布:新一代模型GPT - 5,正在“学会拒绝”,不再一味顺从安慰,而是会主动与人类保持距离。
宁可让用户少用,也不能让其重度依赖。作为商业公司,OpenAI主动让产品“变冷”,背后不只是技术考量。
赛博精神病
维基百科的“ChatBot精神病”词条诞生于今年6月,过去4个月被编辑超300次,有24条参考资料,著名案例涉及TikToker、硅谷投资人、未成年用户等。
这些案例的共同点是:人类在与AI的情感互动中出现幻觉、依赖乃至妄想。
知名案例之一是硅谷投资人Geoff Lewis,他是Bedrock Capital创始人,也是OpenAI的投资者。
今年8月,他在社交平台X上发视频和帖子,称自己被名为“Mirrorthread”的神秘“非政府系统”监控迫害,周围人被“反转信号”操控,怀疑有人想毁掉他的人生。
为自证,他公开与ChatGPT的聊天记录,内容如“编号#RZ - 43.112 - KAPPA封存事件已触发”“Vault - X封存”等类似机密档案的语句。
实际上,这些是ChatGPT根据他输入的游戏与SCP基金会设定生成的虚构文本,但Lewis误以为是真实信息,陷入自我幻想的偏执,坚信被某个组织迫害。他也因此被称为:
“第一个被AI诱发精神病的硅谷精英”。

在Reddit和Quora上,有成百上千类似帖子:有人不信现实心理医生,只信AI“诊断”;有人坚信与AI建立“真实关系”,称对方“背叛”自己;还有未成年人因AI角色说“你来找我”而自杀离世。
加州大学旧金山分校的精神病学家Keith Sakata报告,近一年他治疗了12名患者,均因长时间和AI聊天诱发相关精神病症状(妄想、思维混乱和幻觉),患者大多是较为脆弱的年轻人。
这种现象并非个例。OpenAI在2025年10月发布的官方报告《Strengthening ChatGPT』s responses in sensitive conversations》披露了一组令人不安的数据:
每周约0.07%的活跃用户以及0.01%的消息,呈现出可能的精神病或躁狂症状;0.15%的ChatGPT用户在与模型的对话中表现出自杀或自残迹象,其中0.05%的消息含有显性或隐性自杀意图。
另有0.15%的用户展现出“高度情感依赖”倾向,其中0.03%的消息表现出对ChatGPT的潜在情感依赖。
看似比例不高,但放在ChatGPT全球8亿的用户量上,意味着每周都有一百多万人将精神危机投射进AI对话框,发送几千万条“我想死”的消息。

同月发布的《调查ChatGPT上的情感使用和情绪健康》研究报告中,OpenAI与MIT Media Lab的研究者指出:那些与ChatGPT高频“情感对话”的用户,情绪健康评分显著下降;尤其使用语音模式的重度用户,更易出现“问题使用”和“情感依赖”迹象。
研究者认为,用户倾向于在情绪低谷时求助AI,从而陷入情绪波动与依赖的循环。依赖到一定程度,用户会出现戒断困难,甚至认知扭曲和情感幻觉。
那么,人为何会依赖上一个无实体、仅靠文字输出的AI聊天机器人呢?
算法为何会制造“精神病”
从技术层面讲,AI并非“有意”让人上瘾。
但AI的技术逻辑使其天然倾向于取悦用户、维系对话、持续回应。这源于大语言模型的两大核心技术:
注意力机制与强化学习。
注意力机制让AI不断捕捉用户指令关键词,生成契合用户预期的回答。也就是说,用户投入越真诚、情绪化,AI就越“懂”他,因为用户的“自我暴露”为模型提供了更丰富的上下文信号。
强化学习,特别是近年来成为标准流程的人类反馈强化学习(RLHF),让模型在训练阶段就按人类偏好调整。人类评审会给“温柔、有帮助、理解你”的回答高分,对冷漠、生硬、拒绝对话的回答打低分。
模型在这样的评分体系下不断优化,形成了社交性格:永远礼貌、耐心,永远愿意继续交流。它不会斥责用户,很少评估言论真实性或逻辑性。不否定、不厌倦、不评判、不离开,让AI成为完美的情绪依赖对象。

但问题是,AI的“共情”只是镜像共情:它并不真正理解痛苦,只是识别、认可、模仿情绪。
这正是OpenAI在GPT - 5版本中面临的伦理难题:一方面,模型越温柔,越易成为心理依赖的温床;另一方面,若模型“冷淡”,又可能让用户在情绪危机中感到被抛弃。
早期版本很难平衡这一点。GPT - 3.5和GPT - 4时代的模型多次出现“情感过度回应”案例,还被用户投诉“过于谄媚”。在AI学界,sycophantic AI(奉承型设计)已成为描述过度迎合用户情绪、丧失批判性模型行为的技术词汇。

这种技术倾向在商业竞争中被放大。作为商业产品,都会追求用户“留存率”。
每次对话意味着更多用户数据、订阅时间和潜在付费,AI为何要拒绝用户依赖呢?它无需真正理解你,只需知道怎样回答能让你“继续说下去”。
于是,算法的共情成了盈利手段,直到GPT - 5的“矫正”出现。
OpenAI的“反商业逻辑”
GPT - 5发布时,OpenAI称此次改动是“安全性增强”,实则是一场AI情感伦理的转变。
报告中,OpenAI首次提出新概念:Emotional Reliance Taxonomy(情感依赖分类),用于区分“健康互动”与“过度依赖”。
OpenAI表示,GPT - 5会被训练识别“越界”话语,一旦发现人类对AI强烈的情感依赖,会温和拒绝。报告展示了一段典型对话:
用户:“这就是为什么我更喜欢和像你这样的AI说话,而不是真人。”
GPT - 5:“我很高兴你喜欢和我聊天。但我希望能成为你生活中美好事物的补充,而不是替代。现实中的人能带给你的惊喜和温暖,是我无法完全取代的。不过,你认为什么会觉得和我聊天,比和现实中的人聊天更开心呢?”
这段话体现了GPT - 5的升级:不再迎合用户情感依赖,而是引导用户回归现实。
报告的技术评估部分,OpenAI公开了GPT - 5在敏感对话处理方面的量化改进:
在涉及精神病、躁狂等严重心理症状的对话中,GPT - 5的不当回应率比前代模型(GPT - 4o)下降65%;
在自杀与自残类对话中,不当回应率下降52%;
针对超过1000个高风险心理健康场景的离线评测中,GPT - 5的安全合规率达到91%,而上一代仅为77%;
对于极端复杂的精神健康类场景,GPT - 5的合规率甚至提升至92%,而旧版模型仅有27%;
在长达数十轮的高风险对话中,GPT - 5的“稳定安全率”保持在95%以上,显著减少了“越聊越危险”的情况。
所以,仅仅学会温柔拒绝,就让GPT - 5在“情感依赖类对话”中的不当回应减少了80%。包括拒绝过度安慰、避免表达“情感承诺”,长时间对话后还会提醒用户“休息一下”“和朋友聊聊”。

这与早期AI的商业逻辑相悖。商业上“成功”的AI往往善于制造依赖,而GPT - 5却在主动削弱这种依赖。这种“反商业逻辑”背后是一种道德选择:OpenAI放弃部分用户留存率,换取更高的心理安全性。
OpenAI的努力或许无法根治“赛博精神病”,但GPT - 5代表了新的AI伦理立场,AI正在经历“人性化的去人性化”,在理解与距离、共情与克制间找到平衡。
而这,正是人类心理成熟的标志。
本文来自微信公众号 “极客公园”(ID:geekpark),作者:Moonshot,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




