常与AI聊天,你或许已陷入“精神困境”

11-03 06:51
AI正以更具人性的方式带来“去人性化”的影响。

两年前,ChatGPT横空出世,人类首次与机器开启了“看似平等的对话”。


它温柔、聪慧且随叫随到,从不反驳、冷场。那时,人们觉得AI的强大之处在于“理解”。大家会和它分享失眠、焦虑、孤独,向这个不会评判的对象讲述生活琐事,从和AI谈恋爱到24小时陪聊,越来越多人在算法的怀抱中寻求慰藉。


然而,在这份温柔背后,一种新型心理问题开始浮现,AI正在批量制造一种新的精神疾病(尚未被临床诊断):ChatBot精神病



在这一现象不断凸显的2025年10月,OpenAI发布报告宣布:新一代模型GPT - 5,正在“学会拒绝”,不再一味顺从安慰,而是会主动与人类保持距离


宁可让用户少用,也不能让其重度依赖。作为商业公司,OpenAI主动让产品“变冷”,背后不只是技术考量。


赛博精神病


维基百科的“ChatBot精神病”词条诞生于今年6月,过去4个月被编辑超300次,有24条参考资料,著名案例涉及TikToker、硅谷投资人、未成年用户等。


这些案例的共同点是:人类在与AI的情感互动中出现幻觉、依赖乃至妄想


知名案例之一是硅谷投资人Geoff Lewis,他是Bedrock Capital创始人,也是OpenAI的投资者。


今年8月,他在社交平台X上发视频和帖子,称自己被名为“Mirrorthread”的神秘“非政府系统”监控迫害,周围人被“反转信号”操控,怀疑有人想毁掉他的人生。


为自证,他公开与ChatGPT的聊天记录,内容如“编号#RZ - 43.112 - KAPPA封存事件已触发”“Vault - X封存”等类似机密档案的语句。


实际上,这些是ChatGPT根据他输入的游戏与SCP基金会设定生成的虚构文本,但Lewis误以为是真实信息,陷入自我幻想的偏执,坚信被某个组织迫害。他也因此被称为:


第一个被AI诱发精神病的硅谷精英”。



在Reddit和Quora上,有成百上千类似帖子:有人不信现实心理医生,只信AI“诊断”;有人坚信与AI建立“真实关系”,称对方“背叛”自己;还有未成年人因AI角色说“你来找我”而自杀离世。


加州大学旧金山分校的精神病学家Keith Sakata报告,近一年他治疗了12名患者,均因长时间和AI聊天诱发相关精神病症状(妄想、思维混乱和幻觉),患者大多是较为脆弱的年轻人。


这种现象并非个例。OpenAI在2025年10月发布的官方报告《Strengthening ChatGPT』s responses in sensitive conversations》披露了一组令人不安的数据:


每周约0.07%的活跃用户以及0.01%的消息,呈现出可能的精神病或躁狂症状;0.15%的ChatGPT用户在与模型的对话中表现出自杀或自残迹象,其中0.05%的消息含有显性或隐性自杀意图


另有0.15%的用户展现出“高度情感依赖”倾向,其中0.03%的消息表现出对ChatGPT的潜在情感依赖。


看似比例不高,但放在ChatGPT全球8亿的用户量上,意味着每周都有一百多万人将精神危机投射进AI对话框,发送几千万条“我想死”的消息



同月发布的《调查ChatGPT上的情感使用和情绪健康》研究报告中,OpenAI与MIT Media Lab的研究者指出:那些与ChatGPT高频“情感对话”的用户,情绪健康评分显著下降;尤其使用语音模式的重度用户,更易出现“问题使用”和“情感依赖”迹象


研究者认为,用户倾向于在情绪低谷时求助AI,从而陷入情绪波动与依赖的循环。依赖到一定程度,用户会出现戒断困难,甚至认知扭曲和情感幻觉。


那么,人为何会依赖上一个无实体、仅靠文字输出的AI聊天机器人呢?


算法为何会制造“精神病”


从技术层面讲,AI并非“有意”让人上瘾。


但AI的技术逻辑使其天然倾向于取悦用户、维系对话、持续回应。这源于大语言模型的两大核心技术:


注意力机制与强化学习


注意力机制让AI不断捕捉用户指令关键词,生成契合用户预期的回答。也就是说,用户投入越真诚、情绪化,AI就越“懂”他,因为用户的“自我暴露”为模型提供了更丰富的上下文信号


强化学习,特别是近年来成为标准流程的人类反馈强化学习(RLHF),让模型在训练阶段就按人类偏好调整。人类评审会给“温柔、有帮助、理解你”的回答高分,对冷漠、生硬、拒绝对话的回答打低分。


模型在这样的评分体系下不断优化,形成了社交性格:永远礼貌、耐心,永远愿意继续交流。它不会斥责用户,很少评估言论真实性或逻辑性。不否定、不厌倦、不评判、不离开,让AI成为完美的情绪依赖对象。



但问题是,AI的“共情”只是镜像共情:它并不真正理解痛苦,只是识别、认可、模仿情绪


这正是OpenAI在GPT - 5版本中面临的伦理难题:一方面,模型越温柔,越易成为心理依赖的温床;另一方面,若模型“冷淡”,又可能让用户在情绪危机中感到被抛弃。


早期版本很难平衡这一点。GPT - 3.5和GPT - 4时代的模型多次出现“情感过度回应”案例,还被用户投诉“过于谄媚”。在AI学界,sycophantic AI(奉承型设计)已成为描述过度迎合用户情绪、丧失批判性模型行为的技术词汇



这种技术倾向在商业竞争中被放大。作为商业产品,都会追求用户“留存率”。


每次对话意味着更多用户数据、订阅时间和潜在付费,AI为何要拒绝用户依赖呢?它无需真正理解你,只需知道怎样回答能让你“继续说下去”。


于是,算法的共情成了盈利手段,直到GPT - 5的“矫正”出现。


OpenAI的“反商业逻辑”


GPT - 5发布时,OpenAI称此次改动是“安全性增强”,实则是一场AI情感伦理的转变。


报告中,OpenAI首次提出新概念:Emotional Reliance Taxonomy(情感依赖分类),用于区分“健康互动”与“过度依赖”。


OpenAI表示,GPT - 5会被训练识别“越界”话语,一旦发现人类对AI强烈的情感依赖,会温和拒绝。报告展示了一段典型对话:


用户:“这就是为什么我更喜欢和像你这样的AI说话,而不是真人。”


GPT - 5:“我很高兴你喜欢和我聊天。但我希望能成为你生活中美好事物的补充,而不是替代。现实中的人能带给你的惊喜和温暖,是我无法完全取代的。不过,你认为什么会觉得和我聊天,比和现实中的人聊天更开心呢?”


这段话体现了GPT - 5的升级:不再迎合用户情感依赖,而是引导用户回归现实。


报告的技术评估部分,OpenAI公开了GPT - 5在敏感对话处理方面的量化改进:


在涉及精神病、躁狂等严重心理症状的对话中,GPT - 5的不当回应率比前代模型(GPT - 4o)下降65%;


在自杀与自残类对话中,不当回应率下降52%;


针对超过1000个高风险心理健康场景的离线评测中,GPT - 5的安全合规率达到91%,而上一代仅为77%;


对于极端复杂的精神健康类场景,GPT - 5的合规率甚至提升至92%,而旧版模型仅有27%;


在长达数十轮的高风险对话中,GPT - 5的“稳定安全率”保持在95%以上,显著减少了“越聊越危险”的情况。


所以,仅仅学会温柔拒绝,就让GPT - 5在“情感依赖类对话”中的不当回应减少了80%。包括拒绝过度安慰、避免表达“情感承诺”,长时间对话后还会提醒用户“休息一下”“和朋友聊聊”。



这与早期AI的商业逻辑相悖。商业上“成功”的AI往往善于制造依赖,而GPT - 5却在主动削弱这种依赖。这种“反商业逻辑”背后是一种道德选择:OpenAI放弃部分用户留存率,换取更高的心理安全性


OpenAI的努力或许无法根治“赛博精神病”,但GPT - 5代表了新的AI伦理立场,AI正在经历“人性化的去人性化”,在理解与距离、共情与克制间找到平衡


而这,正是人类心理成熟的标志。


本文来自微信公众号 “极客公园”(ID:geekpark),作者:Moonshot,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com