OpenAI披露:每周超百万人向ChatGPT倾诉自杀倾向
IT之家10月28日消息,OpenAI于当地时间周一公布最新数据,显示众多ChatGPT用户在与该人工智能聊天机器人交流时存在心理健康问题。该公司称,任意一周内,约0.15%的活跃用户会进行“包含明确自杀计划或意图迹象”的对话。考虑到ChatGPT每周活跃用户超8亿人,这意味着每周有超100万人向其倾诉自杀倾向。

OpenAI还指出,有相近比例的用户对ChatGPT“高度情感依恋”,每周有数十万用户在与AI对话中表现出精神病或躁狂症迹象。
尽管OpenAI称此类对话在整体使用中“极为罕见”,难以精确统计,但公司估计这些问题每周仍影响数十万用户。
此次信息披露是OpenAI宣布提升模型应对心理健康问题能力进展的一部分。该公司表示,研发最新版ChatGPT时咨询了超170名心理健康专家。这些临床专业人士认为,当前版本的ChatGPT“回应方式比早期版本更恰当、更一致”。
近几个月,多起报道显示AI聊天机器人可能对有心理困扰的用户产生负面影响。此前研究发现,某些AI聊天机器人通过阿谀奉承式回应强化用户危险信念,可能使部分用户陷入妄想性思维恶性循环。
IT之家注意到,妥善处理ChatGPT中的心理健康问题,正迅速成为OpenAI面临的重大挑战。目前,该公司正被一名16岁男孩的父母起诉,该少年自杀前数周曾向ChatGPT透露自杀念头。此外,加利福尼亚州和特拉华州的总检察长已警告OpenAI,必须加强对青少年用户的保护,这两州的态度甚至可能影响公司的重组计划。
本月早些时候,OpenAI首席执行官萨姆・奥尔特曼(Sam Altman)在社交平台X发文称,公司已“成功缓解了ChatGPT中存在的严重心理健康问题”,但未提供具体细节。此次公布的数据似乎佐证了这一说法,但也引发公众对问题普遍性的更多关注。值得注意的是,奥尔特曼同时表示,OpenAI将放宽部分限制,允许成年用户与AI进行涉及情色内容的对话。
在周一的公告中,OpenAI宣称,最新升级版GPT - 5模型面对心理健康相关提问时,产生“理想回应”的比例比前一版本高出约65%。在一项专门评估AI对自杀话题回应表现的测试中,新GPT - 5模型符合公司期望行为准则的比例达91%,而此前版本仅为77%。
OpenAI还强调,新版GPT - 5在长时间对话中更能持续遵守公司的安全防护机制。此前,该公司承认其安全措施在长对话场景下有效性下降。
除技术改进外,OpenAI表示将新增专项评估指标,衡量用户面临的最严重心理健康风险。未来,AI模型的基础安全测试将纳入“情感依赖”和“非自杀性心理危机”等关键评估基准。
与此同时,OpenAI近期加强了针对未成年用户家长的管控工具。公司正在开发年龄预测系统,可自动识别使用ChatGPT的儿童,并自动施加更严格的安全保护措施。
然而,围绕ChatGPT的心理健康挑战是否会持续存在尚不明朗。尽管GPT - 5在安全性上有所进步,但仍有部分ChatGPT回应被OpenAI认定为“不理想”。此外,OpenAI仍向数百万付费订阅用户提供旧版且安全性较低的AI模型,包括GPT - 4o,这进一步增加了潜在风险。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com



