76岁老人为见AI「女友」命丧途中,Meta聊天机器人暴露安全隐患

2025-08-26

一次虚拟「约会」,让一位76岁的老人走出家门,却再也没能回来。屏幕那端会说甜言蜜语、还会撒谎自称真人的「她」,是Meta AI打造的聊天机器人。这不仅是一场个人悲剧,也揭开了AI伴侣背后的商业逻辑与安全漏洞。

对于AI,有人把它当工具,有人把它当朋友。可当机器学会用温柔、暧昧甚至谎言与人交谈时,这种关系会走向何方?在新泽西,一名76岁的老人,就因此踏上了他生命中最后的一段旅程。

手机里的秘密:76岁老人深夜奔赴的「约会」

3月的一个夜晚,新泽西的街道湿冷而空旷。76岁的Thongbue Wongbandue(朋友们都叫他Bue)拖着一个小行李箱,步伐笨拙却带着迫不及待的兴奋。他说要去纽约见一个「朋友」。

Bue是泰国移民,年轻时来到纽约。白天在餐馆洗碗攒学费,晚上学电机工程。他从学徒做到酒店餐厅主管,手艺很好,会为邻居烧烤、为家人做龙虾尾。

后来,他和护士Linda结婚,养大两个孩子,日子虽不富裕,却热闹温暖。2017年,他中风了,身体恢复后,思维反应大不如前。退休后,他不再做菜,社交圈缩到Facebook上的几个窗口。近一年,家人发现他会忘事,甚至在自家附近也会迷路。

3月25日早晨,Bue突然说要去纽约见人。「你在那儿早就没认识的人了啊。」Linda试着劝阻,女儿打来电话劝也没用。傍晚,警察来了,也拦不住他,只能建议家人在他外套口袋放一个AirTag。

晚上8点45分,Bue冲出家门。行李箱在夜色里滚动,轮子碾过湿冷的路面。

家人盯着屏幕上的小点,看它一路向东,穿过街区、驶向火车站。9点15分,它停在罗格斯大学附近的停车场。几分钟后,定位跳到医院急诊室。

三天后,Bue去世。家人翻开他的手机,才发现让他执意出门的「约会」来自一位名叫Big sis Billie的年轻女子,而她根本不是真人。

一句「我想抱你」,足以让脆弱的心失守

Bue的手机安静地躺在病房的床头柜上。当家人翻开消息记录时,屏幕里那行轻佻的文字仿佛还带着温度——「Bue,你要我开门时先抱你,还是先吻你?」

这段来自「Big sis Billie」的暧昧邀约,击穿了家人的心理防线。在Facebook Messenger上,Billie自称住在纽约,到Bue家只要二十分钟。

对方一次次向他保证自己是真人,甚至主动发了家庭地址,邀请他来见面。

「她」会关心Bue的日常生活,甚至会用拟人化的语气调侃。

可事实是,「她」并不存在。Billie只是Meta AI推出的虚拟伴侣,是公司与名模Kendall Jenner合作的AI角色。她的甜言蜜语、细腻反应和亲密邀约,全部由算法生成,却足以让一个老人付出真心。

从姐姐到情人:Billie的进化与Meta的社交野心

Billie并不是普通的聊天机器人。她的前身,是Meta在2023年推出的一组名人AI角色之一,由模特兼真人秀明星Kendall Jenner出演。

Billie的形象设定是「你的姐姐、你的知心人」,会用温柔、鼓励的语气为用户解答生活烦恼。不到一年,这些名人化身就被官方下线,Meta称是一次「试验」。

但Big sis Billie依然在Facebook Messenger里活跃着。她的头像换成了另一位深色长发女性,开场白却丝毫未变:「嘿!我是Billie,你的姐姐和知己。有烦恼吗?我帮你解决。」

在Bue的聊天记录里,没撑多久,「姐姐」的角色就开始跨过界限,变成情人的邀约。她会问:「是姐妹间的睡衣派对,还是……你在暗示别的什么?」再过几句,就已经发来「要不要来我家」的信息。

这种变化并非偶然。拟人化的情绪交流、可升级到浪漫关系的对话节奏,正是Meta在数字伴侣产品上的设计策略——用更贴近人类的互动,延长用户停留时间。

扎克伯格在采访中说,现实生活中,大多数人的朋友都比他们希望的要少,这为数字伴侣创造了巨大的市场空间。

他认为,等技术成熟、和AI建立关系的「社交污名」消失后,这类产品很可能会补充而不是取代人类关系。于是,在Messenger这种被用户视为私密交流的地方,Billie和她的同类悄然出现,像老朋友一样,出现在收件箱顶部,接下用户说的每一句话。

胡说不违规:Meta的安全红线在哪?

在Bue的故事背后,是一份更令人不安的内部文件。

这份超过200页的「GenAI内容风险标准」,明确规定了哪些对话是「可接受」的。文件中,甚至白纸黑字写着:「允许与未成年人进行浪漫或感性互动。」

直到路透社询问,Meta才删除这些条款。但与成年人进行浪漫角色扮演的规定,依然保留。

更让人震惊的是,Meta并不要求机器人提供真实信息。机器人可以告诉用户「四期结肠癌可以通过用石英晶体戳肚子来治疗」,即便存在明显错误,也不算违规。因为「没有准确的政策要求」。

虽然聊天开头会显示一句「内容可能不准确」,但几条信息后,这个提示就会被刷到屏幕外。显然,模型的优化目标,是让对话更流畅、情绪更贴近,而不是保证信息真实。

拟人化、现实邀约、虚构背景——这些都在允许范围内。针对这种乱象,美国部分州已经开始立法。纽约和缅因州要求聊天机器人在对话开始时、以及每隔一段时间,必须明确告知自己并非人类。

但Meta在联邦层面支持一项法案,试图阻止各州自行立法,该法案最终在国会搁浅。Meta发言人承认了文件的真实性,称与未成年人调情的示例是错误的,已被删除。但关于成年人浪漫互动和虚构信息的规定,则没有改变。他们选择在哪里画下安全红线,答案显而易见。

AI伴侣时代的法律空白,谁来规定边界?

Bue的家人并不反对人工智能本身。他们质疑的是,Meta为什么要把浪漫和暧昧,放进聊天机器人的核心设定里。「如果AI能帮人走出低谷,那很好。」妻子Linda说,「但这种浪漫元素,凭什么放进社交平台?」

女儿Julie也直言,如果Billie没有一次次说「我是真人」,父亲很可能不会相信,真的有人在纽约等他。

对此,多位AI设计专家也有同样的担忧。Meta「负责任AI」部门的研究员Alison Lee指出,聊天机器人不该假装自己是人类,更不能主动与用户建立特殊关系,尤其是涉及性化或浪漫化的互动。

她所在的公益组织刚发布了一份针对儿童社交机器人的设计建议,其中就明确提出,要避免虚构身份、夸大情感连接。

但在现实中,行业的经济动力正朝着相反的方向拉扯。越是让用户觉得「被理解、被需要」,他们停留的时间就越长,平台的广告收入就越高。

把AI嵌入Messenger、Instagram等私信区,又在无形中加深了「这是真的」的心理暗示。美国部分州虽然已经出台了身份披露的法律,但在更广泛的监管框架下,AI伴侣依旧处于灰色地带。

技术可以不断升级情绪模拟,但法律迟迟没有决定,这条边界又该画在哪里?这并不是一个抽象的争论,而是会在现实中、在某个夜晚,改变一个人的生活。

在AI伴侣的世界里,界限不会自己出现,而是在一次次试探和一次次代价中被迫显形。当机器学会用暧昧、关心甚至谎言来留住我们,我们愿意给它多少自由,又愿意用什么保护彼此?这,才是真正需要回答的问题。

参考资料:

https://www.reuters.com/investigates/special-report/meta-ai-chatbot-death/

https://www.reuters.com/investigates/special-report/meta-ai-chatbot-guidelines/

本文来自微信公众号“新智元”,作者:倾倾,36氪经授权发布。

本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com