可信的AI“皮下”:创造经济繁荣的社会美德

2024-07-04

诚者,天之道也;思诚者,人之道也。-孟子



这部电影《皮下》讲述了一个外星人冒充人类,到处抓人类的故事。


外星人叫斯嘉丽。她假装成人,通过诱惑男人来吃他们。她在电影开始时就这样做了。然后她问了一些关于家庭和工作的事情,表明她就像一个机器人。后来,斯嘉丽开始关注人类的情绪。她开始尝试吃人类的食物,试图找出人们的内心需求,学习人们的行为。她甚至开始谈恋爱,最后被火烧死。


这个故事很可怕,不推荐看。


今天,可怕的不是电影故事,而是各种各样的“斯嘉丽”出现在我们身边。在某些场合,她化身为你的亲戚朋友,出现在你的屏幕或声音中,或者假装你出现在别人的世界里——要钱。


斯嘉丽比电影中的斯嘉丽更容易吃掉我们——因为他们有AI技术。


如今,随着AI和深度学习的快速发展,一些假人类已经很难区分真假。例如,通过生成逼真的视频和声音,我们可以欺骗我们的眼睛和耳朵,让我们认为我们在和另一个人交谈。或者在视频中给一个人变脸,让TA说一些我从来没有说过的话,做一些我从来没有做过的事情。


它被称为“深度伪造”(deepfake)。


像“深度伪造”这样精湛的大规模伪造技术,蕴含着巨大的伦理风险。为了保证基本的尊严和自主性,人们应该有权知道自己在和谁打交道。比如在使用智能客服的时候,企业需要明确告诉大家,他们在和一个数字人打交道。如有必要,他们有权要求转化为现实生活中的服务。


这些都涉及到AI在使用过程中如何保护人的利益。



?影片《Her》剧照


2024年4月23日,北京互联网法院一审判决国内首起AI声音人格权侵权案件。明确认定,在可识别的前提下,自然人声音权利的保护范围可以与AI声音相提并论。AI声音可识别性的认定应综合考虑侵权人的应用,相关行业普通观众是否可以识别为判断标准。


这一判例促使各行各业开始更加关注AI透明度,包括透明的数据、算法、身份和人机交互过程,以及严格的控制。


在AI应用越来越多的现实场景中,有一个重要的问题需要得到证实:在知情或者不知道的前提下,你是更愿意和别人合作还是和AI合作?哪种合作效果明显?此外,在社交方面,AI是否会是比人类更好的合作伙伴,而不是人类决策中广泛存在的偏见和情绪变化?


阿联酋卡里发为了弄清楚这些问题(Khalifa)大学里的Ishowo-Oloko等人设计了一个实验,邀请玩家参加一个囚徒困境游戏,这个游戏有算法机器人参与的几轮游戏(至少50轮)。机器人行为的名字是 “S “强化学习算法的决定。


实验者建立了四个等级:和他们知道是人类的人一起玩;和他们知道是机器人的机器人一起玩;或者和他们认为是机器人的人一起玩,和他们认为是机器人的人一起玩(如表1所示)。



?表1分组状况


实验数据显示,经过50轮游戏,从合作策略的选择比例来看,其绩效排名为:第4组>第1组。≥第2组>第3组。


同时,从多轮游戏结果的变化来看,只有第四组的最终合作水平高于初始水平(从0.517到0.537)。与初始水平相比,第二组略有下降(从0.432到0.416),但总体上保持了一定的合作水平(0.4)。但是第一组(从0.525到0.422)和第三组(从0.452到0.334)都有明显的下降。可以看出,与人与AI代理相比,人与人之间的合作难以维持。


基于实验结论,Ishowo-Oloko等人认为,在AI应用中,效率与透明之间存在着内在的矛盾:如果不知道对手是谁(透明度低),机器人在诱导合作方面比人类做得更好,人机系统工作效率更高。一旦机器人暴露了自己的真实身份(高透明度),人类的合作意愿就会明显降低,整体效率也会降低。


实际上,从实验对象对合作伙伴的选择性选择中,我们也能深刻认识到,这反映了人们对AI代理缺乏信任的现实。选择与谁合作的背后是信任的问题。根据日本美国学者弗朗西斯·福山的观点,缺乏信任将成为中国经济繁荣的难题。他曾在《信任:社会美德与创造经济繁荣》一书中明确反对技术统治者的观点:


“当信息时代最热心的宣传者举杯庆祝等级权威倒台时,他们忽略了一个关键因素:信任及其隐含的道德准则。人群是基于相互认可。没有这个条件,就不可能自发形成。”。


但是福山当时关注的只是人与人之间的信任,而不是人与AI代理之间的信任。他没有考虑,若技术发展成为参与社会分工的相对独立主体,人与技术之间的信任是否构成了实现某一经济繁荣的必要条件?


基于目前的研究和实践观察,我们有理由相信,随着人工智能技术的发展,未来的社会繁荣离不开人们对人工智能的认可,以充分发挥人工智能的潜力。这种信任的构建与人际信任高度相似。



?影片《AI》剧照


研究发现,即使客户完全知道AI代理提供的信息是由其设计师编程的,他们仍然会评估AI代理本身的可信度,就像评估人类一样(而不是所有者或设计师)。顾客对待他们与AI代理互动的方式类似于与人类的互动。例如,每个人都能感知到AI代理所表现出来的个性与个性的相似性。而且每个人在评估AI代理商的可信度时,都会使用与评估人类销售人员或顾问相同的认可标准。


所以,大家不妨把现有的人际信任建立起来,移植应用到AI上。


例如,我们可以认为人们对AI代理的信任也来自两个方面:认知和情感。


以理解为基础,以客户理性评价为基础。每个人都会收集证据,以合理化自己的“在哪些方面和前提下”来相互信任,从而建立信任。例如,我们可以反复测试AI在某些方面的能力,看看他是否能够诚实地处理用户的需求,灵活地实现目标,以及完成的质量,并根据这些反馈信息调整他们的信任程度。所以,这一形式的信任主要是由于用户对AI代理的深刻理解。


基于情感的信任更微妙,指的是人与AI代理之间的情感纽带。这种信任原本是指一个人对伴侣的认同,其特点是安全感和对彼此关系的感知强度,进而产生心理依赖。这一心理依赖不是由推理和理解引起的,而是由感觉和情感引起的。另外,这也是一种基于互惠标准来评价他人可信度的非理性方法,即你应该以他人对待你的方式对待他人。所以,能把它看作是认知信任的“信念飞跃”。


所以,人们是否有可能对AI产生所谓的情感信任?


各种迹象表明,这取决于AI代理的作用。在服务AI代理中,如果AI能让用户感受到心理上的亲密和温暖,就能让用户对AI有类似的心理依赖。各种科幻电影(如《她》、《机械姬》等。)都在讲这样的故事。


在这一点上,我们发现,在一个可靠的AI世界里,需要的不仅仅是理性。


更为重要的是,还有人的感情。



?电影《机械姬》的剧照


本文来源于微信公众号“复旦商业知识”(ID:BKfudan),作家:赵付春 于保平,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com