强大的人工智能可能带来的法律风险和应对策略

05-31 21:02

原创 陈宇超 民主和法制时报


核心提示:人工智能的快速发展也意味着存在更多已知和未知的风险,这对法律的回应和规范提出了挑战。企业收集数据的技术应用和数据过滤保护机制应当在法律层面进行更详细的规定和严格的监管,制度体系应当得到完善。


武丹/绘图


作家|陈宇超


责任编辑|薛应军


文本共有2960个单词,估计阅读需要9分钟。▼


五月十四日凌晨,美国人工智能OpenAI在官网发布了旗舰生成人工智能模型“GPT-“4o”,其中“o”代表“omni"(全能),是指该模型处理文本、语音和视频的能力。与2022年11月推出的人工智能聊天机器人ChatGPT相比,它具有与人类相似的对话能力,具有幽默感,可现场自拍,并提供描述,包括你的着装,甚至伴随着现实世界中绝大多数的倾向,如中断、理解语气等。另外,除了更快的响应速度外,GPT-4o似乎很容易捕捉到情绪,并根据用户的要求调整语气和风格,甚至在回应中加入音效、笑声和歌声。一些媒体认为,这预示着强大的人工智能-生成型人工智能领域再次迎来了历史性的时刻,这引起了人们的高度关注和讨论。


近年来,随着人工智能技术的不断发展,它可以为人类社会提供极大的便利。以ChatGPT为代表的强大人工智能,不仅可以实现传统人工智能的功能,还可以在自学、写论文、编码、拟定法律意见、智能诊疗等方面得到广泛应用,对社会发展变化产生了深远影响。然而,机遇总是与挑战并存。人工智能就像一把双刃剑。它的快速发展和升级必然意味着更多已知和未知的风险,如隐私数据隐私和“算法歧视”、在知识产权等方面的法律风险等方面,这对法律的回应和规范提出了挑战。


强大的人工智能带来的风险和挑战


与传统人工智能相比,强大的人工智能带来的挑战和风险可能更加明显。本文主要从数据隐私、“算法歧视”和知识产权三个方面分析生成人工智能可能带来的风险和争议。


第一,数据安全问题。与传统人工智能相比,ChatGPT等生成式人工智能具有很强的数据采集和抓取能力。除了用户提供的数据,网络平台本身的大量内容也可能被收集和读取用于内容生成,从而可能导致数据侵权、泄露和隐私侵犯。生成式人工智能的升级迭代,如ChatGPT,需要大量的数据支持,这些信息通常来自公司购买或自行收集和抓取。这两种方法都存在数据侵权和隐私泄露的风险,公司购买的第三方数据可能存在权属不明确的问题;由于生成型人工智能客户的受众非常广泛,用户包括政务处理者、公司员工和个人用户,他们收集的数据和信息非常庞大。在这些因素中,储备的数据一旦因不明攻击等因素被泄露,就会危害国家安全,泄露商业秘密,侵犯个人隐私等。此外,在数据采集过程中,人工智能本身可能会出现收集不当的情况,比如非法收集用户未经授权的数据,突破客户知情同意的原则,自行抓取数据。


第二,“算法歧视”可能发生在ChatGPT等生成式人工智能中。生成人工智能通常基于海量数据和强大的模型计算率生成文本,其内容由R&D人员和用户提供的数据和模型进行多次训练,使其“算法歧视”更加隐蔽。目前,生成人工智能的培训数据和词库大多来自欧美国家,与中国的价值观不一致。因此,价值歧视的风险可能隐藏在生成内容中,例如,它们主要侧重于西方国家的价值观。与此同时,生成型人工智能的用户很少有社会弱势群体客户,如残疾人、不会使用电子产品的老年人等。所以,在收集数据和导出数据时,生成式人工智能可能会因为“数据鸿沟”的出现而对这个群体的权力产生歧视。


最后,强大的人工智能的快速发展给传统的知识产权保护体系带来了巨大的挑战。与简单完成人类指令的传统“弱人工智能”不同,基于数据读取和模型训练的生成型人工智能具有抽象的思维能力和解决问题的能力。从外观上看,它似乎具有人类自我“创造”的能力,其产生的内容应该属于用户还是人工智能本身,值得思考。此外,生成式人工智能的输出内容是基于大量的数据收集和抓取,其中未经授权的内容可能会被人工智能读取收集,用于文本内容的输出,不会标注出处。这是否损害了原数据作者的知识产权?现行法律法规应该怎样规定这一做法,并制定保障措施?对于传统的知识产权保护体系来说,这些问题都是一个挑战,需要现行的法律和完善。


强大的人工智能来了,法律怎么处理?


世界各地大多表现出谨慎的态度,积极制定法律法规来引导和规范ChatGPT等生成式人工智能可能带来的各种法律纠纷。例如,美国政府已经开始研究是否需要审查ChatGPT等人工智能工具;意大利和德国监管部门已经发布了ChatGPT禁令;最近,欧洲议会通过了世界上第一个人工智能控制法案《人工智能法案》。2023年7月,中国国家网络信息办公室联合国发展改革委、教育部、科技部、工业和信息化部、公安部等7个部门发布实施《生成式人工智能服务管理暂行办法》(以下简称《办法》),进一步规范生成式人工智能的发展。可以看出,全世界都非常重视人工智能风险的规避。但是,为了充分发挥强大的人工智能在人类社会中的作用,实现其最大限度的合理应用,规避潜在的风险,我们应该以更科学、更直接的方式进行治理。


第一,对《办法》规定进行细化,保护数据安全。虽然现行《办法》已经确立了保护数据的立场,比如规定“使用具有合法来源的数据和基本模型”,但需要进一步提高清晰度和可执行性。在这方面,企业收集数据的技术应用和数据过滤保护机制应当在法律层面进行更详细的规定和严格的监督。对于数据采集,要求遵守客户知情同意原则,严禁突破用户知情同意原则,非法收集未经授权的信息。同时,规定开发者在使用生成人工智能时,必须在软件端明确告知其所享有的信息自决权、删除权等个人信息权益,以提高用户的个人隐私保护理念。对于与国防安全、商业秘密相关的数据,人工智能开发者需要设置严格的过滤和保护机制,从而有效防止数据隐私泄露。需要注意的是,生成式人工智能在数据处理和应用形式上更加复杂,相关立法部门应随时关注技术演变趋势,以便更好地制定与数据保护相关的规则。


第二,完善制度体系建设,防止“算法歧视”。《办法》规定了防止人工智能“算法歧视”的现有条款,如第四条第四项:“在算法设计、培训数据选择、模型生成和优化、服务提供等过程中,采取有力措施防止民族、信仰、国家、地区、性别、年龄、职业、健康等歧视。“但是,这一规定与数据安全相关规定相同,缺乏具体的规则指导和规范。防止“算法歧视”,包括企业内部伦理审查监督机制、监督机构和中立第三方监督审查体系,加强和优化反歧视体系建设。在算法设计中,法律应该规定公平公正的原则应该在企业内部实施。在模型培训中,应特别注意可能引起歧视的因素,如性别、年龄、职业和国家。同时,通过监管部门或中立第三方组织,制定监管机构和外部中立组织定期抽查算法模型的规则,定期审查生成人工智能的算法,以监管是否存在“算法歧视”问题。


对于生成型人工智能所涉及的知识产权纠纷,应明确人工智能对数据使用的界限,保护知识产权。目前,大多数观点并不认为生成式人工智能具有“独立创造”的能力,它不同于具有情感、价值判断和思想的“人”创造的内容和过程。所以,人工智能生成的文本仍然应由用户享有其知识产权,而不能被视为单独的创作者。在知识产权保护方面,为避免人工智能收集和抓取未经授权的信息,侵犯原作者的知识产权,应当在法律中明确生成式人工智能收集和读取信息的界限,对未经权利人授权的数据和内容形成文本的数据进行处罚。


(作者单位:上海社会科学院法学研究所)


原题:《强人工智能可能带来的法律风险及对策》


阅读原文


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com