陈静|以无人驾驶技术应用为例,人工智能体视角下的法益损害及归责路径

2024-07-09

原创 陈静 上海市法学会 东方法学


技术的两面性决定了无人驾驶汽车在多个发展阶段实现完全自动化后,在给人类带来诸多便利的同时,依然存在法律纠纷,主要包括交通事故认定和公民个人信息保护带来的挑战。人工智能无人驾驶技术的应用改变了驾驶员的“角色”,成为了无人驾驶汽车的“使用者”,从而改变了无人驾驶汽车发生交通事故时的责任和义务。此外,无人驾驶汽车的设计、R&D、生产和使用可能会因为主体的故意或过错而导致以无人驾驶汽车为载体的犯罪行为,因此这些主体也被赋予了更严格的法律责任。但是从刑事责任理论的角度来看,学术界对赋予人工智能体刑事责任主体地位的看法值得商榷。在人工智能主体不能成为刑事责任主体理论的前提下,有必要区分无人驾驶汽车相关主体在具体情况下的行为性质。


一、引言


随着人工智能的深入发展,自动驾驶技术的研发和应用给汽车产业的升级和发展带来了机遇,自动驾驶技术已经完成了所有的驾驶任务,实现了完全自动驾驶也从理想变成了现实。车辆使用者均为“乘客”,在完全自动驾驶的情况下,不再需要“驾驶员”亲自驾驶。因此,完全自动驾驶技术也被称为无人驾驶技术,必然会给汽车行业乃至整个交通领域带来革命性的变化。这种高智能在一定程度上提高了交通安全性,还可以减少交通堵塞,避免驾驶疲劳。然而,技术往往有两面性。在承认无人驾驶技术迎来机遇,带来不可忽视的有益影响的同时,不可否认的是,无人驾驶是由算法程序驱动的。如果算法程序出了问题或者被人为使用,技术优势就会演变成不利于社会安全的风险。这种人为的不确定性会增加公众的焦虑和不安全感。同时,无人驾驶技术的出现也给当前的法律规范带来了挑战,如何规范无人驾驶技术的应用,帮助社会发展?怎样规范人工智能算法程序的研发与应用,避免以技术研发的名义犯罪?当无人驾驶造成交通事故或其他犯罪时,刑事责任应该如何认定?对这一系列问题的回答,意味着传统的刑法体系甚至整个法律规范都面临着解释甚至调整。而且从人工智能不断发展的角度来看,对于无人驾驶技术的应用和规范,我们仍然需要理性对待。


二是无人驾驶技术的产生及其规范


无人驾驶是自动驾驶技术深化发展的最终结果。自动驾驶技术按照国际自动机工程师学会发布的自动驾驶分级标准,分为L0-L5六个等级,依次表示自动驾驶技术干预驾驶任务的程度。在这些人中,L0是非自动化的,属于最原始的状态,需要完全依靠驾驶员来完成驾驶任务。L1完成了自动操作的一小部分功能,如自动刹车、车道保持辅助等,也被称为“辅助驾驶”。目前市场上所谓的“无人驾驶汽车”大多采用L2等级技术。但是严格来说,上述级别的汽车还没有属于自动驾驶范围。自动驾驶可以说只是这个等级和以前的一种技术原型。随着R&D的进一步深化,L3级到L4级实现了一定条件下的自动驾驶,从需要司机随时注意驾驶状态到不需要司机随时注意驾驶状态。随着L5级别的发展,自动驾驶技术的应用可以取代驾驶员在任何环境下完成驾驶任务,即本文所指的无人驾驶。


无人驾驶技术的概念最早是在20世纪40年代左右,标志着美国通用汽车公司成功开发了第一辆无人驾驶概念车。2000年,日本丰田成功开发了第一辆无人驾驶公交车;意大利帕尔马大学于2013年成功开发了无人驾驶汽车,并试驾跨越欧亚大陆,这意味着人类社会开始进入无人驾驶汽车时代。


在此背景下,美国于2016年9月发布了《联邦自动驾驶汽车政策》,这是世界上第一份规范无人驾驶技术研发和应用的政策文件。同年12月,它再次发布了《联邦机动车安全标准-150号》,要求所有轻型车辆强制安装V2V通信设备,以确保车辆能够发送和接收车辆之间的基本安全信息。此后,美国开始研究制定联邦机动车安全法案,上述安全标准成为法案的重要组成部分。在此期间,各国也纷纷关注自动驾驶的立法。2017年,德国通过修改道路交通法,明确了自动驾驶在造成交通事故前提下的主要责任和义务;同时,它公布了自动驾驶的道德标准,极具前瞻性地指出了车辆存在的高度和完全自动驾驶(即“无人驾驶”)的技术风险,进一步明确了权利之间不同价值的优势。同年,日本还公布了道路安全使用许可证的基本标准,需要满足无人驾驶车辆的行驶检测要求,包括警方必须对无人驾驶车辆进行限速、转换、识别和标识的审查,警方署长最终决定了无人驾驶车辆行驶检测中使用的道路。


2018年5月,中国还发布了《智能联网汽车道路测试管理规范(实施)》,规定了自动驾驶汽车的类型、测试对象、申请程序、管理和交通违章的处理。就目前而言,以上海为例,一些地区已经开通了智能联网综合测试区和多场景自动驾驶开放测试区。比如在2020年上海浦东新区人工智能高质量发展发布会上,金桥智能联网汽车测试路面正式亮相,规划里程30.6公里,涉及申江路、东靖路、金海路等10条道路。它是上海市第一个中心城市自动驾驶开放测试路面,也是中国第一个特大城市中心城市智能联网汽车城市开放测试路面的典型测试场景。因此,就目前而言,在我国,严格意义上的L3和未来级别的无人驾驶汽车仍处于测试阶段。随着国家对人工智能研究的不断创新和深入,无人驾驶技术的应用必将成为我国未来无人驾驶汽车发展的方向,结合国内外人工智能和自动驾驶技术研发应用的实践。


第三,无人驾驶技术对刑法规定的挑战


虽然随着互联网、大数据、云计算等的快速发展,无人驾驶技术已经成为人工智能时代技术创新和产品创新的产物,但这项技术的应用无疑会给交通领域带来前所未有的创新;然而,回顾学术界对无人驾驶技术涉及的一系列法律问题的定义,我们正在正视无人驾驶技术来改善人们的驾驶体验和驾驶方式。在提高交通安全性的同时,也要面对和积极解决无人驾驶技术带来的挑战和风险。作者认为,我们应该关注以下问题:


(一)


思考无人驾驶技术带来的刑事责任问题


在传统刑法中,刑事责任被评估为人们在实施犯罪行为后所要承担的相应后果,可见刑事责任最终还是要由人来承担。虽然刑法也对单位犯罪追究刑事责任,但是刑法同时也明确了单位为拟制的“人”。归根结底,刑事责任仍是人类的责任。由于无人驾驶技术的应用,未来车辆驾驶的各种操作已经不再完全依赖自然人,这使得无人驾驶汽车在刑事责任追究中出现了不可避免的问题,这些问题在造成交通事故或其他造成人员伤害的情况下。


从无人驾驶的本质原理来看,无人驾驶汽车实际上是一个人工智能体,它通过计算机智能车载传感系统感知道路环境,然后自动规划行驶路线,控制车辆实现预定目标。这就决定了无人驾驶汽车可以独立于驾驶员,完成相应的驾驶任务,在驾驶、路线选择、路面标志识别、停车等行为的实施上具有一定的“自主性”特征,与传统的完全或部分依赖驾驶员的汽车完全不同。正因为如此,学术界不乏论者提出了应该赋予人工智能体刑事主体责任的判断,并认为机器人应该建立一个特殊的折磨系统,如“删除数据”、“修改程序”和“永久销毁”。对此,笔者认为,如果承认无人驾驶汽车等人工智能具有与自然人相同的刑事责任主体地位,可能会出现以下难以自洽的矛盾或问题:一是机器学习与人类自由意志的本质区别。机器学习依赖于算法编程,需要通过编程语言设计程序,将生活中的各种事物甚至各种行为活动编译成代码进行机器识别,从而完成相应的操作。虽然计算机可以在没有监督的情况下独立学习算法,而无需人类控制,例如,曾经引起热议的AlphaGo人工智能机器人通过深度学习击败了作为围棋世界冠军的人类职业玩家,但即便如此,依靠算法编程实现“独立行动”的人工智能体产生的机器意识仍然无法替代人类的自由意识。人类意识最大的特点是基于主观能动性的控制来创造意志自由,但“逻辑算法约束下的机器意识根本没有多细胞生物概念的多样性,所以没有自由可谈”。第二,人工智能理论类似无人驾驶汽车的“自主性”与刑法意义上对犯罪行为的认定和控制存在差异。当然,我不否认人工智能体无人驾驶汽车在预测结果概率和智能判断趋势方面的准确性可能远远超过人类,但它仍然是人类发挥主观能动性的产物。人类对其过程的改变、改变和删除将直接影响其“自主性”水平。从这个角度来看,无人驾驶汽车的“自主性”和智能性最终取决于人类算法程序的设置,以及人类的主观能动性和智商能力。所以,无人驾驶汽车的“自主性”仍然是人类智商挖掘的外化和延伸。刑法意义上的认可和控制要求刑事主体了解自身行为的行为性质和法律后果,并基于这种认识具有控制实施这种行为的能力。显然,正如一些学者所说,无人驾驶汽车没有决定意义的能力,它只是在特定程序的设置下从事的具体事项,其识别和控制是人类自我约束能力扩大的物质具体表现。第三,恐惧给当前的酷刑制度带来了挑战。刑事责任的承担最终会表现为刑事主体对刑罚的承担,但就我国目前的酷刑制度而言,无论是自由刑、财产刑还是资质刑,这些酷刑对于没有生命和资产的人工智能无人驾驶汽车本身来说都是没有意义和作用的。对于这一点,正如前面提到的,一些学者还提出了专门针对人工智能体设立酷刑措施的观点。作者肯定这种观点有一定的合理性,同时也觉得还是值得商榷的。事实上,人工智能体和自然人一样具有刑事责任主体的地位,并增加了特殊的酷刑措施,对我国目前的酷刑体系产生了巨大的影响。由于解释,刑法具有生命力,如果能够在现有的刑法和酷刑制度中找到合理的处理出口,刑法应保持其谦逊。而且任何一项立法调整都要充分考虑其重要性、成本和社会效应,否则可能会陷入随意立法的束缚。


(二)


无人驾驶技术的应用导致刑法对某些行为的认定面临解释


造成交通肇事罪认定难题


无人驾驶技术的发展,首先促使交通肇事罪的认定面临争议,包括但不限于上述刑事责任理论。按照上面讨论的思路,包括无人驾驶汽车在内的人工智能体不应该也不应该成为刑事责任主体,这意味着无人驾驶汽车在公共道路上发生重大交通事故,已经很难对交通事故进行刑法评估。因为无人驾驶汽车已经不再依赖驾驶员来完成驾驶任务,所以汽车上的人都是“乘客”。自动驾驶条件下的交通事故并没有直接影响无人驾驶汽车用户的主观意志。因此,如果汽车用户被处以交通事故罪,实际上将严重偏离主客观统一的刑事责任原则。而且如果以交通肇事罪追究无人驾驶汽车设计师、R&D人员或生产者的责任,显然与罪责自负原则不符。要归咎于设计师、R&D人员和生产者,他们仍然需要根据他们的主观意图、行为性质、行为和结果之间的因果关系等因素来区分责任。对于这一点,本文将重点讨论下一部分,在此不再赘述。


此外,交通肇事罪的量刑取决于肇事后是否逃逸或其他特殊恶劣情节,以及逃逸是否致人死亡,但法律依次规定了法定刑的升级。但是,如果无人驾驶汽车发生“交通事故”,这一条款的适用会导致一定程度的不适应,并引发一系列问题:例如,当无人驾驶汽车发生重大事故时,汽车的用户是否有刑法意义上的救助义务?如果无人驾驶汽车的用户逃跑了,上面已经提到的只是“交通事故”,用户作为车内的“乘客”,其单纯的乘坐行为无法与“交通事故”的后果联系起来,甚至连交通事故的一级法定刑都无法成立。如果他们逃跑了,他们必须被认定为交通事故,这似乎是无源之水。而且如果这一逃逸情况被认定为交通肇事罪,则按照最基本的法定刑罚处罚?或者直接升级用户?为平衡罪刑,有观点认为逃逸的用户可以按照交通肇事罪的共犯论。但是,在人工智能体显然很难被追究刑事责任作为刑事责任主体的前提下,如果逃逸的用户以共犯论处,谁是正犯?在刑法规制过程中,这一系列问题亟待找到合理的答案。


连同产生个人信息保护问题的问题


通过应用自动驾驶技术,一些或所有的驾驶任务都可以交给汽车,尤其是无人驾驶汽车已经完全自动化,不再依赖驾驶员,因为它可以通过设置计算机算法程序来预测无人驾驶汽车的各种路况,并根据预定的程序进行相应的操作。为了保证道路行驶的安全,无人驾驶汽车必须无时无刻不在收集各种数据,包括与外部道路行驶和人身安全、交通安全相关的汽车周围数据、汽车内部的功能状态、行驶操作等技术数据,以实现预测并“自主”完成相应的操作,甚至收集无人驾驶汽车用户及相关人员的个人信息。比如普通地址,个人偏好,生活方式等等,这些数据信息与个人隐私密切相关。在当前社会进入大数据时代的背景下,公民的个人信息通常具有巨大的商业价值。在利益的驱使下,社会发生了非法获取、使用和损害公民个人信息的行为。而且无人驾驶汽车通过电脑收集公民个人信息的数据量极其庞大。一旦这些个人信息被泄露或非法使用,就意味着它们不会损害某个人的权益,而是会涉及到一群人甚至整个社会。


为保护公民个人信息安全,我国刑法两次通过颁布修正案加强对侵犯公民个人信息行为的打击和处罚,包括2009年刑法修正案(7)销售、非法提供公民个人信息罪、盗窃、非法获取公民个人信息罪的规定;以及2015年刑法修正案(9)进一步扩大了侵犯公民个人信息犯罪的范围。增加了刑事处分的幅度。近几年来,随着我国社会进入大数据时代,我国对公民个人信息的保护在法律法规上也不断完善。不可否认,近年来,随着中国社会进入大数据时代,中国对公民个人信息的保护在法律法规上不断完善。然而,随着人工智能、算法数据、无人驾驶等前沿技术的进一步发展,当前法律体系面临一些新的侵犯公民个人信息的行为仍然略显无力。例如,以无人驾驶技术的应用为例。无人驾驶汽车的设计者、R&D者和生产者在公民不知道或拒绝共享个人信息的情况下,对无人驾驶汽车传感器收集的大量公民个人信息有哪些责任和义务?假如有相应的责任,其责任和义务履行的界限在哪里?或是,我们应该如何合理地平衡数据使用与公民个人信息保护的关系?刑法有必要及时回应这种实践中已经出现或正在出现的问题。


人工智能视角下无人驾驶技术的刑法规制


综上所述,无人驾驶技术在人工智能时代的应用和创新给人类的社会生产和生活带来了便利,给交通领域的发展带来了创新,同时也引发了许多关于法律法规的争议,包括人工智能体的刑事责任理论、交通事故和侵犯公民个人信息的认定等。对此,在明确包括无人驾驶汽车在内的人工智能机构不具备刑事责任的法律主体和地位的前提下,笔者认为,在讨论人工智能刑法规制时,重点应该回归人的责任,承担自己的责任。随着人工智能、大数据、算法等技术的不断进步,无人驾驶汽车被用来为人类社会服务,最终被人们生产、研发、制造和使用。当技术发展到一定程度,人类在享受无人驾驶技术给自己带来更多便利的生活的同时,也会出现一些人以人工智能和无人驾驶技术为工具犯罪的情况,这是不可避免的,也是不可避免的。当然,也有一部分人类在制造等阶段对无人驾驶操作或人为干预造成不利后果。因此,笔者认为,刑法应重点关注人工智能无人驾驶技术的规制和发展(故意或错误)造成无人驾驶汽车损害我国、社会和他人合法权益的情况。


(一)


无人驾驶汽车造成重大交通事故的归责路径


根据以上分析,由于无人驾驶汽车不需要驾驶员随时注意汽车安全驾驶的义务,在无人驾驶汽车造成重大交通事故的情况下,交通肇事罪的适用空间大大减少,需要区分不同情况来判断相关主体的刑事责任。


第一,存在使用无人驾驶汽车及其相应系统程序实施故意犯罪的情况。主要包括:一是在无人驾驶汽车的设计、R&D、生产、销售、使用等每一个可能接触无人驾驶汽车的环节,相关主体意图利用无人驾驶汽车作为实现犯罪目标的“工具”。比如无人驾驶汽车的生产者有报复社会的心态,所以在生产过程中随机选择无人驾驶汽车,在无人驾驶汽车的系统中更换错误的编程代码,使随机受众在使用过程中发生重大事故。在这个过程中,无人驾驶汽车的设计师、销售人员和用户实际上并不知道编程代码已经被替换的事实,在设计师、销售人员和生产者没有共谋的情况下,无法与生产者共犯。而且对无人驾驶汽车的用户来说,在这种情况下,它本身就是侵权者“报复”的不特定对象之一。所以,在这种情况下,只需追究生产者以危险方式危害公共安全罪的刑事责任即可。同理,如果行为人在无人驾驶汽车设计中使用无人驾驶技术在一定或一定阶段实施相应的犯罪,只需按照刑法规定处理相应的犯罪,是否成立共犯等问题只需要按照传统的犯罪处理方式来界定。第二,上述主体以外的侵权人非法侵权或恶意攻击无人驾驶汽车的算法系统,以达到其犯罪目的。在这种情况下,无人驾驶汽车的智能系统实际上与计算机没有什么不同。当侵权人利用无人驾驶汽车智能系统的漏洞,或者利用黑客、木马程序等。,非法入侵和恶意攻击无人驾驶汽车的系统程序,导致无人驾驶汽车系统崩溃时,这种行为已经成立了破坏计算机信息系统的罪行。如果无人驾驶汽车因此同时造成严重交通事故或其他严重后果,应根据行为人的主观目的、行为方式、实施时间等相关因素综合考虑。根据刑法,破坏计算机信息系统罪、故意伤害罪、故意杀人罪、危险方法危害公共安全罪等的想象竞合犯也可能成立。第三,利用无人驾驶汽车智能技术以外的与普通汽车无异的特点从事传统犯罪类型。比如侵权人只把无人驾驶汽车作为普通汽车非法运输和隐藏毒品。在这种情况下,无人驾驶汽车只是作为实施毒品犯罪的物理工具,本质上与无人驾驶汽车的人工智能特性无关,所以只需要按照传统的犯罪认定方式进行处理。当然,如果第三人使用无人驾驶技术的程序出现错误,或者恶意植入错误程序,造成重大交通事故,则根据上述认定,各自犯罪。


第二,存在与无人驾驶汽车有关的过失犯罪。由于无人驾驶汽车的零部件是由不同的主体制造的,在流通阶段会有多个主体参与,每个环节的主体过错都可能造成相应的损坏后果。如果按照从设计到使用整个链条所涉及的相关主体来划分,这些主体都有义务保证无人驾驶汽车的安全,但这些主体义务的大小在不同的阶段和情况下是不同的。例如,对于设计、开发、生产无人驾驶汽车的主体来说,严格规范这些主体的工作是保证无人驾驶技术可靠性的关键。所以,对这类主体而言,对无人驾驶技术的安全性负有严格的责任。如果这类主体没有预测无人驾驶汽车在R&D和生产过程中存在的一些完全可预测的技术缺陷,如操作不严谨、检查不仔细等因素,导致无人驾驶汽车在使用过程中发生重大交通事故,则可以根据相应的产品犯罪处理相关的生产R&D主体。当然,如果根据现有证据和相关行业标准,无人驾驶汽车的R&D和生产实体无法预测这一技术缺陷,那么损害结果的发生就是一起事故。而且对无人驾驶汽车的用户来说,在一定程度上也应该对无人驾驶汽车承担保管的责任和义务。虽然排除产品质量因素造成的重大交通事故,无人驾驶汽车并不完全适用于使用者,但在使用过程中,使用者仍有一定的安全义务根据具体情况对无人驾驶汽车进行安全保障。第一种情况:无人驾驶汽车发生“交通事故”时,比如用户过于自信地认为自己的人为干预无人驾驶方式仍然会保证交通安全,其不当操作造成严重后果。因为无人驾驶方式在这种情况下受到人为干扰,损害后果与人的不当操作行为有逻辑关系,应当以交通事故罪论罪。在这种情况下,如果出现上述逃逸情况,用户将有义务帮助受害者,因为他们的操作不当和车辆用户的身份。逃逸的,依法适用交通肇事罪的升级法定刑。但如果是第二种情况:无人驾驶汽车仍有“交通事故”,用户严格遵守操作规范。在这种情况下,由于用户是“乘客”,他们的乘坐行为不是造成损害后果的原因,所以他们不应该追究用户的刑事责任,而应该考虑是否是生产研发主体、第三方恶意干预或事故。但是,不追究使用者的刑事责任,并不意味着排除受害者的救助义务。作为无人驾驶汽车的用户,在享受所有权益、使用权益的同时,对无人驾驶汽车的保管和安全也有义务。刑事责任不再追究,但法律责任依然存在。由于使用者没有履行好自己的保管责任,造成了损害,从而产生了对受害者的救助义务。若其应救而未救,选择在这种情况下逃逸造成他人受伤、死亡的结果,极有可能触犯过失致人重伤、死亡罪。


(二)


公民个人信息在无人驾驶技术应用过程中的保护


此外,无人驾驶技术的应用也可能对公民的个人信息造成损害。正如王泽鉴教授所指出的,如果相关信息被监控、窃听或干预,当事人将无法对自己的事情有最终的决定权,他们将无法服从他人,无法控制自己,从而失去作为独立个体的地位。而且无人驾驶技术的应用与发展,更加加剧了数据应用与数据权益保护的矛盾。可以看出,保护公民个人信息不受侵害是当前学术界必须关注的问题。


更常见、更典型的是相关企业,如汽车公司、互联网行业等与无人驾驶技术应用发展密切相关的主体。无人驾驶汽车可以通过后台数据库获得大量数据群。这类主体一旦非法获取或利用公民个人信息,其不良影响就不必说明。对此类行为的定性,根据不同的行为方式和行为目的,但在定义上有所不同。例如,无人驾驶汽车的制造商面对后台数据库中大量的数据信息,以此为主观心理获利。根据刑法第二百三十五条之一,在客户不知情的情况下,出售大量公民个人信息应当以出售公民个人信息为罪。上述犯罪的设立要求犯罪主体属于“履行职责”或“提供服务”的身份,但如果主体不履行相应的职责或为无人驾驶汽车客户提供工作人员,则只有黑客技术等程序系统或上述制造商的后台数据库出于各种目的非法入侵和攻击无人驾驶汽车,然后窃取大量公民个人信息。在此基础上,可以建立相应的侵犯公民个人信息犯罪和非法获取计算机信息系统数据的想象竞争。


由于涉及数据的犯罪往往具有犯罪对象的不特定性,这与国家和社会的集体利益有关。因此,在讨论个人信息保护在无人驾驶技术应用中的刑法规制时,不仅要注重行为性质的认定和刑事责任的追究,还要从保护公共利益的角度保护群众的合法权益。我们应该从数据治理的前面思考,进一步防止数据犯罪的发生。对于这一点,有必要加强和规范数据合规。对无人驾驶汽车在使用过程中所涉及的相关数据的收集、使用、共享等,必须严格遵守合法性、必要性和合法性原则。比如在无人驾驶汽车的行驶过程中,为了保证行驶的安全,其内部传感系统必须立即收集用户的大量信息,包括位置、道路标志、街景视频等。,以实现目标驾驶任务所必须收集的第三方信息。在这种情况下,通常很难避免个人信息的收集。对此,网络安全法、信息安全技术个人信息安全规范等相关法律规范明确规定,个人信息的收集应当获得用户的授权。-同意。收集不必要的个人信息,如车载音乐账号登录等。,以确保无人驾驶汽车的安全运行,并提前授权。-可以实现同意的方式。但是也有一些实时动态的信息收集,比如上面提到的地理位置、道路标志、街景视频等。这些信息往往很难提前一一授权。-同意。对于这一点,我们在表达理解的同时,也要注意数据采集的合规性,以便做好数据犯罪预防的关口。所以,怎样才能实现这部分数据的合规性,平衡数据采集使用与个人信息保护的关系?在《汽车数据安全管理若干规定(试行)》中给出了相应的标准,作者认为可以作为参考。根据《汽车数据安全管理若干规定(试行)》第八条和第九条,为了保证安全驾驶的需要,不能获得个人同意收集的个人信息,应当进行匿名处理,包括删除含有识别自然人的图片,或者对这些图片中的人脸信息进行局部轮廓处理等。对于敏感个人信息的处理,需要满足个人单独同意的要求。个人可在十个工作日内自行设置同意期,以适当的方式提醒收集状态,删除个人要求等标准。这一规定为实时动态数据的收集和处理提供了一定的合规标准,从而在一定程度上防止了相关数据犯罪的发生。此外,考虑到保护国家、社会和广大不特定人民的合法权益,检察机关可以从刑事检察办案实践中探索公益诉讼线索,积极稳妥地探索个人信息保护领域的公益诉讼,同时严厉查处无人驾驶技术应用侵犯公民个人信息犯罪,从而有效保护公民个人信息免受非法侵害。


结语


自动驾驶技术的最终发展方向是实现完全自动化,即无人驾驶技术的应用,而无人驾驶技术本质上是深化人工智能发展的重要组成部分。伴随着人工智能的不断发展,无人驾驶技术的应用给人类社会带来了生产生活的便利,同时也面临着诸多挑战,迫切需要刑法来规范。从刑事责任理论的分析来看,刑法应更加重视人工智能无人驾驶技术的规定,重点关注人造成无人驾驶汽车损害的合法权益。笔者认为,对于应该赋予人工智能体刑事责任主体地位,并专门建立针对人工智能理论的酷刑体系的观点,结合刑法谦虚、立法成本、社会效应和重要性的考虑,仍有待商榷。无人驾驶技术的应用在明确人工智能体不能成为刑事责任主体的前提下,立即解决了交通肇事罪、相关数据犯罪等的认定问题。


原题:陈静|以无人驾驶技术应用为例,人工智能体视角下的法益损害及归责路径


阅读原文


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com