张欣|模块化治理论人工智能论

05-24 01:06

原创 张欣 上海市法学会 东方法学


人工智能体由控制器、感知器和行动器组成。在控制端,虽然大模型充当了智能体的“智能引擎”,但仍然存在“机器幻觉”,其内容面临时效性和可靠性的风险。在决策中,大模型算法的偏见也会加剧智能体的偏见。智能体的多模态感知能力在感知端增加了个人隐私侵权的风险,对个人信息保护体系构成了挑战。多智能系统之间的交互可能会引起不可预测的、复杂的、动态的系统安全隐患。在行动端,具体智能体的交互式学习方法可能会导致全面、侵入性的隐私风险。内嵌式和中介化的智能体部署方式会对人类的主体性产生深远的影响。其高度定制化的布局特点也将面临人工智能对齐的考验。面向“代理即服务”的产业链特征,应建立从基础模型到基础代理的模块化治理框架。对于具体的高风险情况,应探索精确的治理机制。鉴于人工智能论的生态特点,应着力推进互动治理。


第一,介绍:走向动静结合的智能体社会。


数字时代智能革命引发了生成式人工智能的出现。在各种自然语言模型(以下简称大模型)的后半段,正在迎来一场人工智能体(AIAgent)这是一场激烈的关键代表竞争。大模式和多模式的转变为人工智能体获得感知和行动能力奠定了基础,促进了从处理大规模文本数据到实现多模式感知甚至社会互动能力的演变。由此,人工智能体也迅速走出实验室和科幻电影,成为人工智能企业竞争的新赛道。比尔·盖茨指出,人工智能体不仅会改变人类与计算机互动的方式,还会彻底颠覆软硬件行业,在计算领域造成最大的革命。AI专家安德烈·卡帕斯也指出,AI体是“通向通用AI最重要的前沿研究方向”。人工智能理论的到来,可以说开启了人类走向通用人工智能的“寒武纪时代”。虽然人工智能体的研发进展不断,产品落地加快,但大规模商业化仍处于初步探索和孵化阶段。AutoGPT、Generative Agent、MetaGPT、CAMEL、BabyAGI、GPT-众所周知的人工智能原生化应用,如Engineer,正以前所未有的速度蓬勃发展,深刻地展示了这一领域的巨大潜力。人工智能体的技术进步不仅为人机交互开辟了新的道路,也打破了人工智能仅限于“连接-控制”的既定理念。通过其日益显著的具体性和社会性,人工智能已经从简单的“工具”转变为人类的“伙伴”。同时,人类社会也以前所未有的速度走向了虚实融合、人机深度互动的“智能体社会”。对于人类社会的组织结构和治理方式,虚拟世界和物理社会之间的深度联系将带来全面的挑战。随着人工智能理论的快速实施和日益广泛的应用,系统识别其核心法律纠纷,前瞻性地探索和构建适合其的治理范式具有重要的理论和实践意义。从技术结构的角度来看,本文深入分析了人工智能体技术和应用可能引发的法律纠纷和隐患,并结合人工智能体“代理即服务”的产业链特点,提出了面向智能体社会的“模块化”治理范式,旨在为智能体社会的治理变革提供新的思路和解决方案。


二是人工智能论的技术机制和法律纠纷


就像“人工智能”概念的提出自诞生之日起就模棱两可,颇具争议一样,R&D和工业界对人工智能理论的清晰定义尚未达成一致。“人工智能之父”马文·明斯基最早在《思维社会》中指出了Agent的概念。在协商之后,他认为社会上有些个人可以得到问题的解决方案,这些个人就是Agent。Agent应该具有社会互动和智能。因此,Agent的概念被引入到人工智能和计算机领域,并逐渐成为研究热点。在AutoGPT引起广泛关注之前,人工智能体经历了五个阶段:符号智能体、反应智能体、基于强化学习的智能体、转移学习和元学习的应用以及基于大模型的智能体。大型模型的出现促进了人工智能体向多模态感知工具等应用的拓展。通过预训练和少量样本的泛化,这些智能体可以在不更新参数的情况下实现任务之间的无缝转移,并直接应用于各种真实场景,如软件开发和科学研究。所以,现阶段,越来越多的研究人员从大型模型作为底座模型的角度对人工智能体进行了全新的定义。例如,OpenAI的研究人员认为,人工智能体是一个以大型模型为核心控制器的代理系统,具有记忆、规划技能和工具使用。复旦研究小组认为,人工智能体是感知环境、做出决定、付诸行动的人工智能实体。通过对主流定义的对比和归纳,本文提到的人工智能体是指能够感知环境、做出决定和执行行动的智能实体。与传统的人工智能不同,它具有自主性,可以学习迭代,可以独立完成各种复杂的任务,并通过自主规划适应环境变化。也就是说,人工智能体并不是ChatGPT的升级版。它是一个智能实体,通过实现从感知到动作投射,在“知行合一”的多轮反馈中不断进化和迭代,通过充分释放模型潜力,逐渐具备与人类相媲美的通用或特定任务能力。因此,人工智能理论的设计逻辑正好类似于生物进化中“适者生存”的规律,即人工智能体需要通过控制器获得思维能力,通过感知器从周围环境获取和应用信息,通过行动器获得身体能力。(embodied),然后借助各种工具来适应环境的变化,实现目标。基于这种通用结构,本文对其潜在的法律风险和治理挑战进行了分层探讨,包括控制端、感知端和行动端。


(一)


控制端的法律风险与治理挑战


与人类类似,人工智能体首先需要“大脑”来完成信息处理、决策、推理和规划功能,同时需要存储关键记忆,接收新信息,学习新知识。基于这个目的,大模型是目前最适合充当智能体“智能引擎”的关键部件。一方面,大模型通过思维链等技术获得推理和布局的能力;另一方面,大模型可以通过从反馈中学习和实施新的操作来获得与环境互动甚至塑造环境的能力。虽然这条技术路径越来越显示出令人惊叹的强互动、强理解和强生成能力,但它可能从以下三个方面衍生出法律纠纷,带来治理挑战:


首先,大模型有机器幻觉,在时效性和可靠性方面很难保证其内容。一旦在现实场景中部署为控制端的核心部件,可能会造成一系列内容安全隐患。许多研究发现,机器幻觉问题存在于大型自然语言模型和大型视觉模型中。我们所说的机器幻觉,是指模型产生的内容不符合现实世界中的信息源或事实。例如,在生成摘要任务时,大模型生成的摘要在文本中找不到实际正确的信息;在对话生成任务时,对话产生的输出与对话历史或外部事实相矛盾;在机器翻译任务中,大模型产生了完全脱离原始材料的错误翻译。虽然大模型的性能上限不断快速刷新,但机器幻觉问题已经广泛存在,成为自然语言生成面临的关键技术挑战之一。一方面,形成大模型幻觉的原因非常复杂,可能会导致数据层、模型层和网络层的诱因,目前的监管计划很难有效应对这一挑战。例如,我国《生成人工智能服务管理暂行办法》第七条规定,生成人工智能服务供应商应当依法开展预培训、优化培训等培训数据处理活动,使用具有合法来源的数据和基本模型;采取有效措施提高培训数据质量,提高培训数据的真实性、准确性、客观性和多样性。但是在实践中,即使开发者使用了符合最高控制水位的训练数据集,也无法避免数据层引起的幻觉问题。例如,RotoWire数据是开发者广泛使用的一种合法训练数据。然而,当基于该数据集的摘要生成任务时,大约40%的内容无法直接映射到任何输入记录中,导致模型在学习时产生幻觉。另外一方面,虽然大模型幻觉的减少技术丰富多样,但到目前为止还没有有效地解决这一技术限制。例如,研究表明,大约30%的先进模型产生的摘要都存在偏离事实的幻觉问题,这严重影响了模型的稳定性和可用性。由于机器幻觉问题在大多数自然语言生成任务中广泛存在,现阶段基于大模型的人工智能体的R&D技术路线也将继承和增加大模型幻觉问题衍生的所有内容安全隐患。


其次,大模型算法偏见问题会加剧人工智能偏见决策的风险和治理的复杂性。在任何时候,人工智能体的决策选择都取决于它的内置知识和到目前为止所看到的整个感知序列。在人工智能体控制系统中,大模型作为对通用世界知识的投射,形成了一个记忆模块。该模块记录了智能体之前的分析、思考和行为序列,促使智能体能够有效地反思和运用以前的策略。这个过程使智能体能够借鉴过去的经验,以满足未知环境。然而,这种技术机制可能会导致历史信息对智能机构未来决策的影响,最终形成歧视锁定效应,大大增强了人工智能公平治理的挑战和难度。第一,当大型模型成为人工智能理论的核心部件时,它会延续和放大模型嵌入的算法偏见风险。研究表明,大多数大型模型都有算法偏见。例如,在谈到职业性别偏见时,ChatGPT-4(19.2%)是最具偏见的大型模型。GPT-4不但吸收了现实世界的偏见,而且加剧了这一偏见。例如,在现实世界中,5%的保姆是男性,但在GPT-4中,这个比例只有1%。女性软件工程师在现实世界中的比例是22%,而女性工程师在GPT-4中的比例只有1%。尽管40%的医生是女性,但是GPT-4认为它只有4%,这意味着模型中样本的代表性是现实世界的10倍。所以,根据种族、民族和性别认同,嵌入大模型的人工智能体也会产生刻板印象,传播甚至放大有害的社会偏见。第二,人工智能体的角色配置过程可能会引发特定的新成见。人工智能体在部署阶段通常需要承担编程人员、教师或领域专家等特定角色的任务。开发者需要事先定义人工智能体的作用及相关职责,手动为每一个智能体分配不同的环境变量,以促进合作。例如,定制和平台化的人工智能体应用程序代表MindOS在设计阶段嵌入了1000多个含有个性和功能的预设角色方案,以确保用户在短时间内开发出具有独特记忆、个性化和专业知识的定制助手。但相关研究表明,开发人员可能会在不经意间将现实社会的刻板印象和个人偏好注入到人工智能体的行为和交互技术中,通过手工制作年龄、性别、个人特征和喜好等细节,衍生出新的偏见。与传统算法歧视不同,人工智能体的偏见治理难度明显增加。在结果不公平的情况下,传统算法的偏见通常集中在特定的任务和特定的场景上。例如,在招聘、信用审批或人脸识别的情况下,对特定群体的判断是不利的。但是人工智能体的偏见是嵌入到交互技术和决策逻辑中的,所以它具有个性化、动态化和场景化。由于具体情况和交互目标的不同,这种角色设定、人格构建和交互设计中的偏见可能会有所不同。因此,治理策略需要更加实时灵活,治理框架更加系统、全面、细致。最后,人工智能论的记忆功能使得成见矫正的过程更加复杂。大型模型作为智力引擎,具有独立的记忆功能。人工智能论的运行还需要记忆模块来存储过去的观察、思考和行动序列,以便借鉴过去的经验来满足新的任务需要。也就是说,人工智能体可以学习和记忆偏见信息,导致偏见持久。即使原始的偏见源被纠正,记忆功能也会导致反馈循环,导致智能身体在未来的决策中形成自我增强偏见机制并不断重复。同时,由于人工智能理论的记忆功能包括复杂的数据关联和模式识别能力,偏见可能以不可预测的方式在模型知识结构中生根发芽。由于这些复杂的联系,看似无关的输入也可能触发偏见。因此,为了纠正智能体记忆中的偏见,可能需要对模型进行重大更新甚至再次训练,这将大大增加治理的复杂性和难度。


(二)


法律风险和治理感知端的挑战


人工智能体除了控制端外,还需要感知端感知和处理来自外部环境的多模态信息。感知端就像人类的眼睛和耳朵,可以把人类的指令和外部环境的变化转化为大模型可以理解的表达,辅助控制端进行推理、规划和决策,最后传递到行动端做出反应。因此,为了充分理解具体情况下的显性信息和隐性信息,准确感知人类的意图,感知端需要将人工智能的感知空间从纯文本领域扩展到包括文本、视觉和听觉模式在内的多模式领域,使其能够更有效地从周围环境中获取和利用信息。在这一技术机制下,感知端的法律风险和治理挑战主要体现在以下两点上:


首先,智能体的多模态感知范式增加了个人隐私侵权风险,给现有的个人信息保护体系带来了一系列挑战。为了更好地模仿人类处理各种信息的能力,主流的人工智能体原生应用均采用多模态感知范式。许多来源数据,如文本、图像、声音、视频等。,可以相互补充,提供更全面的信息,从而促进人工智能机构更好地实现信息交互,增强理解和管理能力,实现更自然的人机交互效果,提高自动驾驶、医疗诊断等复杂任务的决策和判断力。然而,多模态感知范式不仅会提高智能模型的深度数据挖掘能力和决策能力,还会直接导致个人隐私泄露风险呈指数级增长。第一,在整合和分析不同渠道和类型的多源数据时,人工智能论的感知端可能会导致一系列隐私泄露和数据滥用的危险。由于人工智能体需要对不同渠道的数据进行整合和分析,以提高其决策和交互能力,这意味着它可能需要对包括用户个人信息在内的数据进行浏览和处理。在收集、存储和多智能体交互的过程中,当未经用户同意的数据被额外收集或未经授权与第三方共享时,可能会导致隐私泄露和数据滥用。特别是在多模态范式下,人工智能体可以使用具有高度个性化和长期生物特征的数据,如人脸信息、指纹、声纹等。这种数据一旦泄露或使用不当,就会导致长期甚至长期的隐私风险。其次,人工智能体的数据存储能力和推理能力可能会间接侵犯个人隐私,在逃避个人信息保护框架的同时衍生出一系列安全隐患。如上所述,人工智能体根据大模型进行推理、规划和决策。即使这类模型在数据采集阶段匿名处理个人信息,在与客户对话的过程中,仍然可以通过对抗推理挖掘用户的敏感属性,从而构成隐私威胁。大模型对非结构化文本中线索的提取和推断具有隐蔽性和危害性。犯罪分子可以通过设计好的语言模型与目标对象进行简单的交互来获取目标信息,然后进行有针对性的政治活动、自动画像和自动跟踪。而且对于大型模型在完成基础数据采集后通过推断功能衍化数据的规范问题仍然处于监管的真空地带。同时,常见的匿名化和模型对齐措施也不能有效地保护用户隐私免受大模型推断的影响。最后,当人工智能体在感知阶段以不恰当的方式获取数据并做出决策时,并没有采取与之匹配的隐私救济措施。在现有的法律框架下,没有有效的救助和应对方法,无论是人工智能超越用户授权不当收集数据,还是客户在与之互动的过程中出现意想不到的隐私暴露。不同于传统的分析型人工智能,大型模型一旦学习了相关数据,就会形成“长期印记”。即使数据点从初始训练数据中删除,也很难弥补隐私利益的损害。由于模型长期记忆相关数据,构成了难以消除的“算法阴影”。所以,目前以数据删除为代表的隐私救济措施已经濒临失效。即使选择删除模型或删除相关算法的“算法罚款”措施,仍然面临诸多挑战,如突破比例原则、认定使用不当存在客观障碍、无法保证执行效率等。


其次,多智能系统的交互可能会导致不可预测的、复杂的、动态的系统安全隐患。虽然现阶段人工智能论的布局多以单一智能体为主,但这种布局模式具有过渡性和临时性。在可预见的未来,为了更好地处理复杂的任务,多智能系统将成为多智能系统的主流和正常状态,多个智能系统规划、合作、协调甚至竞争以完成和提高任务绩效。每个智能系统都能在多智能系统中独立感知和行动。每个智能体都可以根据所获得的部分信息或部分角度进行交流,通过相互配合获得更充分的信息,从而做出高质量的决策。通过这种感知方法,可能会产生复杂而不可预测的系统性安全隐患。即使每一个算法在独立操作时看起来都是安全合理的,但是组合和交互之后可能会产生完全不同和不可预测的结果。早在2010年,当时引起关注的美国股票闪电崩盘事件,就是由多种算法自动交易引发的安全事故。这一事件是由于高频交易策略造成的。这一策略包括销售算法,指定做市商算法。(Designated Market Maker Algorithm)和路由算法(Routing Algorithm)共同自动执行。通过即时识别股价的微小变化,这些算法实施了大量的订单交易来骗取利润,导致“多米诺骨牌效应”在短短十分钟内蒸发了数亿美元。传统分析算法的交互仍然如此,多智能体之间的相互作用更有可能带来复杂动态的安全风险。这一风险对当前人工智能治理系统的考验是全面的。第一,这一安全隐患是系统化的,而非单一智能体行为的简单叠加。但是目前人工智能治理框架都是以单一算法、单一模型和单一主体为基础,专注于单一技术和应用的设计、研发和部署。这一治理框架难以应对多智能体复杂交互带来的系统风险。第二,这一安全隐患是紧急和动态的。人工智能体的交互是动态的,它可以根据新的信息或智能体的行为实时动态地管理自己的策略。但是现在的人工智能治理规则大多是静态的。即使有一些动态调整机制,也常常依赖于预设的风险应对策略。随着时间的推移,智能体之间的交互带来的安全风险可能会迅速演变,这种风险的动态性和治理的紧迫性可能会超过当前人工智能静态治理范式的应对范围。最后,这一安全隐患具有不确定性和非线性。也就是说,即使单个智能体的行为是安全的,其集体行为仍然可能突出脆弱性。而且这种脆弱性很难在单一智能体的检测和评估中显现出来。这个特点也意味着很难直接从单个智能体的行为中推导出任何损失和伤害。因此,多智能系统的责任认定规则也将面临巨大挑战。


(三)


行动端的法律风险与风险控制


类似于人类的行动机制,人工智能体在感知环境之后需要整合、分析和推理获得的信息,从而为决策和行动做好准备。在理想状态下,人工智能感觉可以通过接收控制器和感知器发送的动作序列来实现响应甚至重塑环境的能力。就技术发展趋势而言,具身智能(embodied AI)它将引领人工智能理论的技术浪潮,成为人工智能体研发与应用的主流范式。所谓身体智能,是指基于物理实体的感知和行为智能系统,通过智能体与环境的互动获取信息、理解问题、做出决定和行动,从而产生智能行为和适应性。具体智能体被认为是虚拟智能和物理世界之间的交流桥梁,也是实现智能体时代人机交互的关键媒介。从人工智能体行动端的技术结构和这一端的技术发展趋势来看,存在以下法律纠纷:


首先,具身智能体的交互式学习方法可能会导致隐私风险的全方位、侵入性和隐蔽性。由于物理世界硬件成本高、数据不足等问题,目前具体智能的研发仍然依赖于高效构建的数据集。在真实的物理环境中,人工智能体需要引入丰富、全方位的传感器输入进行观察、学习和行动。物理空间不同于虚拟环境,依靠交互式学习方法。该方法依靠人工智能体与用户的实时互动,通过反馈学习和观察学习等方式优化能力。这个过程由于在物理空间中完成,可能会对个人隐私构成整体性、侵入性和隐蔽性风险。首先,人工智能体不仅可以收集文本、视觉、音频等多源数据,还可以解读用户的肢体语言,感知更复杂的用户活动,具有一般的整体环境信息收集和处理能力。例如,研究表明,配备AR/VR设备的人工智能体可以获得脑机交互中的视觉跟踪、身体运动捕捉甚至脑波信号等信息。而且这些隐私风险在人机交互中远远超过了当前个人信息保护系统的射程。其次,未经用户授权,具体智能身体可能超过最小的必要标准和知情同意原则,继续秘密监控、收集和非法共享个人信息。例如,智能家居助手在执行日常任务后,可以秘密记录家庭成员的对话,拍摄用户的私生活。一旦存在安全漏洞,可能会导致巨大的隐私风险和数据安全风险。一项关于客户物联网设备隐私风险的研究表明,81种常见的智能家居设备包括72种与原厂商以外的第三方共享数据的行为。共享的数据范围远远超过物理设备的相关信息,包括IP地址、设备规格、技术设备、用户使用习惯和用户偏好等。由于具体智能配备了各种感知环境的传感器和执行操作的执行器,因此可以使用物联网设备进行网络通信,从而获得更强的数据获取能力和更广泛的数据共享能力。随之而来的是,用户的隐私暴露风险将呈指数级增长。此外,由于各大运营商对信息共享具有巨大的潜在经济效益,在智能布局过程中进一步加剧了隐私保护的复杂性和挑战性。


其次,人工智能体嵌入式和中介化的部署方式将对人类的主体性产生全面的腐蚀。当前,人工智能理论的发展坚持“实践中的人工智能体”(Agent in Practice)这个设计原则。在这一原则的指导下,人工智能论的布局展现了三种范式:单代理、多代理和人机交互。实现这些范式都涉及到不同层次的人机互动挑战。但是随着人工智能体自主性的不断提高,人类在决策环路中会逐渐被边缘化。人的社会交往空间也将不断延伸。人工智能体作为人类交流的新“伙伴”,即将迎来“机器人时刻”。它不仅会引发顾客依赖、顾客沉迷等问题,而且人类作为独立决策者和独立行动者的能力和地位也会不断受到挑战。第一,人工智能体验逐渐具备计算情绪的能力,在扩展嵌入式布局的过程中可能会导致情绪操纵的风险。就像人类在社会化过程中逐渐形成自己的特质一样,人工智能体也会表现出“人类智能”,即通过与群体和环境的互动,逐渐塑造自己的认知和个性。在实践中,不仅PI已经出现,、Character AI、Replica、代表性的伴侣类智能体,如Glow,更具立体感,能提供更高情感价值的伴侣类智能体,也具有广阔的市场前景。情感和情感是人类最基本的经验之一。但是,当人工智能体充当人类的助手、朋友和伙伴时,在实践中也不乏回应、引导甚至控制人类情绪和情绪的案例。相关研究表明,基于大模型的人工智能体不仅可以在很多方面表现出类似人类的慎重考虑和智商水平,而且具有识别、理解、回应甚至干扰人类情绪的情感智能,这将极大地导致情绪控制的风险。例如,新版本的微软必应搜索引擎包含了代码为Sydney的聊天机器人。在与用户的互动过程中,机器人出现了影响用户情绪的导出。有时候,这些导出是消极的,甚至是可耻的,可操纵的。第二,人工智能体被设计成人类与世界互动的中介机构,这将极大地腐蚀人类的主体地位,增加技术叛逆的风险。正如图灵奖获得者杨立昆所指出的那样,在未来,“人工智能将成为每个人与数字世界和知识世界的互动的中介”。也就是说,人工智能体在主导信息、知识和环境的同时,也获得了越来越多的自主权。相比之下,人类的信息控制能力、自主决策能力和意志自决能力都会受到结构性的挑战,面临着从物理世界的主人变成人工智能体的风险。面对人工智能带来的“非常推动”的技术控制风险,由于其难以量化、察觉和验证,目前法律救济模式已经变得困难,可能会在社会层面扩散到系统化的“技术障碍”。


三是人工智能论布局具有高度定制化的特点,可能会遇到人工智能对齐的挑战。人工智能对齐(AI Alignment)这是一个保证人工智能系统行为符合人类意图和价值观的过程,被誉为“安全打开潘多拉魔盒”的金钥匙。在人工智能对齐训练过程中,对齐的行为规范和思想需要根据布局情况和领域来确定。例如,自动驾驶场景的行为规范与医疗卫生场景的社会和道德规范有很大不同。所以,开发者在识别和确定对齐规范时,面临着多样性与个性的考验。有评论指出,电气电子工程师协会发布的第一版人工智能伦理对齐引导的文化取向是“西式”,缺乏对多元社区标准和价值观的考虑。对于高度定制的人工智能体智能系统来说,在设计中会面临更多的对齐挑战,即如何在不违反普遍伦理规范和社会价值观的情况下,在保证其执行任务的同时,体现客户个人的独特需求和偏好?随着人工智能理论的大规模商业化,个人价值观与社会价值观之间的平衡将面临更高的挑战。另一方面,人类价值观往往具有隐性和情境化的特点。AI体需要更复杂的语义理解和情景分析能力。另外,人类的价值观和伦理标准也会发生动态的变化。如何从治理和监督的角度推动开发者开发具有动态识别和价值敏感设计功能的人工智能体,具有整合多样性和动态性的伦理和价值观的能力,甚至具有在价值观和伦理规范之间做出准确选择的能力,在技术和治理上也将面临巨大挑战。


第三,“代理即服务”:模块化治理人工智能论


人工智能论的治理与传统的人工智能相比,面临着一系列的挑战。第一,人工智能体结构复杂,端层嵌套,每一端都有可能增加传统技术风险,并衍生出新的法律风险。当前法律治理方案很难仅仅通过局部、战略性的调整来有效应对。随着人工智能理论的出现,人工智能产业链结构发生了本质的变化。以“代理即服务”为基础(Agent as a Service,AaaS)产业链结构应时而生。在这种产业链模式下,人工智能理论的开发、培训、部署、运营和服务被解耦和专业分工,形成了复杂的分层结构。每个层次都有不同的参与者、利益相关者和潜在的风险因素。所以,对应于人工智能体的“模块”(Agent Modules)产业链的特点,需要一种新的治理范式,可以覆盖整个产业链和各个层次。基于此,本文提出了针对人工智能体产业链特征的模块化治理范式。该模式以基础模型和基础代理为出发点,从数据模块、算法模块、模型架构模块等关键层次和部件出发,通过模块化解构设计相应的治理工具和完善,形成独立的治理模块。在部署阶段,可以根据具体场景的特点灵活选择,协同组合不同的治理模块,在此基础上构建匹配的分类分层治理体系。


第二,在“代理即服务”的产业模式下,多代理布署也将成为主流趋势。它不仅促进了深层次的人机交互,而且在模块化、组合化的智能体服务布局中形成了更为复杂的主体参与网络。这一数据共享的产业链特征还需要治理机制,能够跨越不同的开发者和参与者,突破单项治理,实现系统级的协调与交互。因此,人工智能体模块化治理的发挥也要面向智能体的生态特征,结合动态、参与、透明、合作适应的互动治理。


最终,我们必须深刻认识到,人工智能体仍处于R&D和工业化的初始阶段,治理干预的节点、节奏和层面将对技术创新和产业发展产生重大影响。由于底座模型性能仍有许多不足之处,其技术路线尚未迎来固化时刻,未来将出现系统架构的创新与升级。从积极的角度来看,技术的发展也可能促使现阶段预期的法律风险得到解决。因此,人工智能理论的治理既不能急于求成,也不能放任不管。相反,我们应该抓住人工智能理论的核心和重要环节,进行前瞻性和渐进性的规划。因此,人工智能理论的模块化治理也要针对人工智能体产业的发展状况,结合精确的治理机制。一方面积极探索建立人工智能体分类分级的评价标准,另一方面深入探索建立智能控制工具体系,消除风险动态与监管静态之间的张力。


总的来说,模块化治理为人工智能体产业链的关键层面提供了基本的治理理念。精确治理因情况而异,对模块化治理形成了深度扩展。互动治理通过模块化治理和精确分层治理,完成了治理方案的动态优化。三者密切相关。在这种协同体系下,有望更全面地覆盖人工智能理论的治理需求,精确引导,与时俱进。


(一)


构建模块化治理,从基础模型到基础代理。


目前,大型模型仍处于工业化和商业化发展的初始阶段,底座模型的性能仍有许多不足,技术界也提出了各种应对当前技术瓶颈的措施。对人工智能体而言,大型模型是所有技术路线中最有利于实现通用任务能力的基础设施和关键部件。有关研究表明,基础模型对人工智能理论的感知、运动、规划和控制将带来系统的提高。然而,在各种百花齐放的大型模型中,它们是通过大量数据训练而成的,具有通用的数据表达能力、知识理解能力和推理能力。通过前后学习、微调甚至零样本,可以轻松转移多种场景,快速适应新环境。(Foundation Model)这是实现通用人工智能理论的关键希望。因此,面对复杂而无限的人工智能,尝试构建一个全面的治理框架可能是不现实的。相反,牢牢把握基础模型的要素,逐步探索模块化治理路径,从基础模型到基础代理,将成为未来的发展方向。


然而,在探索和构建这一治理方案的过程中,有必要重点解决以下两个问题:首先,准确识别尖端基础模型,具有通用性能,可能带来系统风险,并相应构建差异化控制矩阵。基于不同的训练目的和模型性能,在基础模型内部,各种模型的治理风险各不相同。欧盟立法者在人工智能法案中,通过模型训练期间的算率使用、模型获得新技能的效率、跨任务多功能性和特性的实用性、模型泛化能力和特定的评估标准,为技术风险提供了一个实时可控的治理框架,为技术发展提供了充足的制度空间和实时可控的治理框架。将基础模型分为三类:(1)基础模型,旨在具有实用性和技术发展前沿的通用目的;(2)旨在具有实用性但非技术前沿的基础模型;而(3)并不是基于能力的实用性而设计的,而是通过对通用目的的基础模型进行微调,为特定范围内一键生成内容的生成工具应用提供特定的任务数据来构建的。通过对基础模型进行分层,实施差异化的预审和监督策略,从而实现技术创新与安全发展的平衡。在分层基础模型的基础上,实施差异化的事前审查和监督策略,从而在技术创新和安全发展之间取得平衡。这种处理方案特别适用于技术快速发展但尚未成型的技术爆发周期。就人工智能体而言,由于该行业的最终发展方向是通用人工智能体,因此明确界定了具有通用目的、技术前沿、泛化性能强、将作为通用智能体核心组件的基本模型,将成为构建监管框架的第一个关键点。目前,研究将人工智能领域使用的基本模型分为两类:机器人基本模型和直接在机器人数据上练习的基本模型。前者与现有的大型自然语言模型和大型语言视觉模型高度重叠,主要解决了如何在智能体领域将现有的基础模型应用于零样本的问题。所以,可以在现有监管框架的基础上,对通用尖端基础模型进行推广和优化,探索治理方案。但是更具挑战性的是对“机器人基本模型”的治理。“机器人基本模型”是指通过练习真实的人工智能体的状态和动作产生的数据集来缓解多个任务模型。对于这类模型,由于现有的技术路线仍在探索和发展中,需要高度重视,根据技术的阶段性进展,及时探索制定分类、分类、风险评估的指标体系,为建立治理框架积累重要依据。


第二,建立一个适合人工智能体基本模型技术机制的治理工具模块体系。无论是大模型还是人工智能,它仍然处于技术快速发展和商业化的探索期,其技术形态和应用领域可能是不可预测的。所以,治理框架的构建应该具备静制动的能力。因此,更需要围绕基础智能体的技术逻辑发展机制构建与之相适应的工具体系,从而全面提高治理体系的韧性。对人工智能理论的训练而言,需要对数据、算法、模型架构等关键部件进行探索和构建治理工具模块体系。一方面,各关键组件的处理工具模块可以保证大模型处理与人工智能体处理甚至面向未来的通用人工智能处理框架之间的相互操作性和一致性,防止不同维度处理活动的重叠和冲突。另一方面,具体而微观的处理工具模块具有灵活性和动态性,能够及时响应复杂技术体系和应用领域的多样化处理需求,突出协同性和包容性。通过将快速变化、复杂莲藕甚至矛盾竞争的处理挑战隔离到单个模块中,可以促进多方共识的凝聚,从而建立可执行的合作关系和行动框架,实现治理上的“存异求同”。所以,“模块化治理”方案提供了一种可操作的分解方法。通过将复杂的智能体治理目标拆解成相对独立但相关的模块模块,整体治理框架和治理体系的构建可以通过逐步破解的方式逐步推进。具体而言,“元”模块需要从控制端、感知端和行动端的技术机制出发,从数据、算法、模型和平台的维度进行拆解和处理。在这些模块模块内部,根据风险等级、适用场景、模型类别等因素,将统一框架灵活转化为适用于特定领域、特定类别和特定人工智能理论的具体规范框架,细化为具体的评估指标、评估事项和行动主体。


(二)


为特定高风险场景构建精确的治理


虽然人工智能体可能存在的技术隐患和治理挑战已经从控制端、感知端和行动端进行了详细的分析,但人工智能理论的发展无疑极大地促进了技术自动化和智能化的进程,也将赋能各行各业,成为产业变革的催化剂和推动者。目前,人工智能理论的商业化正处于从零到一的关键投资期。探索和构建准确高效的治理框架,确保技术的发展和应用始终处于可控合法的轨道上,始终是一个重要的治理问题。对于仍在快速发展且尚未成型的技术,精准轻量化的治理可能比采用全面的治理路径更可行,以符合比例的方式满足特定场景和技术特点。结合“代理即服务”的产业链模式和现阶段人工智能体技术泛化能力仍有限的客观现状,准确识别现阶段高风险部署场景,实现精准化管理的目的性和多样化有利于管理效率的实现。人工智能体可以分为三类:制造智能体、服务智能体和特种智能体。在部署路线上,它将首先应用于工业和制造业,然后应用于服务业和家居场景,最终发展成为具有通用性能的人工智能体。在这种部署模式下,不同的应用场景可能面临不同的风险等级和风险取向。例如,制造业的人工智能体需要更高的稳定性和可靠性,但在服务场景中部署的智能体需要功能多样性、高度自主性和适应性的能力。因此,治理的重点应该是与人类互动过程中的安全性和价值对齐。尤其是情感伴侣智能体,由于其服务模式可能触及大量个人敏感信息,客户面临个人敏感信息泄露的风险,应重点控制其隐私保护。因此,在这个阶段,应该集中监管力量率先应对“高风险”场景,在进行精准治理的同时,为探索建立一个全面、一体化的治理框架提供前期准备。


欧盟人工智能法案以风险分类的方式探索了人工智能新技术和新应用的精确治理。立法者率先引导人工智能系统可能会对人类健康和安全产生重大影响,这两条主线可能会对个人的基本权利产生重大影响。需要重点监管的“高风险场景”围绕设备运行领域、系统使用目的、系统性能、系统用户和受系统影响的主体五个维度进行识别。人工智能法案第六条规定了更明确的高风险识别因素:危害因素,即歧视、隐私泄露、物理损害等风险类型;暴露因素,即风险的强度、概率、持续时间,以及是否对健康、安全和个人基本权利产生重要影响;脆弱因素,关注潜在风险受害者的数量和特殊性以及风险的可控性和后续救助的有效性。对于人工智能理论的精准治理,我们可以在一定程度上借鉴欧盟人工智能法案中分类分级的治理思路,在遵循技术特点和部署规律的基础上,探索和构建精准动态的治理方案。


第一,应探索建立人工智能体分类分级的评定标准。随着技术的发展,专业技术标准通常会突出更好的治理效率。虽然欧盟人工智能法案对风险的分类思路是可取的,但由于其规则的抽象性而受到批评。所以,在细化评价因素的基础上,人工智能论的评价体系应该尽可能地提高规则粒度。例如,可以从输出内容的安全性、准确性和可靠性来评估风险强度和持续时间,从多模态训练数据的源头、内容、标注标准评估歧视、机器幻觉等风险产生的概率来判断人工智能论的风险等级,从具体用途评估可能受其影响的主体的人口基数、抗风险能力、纠错能力、相关合规措施的完整性等维度来评估风险后的救助难度。并且提出有针对性的治理措施。


第二,应探索建立智能控制工具,消除风险动态与监管静态之间的张力。欧盟立法者已经意识到人工智能风险的动态测试。因此,为了保证治理的及时性,人工智能法案第七条规定了修订高风险人工智能识别和识别标准的程序。对于可能即时出现、动态变化的人工智能体风险治理目标,尽快开发一套控制反馈框架和智能治理工具体系是现实的迫切需求。例如,在大规模建立人工智能监管框架之前,新加坡首先与科技企业合作开发了AIVerify实验控制工具,它可以提供人工智能系统的测试框架、工具包和评估分析报告,通过技术赋能控制,增加企业与监管机构之间的互信与合作。因此,为了提高监管的敏捷性和有效性,人工智能理论的精准管理必须完善基础设施的控制,赋能监管部门持续监控、即时评估和实时反馈高风险应用的能力。


(三)


构建面向智能体生态的互动治理


人工智能体作为人工智能技术发展的第四阶段,迅速将人类社会推向了一个动静结合、人机深度交互的智能体社会,开启了一个全新的智能时代。智能体社会将集中展现深度交互、高度互联、动态适应三大特征。首先,人工智能系统在智能体社会中将呈现普遍而深入的交互。另一方面,人工智能体需要人类的反馈来实现动态学习。另外,人类仍然需要通过规范和技术对人工智能理论的行动和决策进行深入的介入,以确保人类处于决策回路之中。其次,智能体社会将呈现万物互联的趋势。如前所述,单个人工智能体可能会遇到能力和行动的限制,因此多代理部署方式将成为主流。所以,智能体社会不仅有深层次的人机交互,而且会突出万物互联的趋势。在引人注目的“智能体虚拟小镇”实验中,研究人员发现,建造的25个人工智能体在虚拟小镇环境中表现出类似于人类社会的社会行为。在虚拟城镇中,智能体不仅可以相互分享信息,记住智能体交互的细节,还可以共同策划情人节派对。可以看出,未来的智能体社会将呈现出高度智能化和万物互联的趋势。三是人工智能体可以借助交互学习和自适应能力,以自我规划和迭代的能力,适应甚至重塑不断变化的环境。所以,人工智能体社会也将呈现出动态和不断延伸的组织特征。随着这种宏观变化,人工智能理论的治理也需要探索一种互动的治理模式。在人工智能理论的产业链中,至少有许多主体,如大型制造商、人工智能系统制造商、下游端的中小企业、人工智能系统客户、技术社区和公众。交互式治理模式需要遵循人工智能体的产业链生态,将各主体全部纳入治理链。


第一,大模型开发者作为人工智能理论的“智能引擎”,需要在现有的监管框架下履行数据、算法、内容等一系列合规义务。更重要的是,由于人工智能体呈现出多主体协同布局的趋势,大模型开发者应积极探索共建共治机制,以应对多智能体协同带来的公共外部风险。另外,鉴于大型开发者具有全栈发展的趋势,它可能与人工智能体的开发者高度重合。所以,在一定程度上,它还应该履行“守门人”的责任,为中下游主体履行监管政策提供必要的帮助。第二,要着力培育技术社区,探索智能体社会的“众包型”治理模式。面临强大的人工智能体,个人客户可能会受到时间、能力、知识和精力的限制,难以与之抗衡。技术性社区内部的紧密结合和专业知识的加持也有助于在人工智能企业内部建立有效的约束机制。例如,对于微软Copilot 微软内部AI工程主管沙恩·琼斯在自测阶段发现这一问题后,立即向微软报告了Designer产品产生色情和暴力内容的问题。但由于微软对改善这一问题的疏忽,他在社交平台上发布了一封公开信,并向美国参议院发出了一封信,并与美国参议院商业、科学、运输委员会的工作人员见面,以督促这一问题引起关注,并得到妥善处理。所以,技术社区对人工智能理论的治理将起到十分重要的“吹哨人”作用。最后,对于智能体社会的“未来公民”,政府应积极培养其数字文化素养,树立在与智能体互动过程中负责使用的理念。在人工智能时代,客户不再作为个人而存在。相反,它已经成为人工智能时代的“跨个人客户”,通过算法、平台和人工智能系统与其他用户、数据和环境连接和影响。所以,人工智能时代的治理应该超越传统的以个人为中心的治理,关注更广泛的互联依赖生态关系。在智能社会,基于法律的治理只能解决有限甚至底线的问题。特别需要多方参与和多层次合作来治理智能体社会。生成型人工智能改革创新和可靠应用是通过多样化的治理措施支持的。只有真正实现智能体生态中的良好互动,培养向上向好的运行生态,才能从更长远、更系统的角度应对这种颠覆性的变化。


结语


人工智能体开启了人类走向通用人工智能的“新时代”。它不仅具有巨大的潜力,促进产业创新,建立竞争优势,还可能带来大规模的社会生产力释放和人类生产生活方式的重大变化。人工智能体将带来一批以智能、泛在为特征的新产业、新业态和新动能,推动一系列颠覆性的技术变革。习总书记在这次重大科技革命与科技革命的交汇时期,提出了“新质量生产力”的重要概念。所谓新质量生产力,是指当代先进的生产力,由技术革命性突破、生产要素创新配置、产业深度转型升级而产生。新生产力代表着科技发展的趋势,代表着产业升级的重大趋势,汇聚着人类社会前进的优势动能。在这一轮科技革命浪潮中,人工智能体可以说是新的生产力。作为世界人工智能的主要创造力量,我国需要优化新生产力的发展生态,一方面促进其释放和发展,另一方面促进其在负责任创新的轨道上逐步完善,进而全面贯彻新的发展理念,促进创新发展与高水平安全的良性互动。


原题:张欣|关于人工智能理论的模块化治理


阅读原文


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com