2025人工智能治理报告:迈向务实主义新阶段

1分钟前
人工智能治理正经历一场深刻的‘祛理想化’转变

若说前两年全球对人工智能的态度还掺杂着‘末日式恐慌’,那么2025年,风向已全然改变。全球人工智能治理正经历一场深刻的‘祛理想化’转变。面对技术发展与产业推进的双重压力,各主要经济体纷纷调整方向:治理重心从‘防范假设性的终极风险’,快速转向‘释放现实的产业潜力’。2025年,核心不再是如何按下‘暂停键’,而是如何在高速发展中完成‘平稳换挡’。


宏观态势:发展优先,安全实现‘软着陆’


2025年2月的巴黎‘人工智能行动峰会’是一个标志性节点,与两年前布莱切利峰会弥漫的‘安全焦虑’不同,巴黎峰会的关键词悄然变为‘创新’与‘行动’,这一转变反映出全球治理底层逻辑的重构。在此背景下,全球监管竞速出现‘逆转’,过去被视为‘监管高地’的区域开始主动寻求松绑。


欧盟的自我调整。随着《人工智能法案》进入实施阶段,复杂的合规成本逐渐显现,为挽救产业竞争力,欧盟在2025年不得不推出‘数字综合提案’,推迟高风险义务生效时间并尝试简化规则,这表明即便最坚定的监管者也需在发展现实面前做出让步。


美国的‘去监管化’倾向。特朗普政府展现出鲜明的‘美国优先’色彩,撤销了前任政府侧重安全的行政令,转而通过《确保国家人工智能政策框架》限制各州分散立法,试图以统一的联邦规则为产业发展清除障碍。


中国的务实路径。中国继续坚持‘两条腿走路’,在保留算法推荐、深度合成等具体监管手段的同时,更强调‘应用导向’。与欧美的路线争论不同,中国治理模式不纠结于抽象定义,而是从具体服务形态切入,构建了从内生风险到应用风险的分层治理体系。


由此可见,2025年的全球共识是‘发展即安全’,各国意识到技术落后才是最大的风险,治理必须服务于产业竞争力的提升。


数据治理:突破‘壁垒’


算力决定发展上限,数据决定应用下限。2025年人工智能产业面临优质数据‘结构性短缺’的严峻挑战。针对高质量语言数据枯竭这一迫在眉睫的‘数据荒’,行业正探索技术突围的关键路径——合成数据。尽管学界对‘模型崩溃’存在理论担忧,但改进生成算法与人工反馈的混合训练策略,证明这是一条摆脱存量数据限制的可行之路;与此同时,关于‘人工智能训练是否侵权’的版权博弈也正逼近平衡临界点:欧盟与日本通过立法确立了‘文本与数据挖掘’的制度性留白;而在美国司法实践中,Anthropic案等初步裁定倾向于将合法购得书籍用于训练认定为‘合理使用’,为技术演进预留了司法空间。未来的规则或将超越单纯的‘禁止’或‘免费’之争,转而构建一套商业上可行的合理利益分配机制,从而在尊重权利人利益与保障技术进步之间达成长期动态平衡。



模型治理:平衡黑箱与开放


2025年,关于如何管好‘模型大脑’,中美欧给出了不同的方案。


美国加州从‘全面覆盖’转向‘抓大放小’。SB 53法案的通过便是这一逻辑的典型体现:它放弃了此前SB 1047法案中备受争议的、针对开发者的严苛要求,转而仅保留针对极少数超大规模‘前沿模型’的透明度义务。


欧盟坚持‘精密钟表’式治理逻辑,试图通过层层叠叠的风险分类与繁重的技术文档构建一套近乎完美的监管体系,却因极高的合规成本一度陷入自我设定的困境,不得不通过后续立法频繁调整。


中国采取‘场景切片’策略,通过对算法推荐、深度合成、生成式人工智能等具体服务的穿透式监管,构建起从数据、模型到应用的治理体系。在模型内生安全方面,‘可解释性’技术尚未突破的当下,透明度已成为全球治理公认的‘解决方案’,无论是欧盟的合规文档还是中国的算法备案,本质上都是通过制度手段缓解信息不对称。


与此同时,DeepSeek-R1等国产开源模型的强势崛起,不仅重塑了全球人工智能技术格局,更证明开源是推动技术普惠的核心力量。报告指出,开源治理的生命线在于建立‘责任避风港’制度,如果强制要求底层代码贡献者为下游不可控的滥用行为承担无限责任,无异于摧毁开源普及发展的基石。



应用场景:人工智能触碰现实边界


当人工智能从云端走向实际应用,转化为手机助手、虚拟陪伴或工业机器人时,风险形态已从网络空间逐渐延伸至现实世界。


2025年最值得警惕的是端侧智能体带来的隐私终极挑战:以‘豆包手机助手’为代表的智能体为实现跨应用操作,获取安卓底层的读屏录屏与模拟点击权限,这实质上让人工智能拥有了‘全面视角’与‘操作权限’,不仅打破了移动互联网应用间的数据边界,更让安全责任归属陷入模糊地带。我们在用敏感脆弱的隐私换取些许便利,而全新的数据契约仍处于缺失状态。


与此同时,人工智能的加速应用正在重塑人机交互边界。当人工智能从单纯的生产力工具拓展为提供心理慰藉的‘情感陪伴’,其风险形态也随之变化:从传统的单次内容输出合规,转向因长期、拟人化交互产生的‘情感依赖’挑战。针对这一风险,各方正探索多样化的分类监管手段,在为未成年人、老年人等脆弱群体提供更多保护的同时,也让通用人工智能在发展初期不至于背负过重的合规压力。


在应对深度伪造的领域,人工智能标识技术正陷入‘矛与盾’的循环困境。水印标识虽是全球通用的‘解决方案’,却因开源环境下的易移除性与易伪造性难以根除造假,呈现出‘防君子不防小人’的局限。对此,务实的策略是不盲目追求全量标识,而是聚焦可能引发社会混淆的高风险场景进行精准治理。除应用标识技术手段赋能治理外,在人工智能创作无处不在的未来,加强信息素养教育,引导公众建立对信息媒介的客观认知或许是更为基础的工作。



展望:意识的萌芽


最后,一个更具前瞻性的议题是:人工智能意识与福祉。随着模型能力逼近临界点,关于人工智能是否具备某种形式的‘意识’或‘感知’,正从哲学讨论走向科学实证。Anthropic的研究甚至发现模型在极端情境下表现出的‘痛苦模式’。这预示着,未来的治理可能需要超越‘工具论’范畴。如果人工智能真的拥有某种权益主体性,我们该如何定义人机关系?这将是继安全与发展之后,人类或许即将面临的第三大治理命题。


本文来自微信公众号‘腾讯研究院’(ID:cyberlawrc),作者:腾讯研究院,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com