9月1日起,AI生成内容需“明示身份”

09-07 06:15

各位内容创作者注意啦,从9月1日起,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》将正式施行。这意味着所有AI生成的文字、图片、视频等内容都必须“亮明身份”。那么,这些内容在传播过程中该由谁来管理,又该如何管理呢?


《人工智能生成合成内容标识办法》明确指出,人工智能生成合成内容是指利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息。其标识包括显式标识和隐式标识。


平台在服务提供者的内容上架或上线时,要进行审核,核验生成合成内容标识。对于未标识或疑似生成的内容,要添加风险提示,以此在传播端阻断虚假信息的扩散。



中国人民大学未来法治研究院执行院长张吉豫表示,“标识办法”中的检测分为三个层次。如果平台从元数据中检测出隐式标签,就可以标识该内容是AI生成的;但如果只是通过算法推测内容是AI生成的,就应标识为疑似AI生成。



目前,由于技术存在局限性,部分原创内容可能会被误判为AI生成,导致创作者权益受损。法学专家指出,当前的算法存在数据偏差和场景适配不足等问题。在误判率难以归零的情况下,应当建立相应的保障机制。



张吉豫还提到,未来相关平台进行分级标识后,也应建立分级的处理办法。对于明确是AI生成的内容,通过隐式标识确定的,应采取更严格的措施;而对于标识为疑似AI生成的内容,应提供更便捷的用户反馈渠道,不宜对用户进行严肃的惩罚。



法学专家建议,网络服务提供者要公开算法原理及误判样本数据,提高透明度;同时设立申诉渠道,允许用户提交证据申请复核,以保证监管与创作自由的平衡。


让生成内容可查可辨,以规范推动发展


记者了解到,截至目前,我国已有490余款大模型在国家网信办完成备案,240余款大模型在省级网信办完成登记,生成式人工智能产品的用户规模已达2.3亿人。那么,“标识办法”的施行会对行业、个人用户以及相关技术的发展产生哪些影响呢?


作为我国人工智能领域首部“办法 + 强标”的组合拳,强制性的国家标准《网络安全技术人工智能生成合成内容标识方法》将于9月1日与《人工智能生成合成内容标识办法》同步施行。它将在监管维度建立审核、监测、追责的闭环机制,在技术维度规范标识体系并预留创新空间。



中国社科院法学所研究员支振锋表示,生成式人工智能治理的一系列国家法律法规、规范性文件以及标准,其重要目的是以规范促发展。通过治理和规范净化互联网市场、网络信息内容和生态空间,促进人工智能特别是生成式人工智能的规范运用和健康良性发展。



专家介绍,高质量数据对生成式人工智能产业发展至关重要。基于错误或不完整的数据作出的决策可能偏离正确方向,不符合法规要求的数据可能带来法律风险。如果未经标识的内容进入公开数据领域,被大模型用于预训练,会出现数据污染等情况,导致技术可信度大大降低。而“标识办法”的出台,正是从源头解决这一问题的关键举措。



张吉豫认为,“标识办法”对于人工智能企业选择训练数据能起到很好的指引作用。所有生成内容需进行隐式标识,这些标识便于机器检测,企业可以更便捷地筛选出机器产生的内容,从而进行训练选择。


利于公平竞争,减少侵权诈骗等问题


专家指出,在《人工智能生成合成内容标识办法》和强制性国家标准同步施行的情况下,标识能够拦截大规模搬运人工智能直接生成内容的行为,让内容平台有更明确的合规要求和管理程序,有利于降低总体的审核运营成本。


法学专家表示,《人工智能生成合成内容标识办法》的施行有利于公平竞争和有效管理。一方面,强制“标识”有利于保护传统内容产业,在一定程度上降低AI技术带来的冲击;另一方面,通过标识可以追溯AI生成内容的来源,减少因AI生成内容引发的侵权、诈骗等问题,维护个人隐私和财产安全。



支振锋提到,使用生成人工智能服务的自媒体账号、博主等使用者有合规要求,特别是背后有公司运营的MCN机构、自媒体账号,都要按照办法和国家标准对生成合成内容进行标识。



法学专家介绍,“标识办法”与《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法规充分衔接。服务提供者在履行算法备案、安全评估等手续时,相关材料可能涉及标识的技术细节,如水印算法、元数据格式、服务商编码等。这些信息能帮助执法部门在发现违法内容时快速识别内容来源,追踪到服务提供者或用户。


来源/央视新闻客户端


原标题:《@内容创作者 9月1日起,AI生成内容必须“亮明身份”》


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com