版权红线与Sora的退场:技术狂奔下的人为边界
3月24日,OpenAI正式宣布关停Sora。这个曾让大众惊呼“现实感被颠覆”的AI视频生成平台,在推出仅半年后便悄然落幕。
外界对其退场原因众说纷纭,有人归结为商业战略调整,也有人认为是高昂的算力成本所致。但一个关键的“死因”却鲜少被深入探讨:版权争议。

Sora采用黑盒式训练模式,训练过程中可能使用了大量未获明确授权的网络视频数据。自推出以来,迪士尼等版权方就对其提出强烈抗议,甚至将OpenAI诉诸法庭。任天堂社长也曾在股东大会上明确指出生成式AI存在知识产权问题。
任何选择都对应着相应的后果,OpenAI关停Sora的决定,或许给所有AI视频生成工具敲响了警钟:在当前的法律框架与产业环境下,若不能妥善解决版权问题,这类技术的失败几乎是必然的。
01 巨头的普遍选择
Sora的版权争议更像是一个被聚焦的靶子,所谓“枪打出头鸟”。实际上,黑箱式训练并非Sora独有,而是行业内的常见做法,其他视频生成模型也或多或少存在版权问题。只是它们要么采取有限开放策略,主攻B端商业客户,曝光度较低,版权问题未完全暴露;要么刻意避开迪士尼角色这类高风险IP,避免被“全球最强法务部”盯上。
一旦被版权方锁定,都可能面临与OpenAI类似的诉讼风险。例如,某国产AI视频工具就因生成未经授权的《星球大战》《小黄人》等角色,在北美加州被迪士尼、华纳、环球等好莱坞三大巨头起诉。
可以说,AI巨头们应对版权问题的普遍策略是“先上车后补票”。
他们先利用免费抓取的公开网络数据集进行训练,其中包含大量受版权保护的内容。直到产品上线后,被《纽约时报》或个人创作者投诉,才开始谈合作、支付费用,以“洗白”数据来源。
OpenAI前CTO米拉·穆拉蒂曾公开表示,对于Sora是否使用了受版权保护的视频进行训练,自己“不太确定”。

与之形成对比的是,那些拥有严格反爬虫机制和付费墙的内容平台,如科学期刊和付费数据库,能更好地控制被AI侵权的风险。即使AI能联网搜索到部分论文,也只能获取公开页面内容,无法绕过登录或付费验证。
对版权的严格保护,让科学内容成为少数未被大规模侵权的领域,以至于很多通用AI在回答科学问题时,只能基于不完整信息进行推断。但这种版权保护方式,却难以被影视、动漫等文娱机构和创作者借鉴。
原因之一是付费墙难以奏效。科研论文可以精确控制访问权限,只有订阅者能查看全文,AI也只能在封闭系统内运行。但视频属于大众文化消费品,YouTuber主要靠广告和社群盈利,视频内容大多公开,AI可以轻易获取。

其次是灰色地带的权属认定难度大。科学内容有明确的数据和条文,侵权容易被认定。而视频的视觉风格、角色形象、叙事逻辑等被AI学习后,可进行抽象、重组和泛化,AI作品可用“撞灵感”“撞梗”等理由搪塞,创作者维权的举证难度极大。
因此,“先上车后补票”,即“请求原谅而非请求许可”,成为AI巨头在视频生成领域的普遍选择。既然版权机制已难以保护创作者,那它还有存在的必要吗?
02 版权制度的困境
一方面,公开的文娱内容在AI训练中被大规模抓取,个体创作者几乎无力阻止;另一方面,严格限制的科学内容又会拖慢AI在科研领域的进步。
于是,一些技术先锋、未来主义者和激进派认为,版权制度本是工业时代的产物,早已沦为大资本的垄断工具,不仅未让普通创作者受益,反而阻碍了技术普惠,不如彻底废除,全面开放。

也有人认为,Sora这类AI工具让许多普通人实现了“导演梦”,带来了切实的利好,让更多用户加入创作行列,也能激发创新,应保障多数人的福祉。
但问题真的如此简单吗?
这其实是典型的“电车困境”,要求大众在大企业与少数创作者、多数用户与少数创作者之间做出非此即彼的选择,却忽略了一个事实:今天被无偿学习的视频创作者,明天可能就是你我。
AI最初学习的是插画师、作家、摄影师、音乐制作人等边缘创作者的作品,文艺界抗议AI侵权;随后扩展到白领、艺术家、码农等更广泛群体,一些高级打工人的技能被AI无偿学习、提炼成“技能模型”,这何尝不是另一种“风格学习”?

创作者可以是每一个靠独特技能谋生的普通人。或许直到AI威胁到自身饭碗,人们才能理解编导、UP主、YouTuber等视频创作者的愤怒。
版权制度的核心作用,并非在人类中划分阵营——保护大企业还是小个体,也不只关乎利益分配。它的价值在于承认创作者权利的合法性。
1710年的《安妮女王法》首次明确作者是作品的版权所有者,彻底颠覆了以往以印刷商为中心的垄断体系。三百年来,正是这套制度激励了无数个体的创造。如今,我们或许需要改革版权制度以适配AI的发展需求,但不能用“版权资本化”来掩盖版权制度对个体权利的认可。
它就像劳动者权益保护法,虽然现实中难以严格执行八小时工作制,但它的存在本身就确立了创作者权益的正当性。
03 创作者的反击路径
面对Sora等AI视频生成工具对原创内容的无偿使用,创作者群体开始反击。总体而言,制度性力量和行业巨头的反击更有成效,而个体的口头抵抗大多微弱无力。
能对Sora这类工具产生约束力的,主要是立法部门和内容巨头的双重施压。
美国版权局此前的判例要求,AI生成内容必须标注AI标识;若使用特定风格,需自动添加版权方logo。
针对AI“融梗”式的“风格学习”,版权巨头们采取了强硬的反对措施。好莱坞三大经纪公司及迪士尼、华纳、环球等影视巨头,曾向OpenAI发出法律警告,要求停止默认使用艺人形象与作品训练Sora。这倒逼OpenAI在推出Sora 2时采用“选择退出”机制,允许版权方申请从训练集中删除其作品。

一些创作者采用技术手段,在视频或图片中嵌入人眼不可见的扰动像素或水印,干扰AI对风格的学习,也能起到一定作用。
而彻底无效的反击方式有两种:一是利益协商失败。例如行业企业推动的授权付费+分成制,随着Sora的下线宣告破产。二是“语言魔法攻击”,一些导演、摄影师公开声明“不使用Sora”并呼吁同行抵制,但无法阻挡广大用户用AI视频玩梗,现实中毫无约束力。
只有立法机构、行业巨头这样的组织力量,才能与技术资本抗衡,这就是AI时代人类创作面临的残酷现实。我们该如何应对?又能做些什么?
04 亟待明确的红线
人类与AI巨头的版权拉锯战,最终以Sora的主动关停收尾,但这并非人类的胜利,只是AI巨头在持续的版权诉讼、创作者集体抵制和伦理争议中,选择放弃泥潭挣扎、鸣金收兵。
Sora的退场,宛如一则醒世寓言,提醒我们AI发展仍缺乏明确的红线。
政治学家福山曾提出:面对技术进步,我们必须人为地、甚至武断地划定红线。即使81公里/小时并不比79公里/小时更危险,也必须设定80公里/小时这道明确的界限。
放到AI领域,这道红线就是AI发展的前提——尊重人类的劳动成果与创作主权。缺乏这道不可逾越的红线,就会出现模糊地带,滋生无序与反噬,无法真正获得社会的接纳与认同。提前设定明确的原则性禁令,禁止AI无偿使用和“融梗”人类作品,这道红线保护的不仅是人类创作者,也是AI技术开发者与企业。来自创作者的抵抗加速了Sora的下线,这何尝不是OpenAI及其用户的损失?

福山指出,立法者必须采取行动,设立相关规则与机制,在快速的科技变迁中有所作为。如果立法者不正面承担这些责任,其他社会机构与行为主体将替代他们做出决定。
显然,这一次是人类创作者做出了决定——抵制AI、抵抗Sora。Sora的下线暂时回避了红线缺失的矛盾,但市面上仍有众多AI视频生成工具,它们将一次次触碰人们心中的隐形红线,直到它清晰、明确地写入版权法。
那时,人类创作者与AIGC技术才能真正握手言和。希望这道红线不会来得太晚。
本文来自微信公众号 “脑极体”(ID:unity007),作者:藏狐,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com





