• 微信
展开全部内容 ▾

生成式人工智能著作权纠纷的司法应对

作者:AI日报时间:2025-04-26 阅读数:139 +人阅读

《最高人民法院关于审理著作权民事纠纷案件适用法律若干问题的解释》第十五条规定,由不同作者就同一题材创作的作品,作品的表达系独立完成并且有创作性的,应当认定作者各自享有独立著作权。司法实践中,对该条要求的“创作性”的理解已基本达成一致,即对表达的安排是否体现了作者的个性化选择、判断。既有案件对生成式人工智能独创性的认定也遵循了这一标准,重点考察用户在使用生成式人工智能系统辅助创作过程中,是否对文字、线条、色彩等表达元素作出了选择与安排;不因使用了人工智能工具而否定生成内容的可版权性,但依然坚持“以人为中心”的基本理念,区分人的创造性智力贡献与机器的智能功能,进行个案认定。

关于生成式人工智能独创性认定的宽严尺度,美国版权局近期发布的报告《著作权与人工智能(第二部分):可版权性》反映了从严把握独创性标准的态度。该报告认为,用户反复修订提示并不能改变输出过程的工作原理,无论是一次还是多次,用户都无法控制输出中的表达元素;用户最终确定选择的输出内容只是其对人工智能系统解释的接收,不是包含表达的创作。这与美国法院曾经在涉及新技术的知识产权授权标准问题上走过弯路有关。其早期对待商业方法专利采取过度开放的政策,导致严重的不正当竞争后果,甚至引发金融危机。

对我国法院而言,坚持既往案例衡量生成式人工智能独创性的思路和基准,适当收紧赋予生成式人工智能著作权保护的条件更为稳妥。

二、生成式人工智能著作权的归属

若认可具有独创性的生成式人工智能能够构成法定作品类型,则作品原始权利归属是接下来需要解决的法律问题。司法实践中,对此问题经历了从“研发者所有”到“使用者所有”的演变过程。“”案系早期观点的典型代表,该案判决认为,案涉作品系软件研发团队主持创作的法人作品。研发团队在数据输入、触发条件设定、模板和语料风格取舍上的安排与选择属于与案涉文字作品特定表现形式之间具有直接联系的智力活动,软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了研发者的选择。这一时期,计算机软件根据研发者预设的算法与模板,经过数据筛选与函数计算自动生成内容,决定其表现形式与表达元素的主要因素是研发者确定的软件运行规则。

近两年来,引发著作权法律纠纷的生成式人工智能的技术原理显然不同,以神经网络为核心的深度学习算法存在“黑箱”,并基于概率学知识增加了输出内容的随机性,使模型研发者对生成内容的支配力相对减弱。新技术背景下,当使用者将人工智能模型作为创作工具,按照自己的审美标准和个性判断,对表达细节进行选择和安排时,生成内容体现了使用者的意志,司法裁判倾向于认定生成式人工智能著作权归属于模型使用者。

三、生成式人工智能服务提供者的著作权侵权责任

民法典规定的网络服务提供者间接侵权主体是技术提供者,而非内容提供者。由于对侵权内容生成和传播的控制程度不同,生成式人工智能服务提供者既可能是技术提供者,也可能是内容提供者,二者的区分需要根据技术支持模式和所处开发应用阶段进行个案认定。

生成式人工智能平台提供相应技术的支持模式主要有三种类型:第一,模型开发与应用服务一体式平台,基于自主开发的基础模型部署具有集成功能的人工智能服务,以、等为典型代表;第二,先接入第三方技术提供的预训练大模型,再经过自己的训练后,向特定市场提供执行具体任务的生成式人工智能服务平台;第三,直接调用第三方的大模型而不进行自主性训练的服务平台。对于具有网络技术服务提供者和信息内容提供者双重身份的生成式人工智能平台,需要区分不同的行为类型分别适用不同规定。第三种模式下的生成式人工智能平台未参与模型训练阶段,只是发挥了生成式人工智能网络传播媒介的作用,属于技术服务提供者,可适用“避风港规则”,存在主观过错的,应承担间接侵权责任。

在直接侵权语境下,生成式人工智能与人类创作的作品,或者受著作权法保护的生成式人工智能作品与被诉侵权作品,是否构成实质性相似的认定,原则上适用传统作品实质性相似的判断标准和判断方法。在间接侵权语境下,生成式人工智能服务提供者主观上知道或者应当知道用户行为是侵权行为,客观上为他人实施侵权行为提供了帮助,涉及服务提供者承担的注意义务和主观过错、责任承担方式的认定,及“避风港”规则的适用。

网络服务提供者的主观过错包括对网络用户侵害信息网络传播权行为的明知或者应知。在生成式人工智能应用场景下,以深度学习算法为核心的大模型,可以在学习训练数据的基础上,自我调整模型内部参数或权重。该技术特性决定了即使参与算法设计和模型开发的团队也无法预见,包含具体作品的输入数据对于输出内容是否有特别影响或特别价值。囿于人工智能系统有限的可解释性和透明度,仅充当信息通道的网络服务提供者更加不具备能够预见和控制系统运行结果的信息管理能力,因此不能因未采取预防性的内容过滤或屏蔽措施,就笼统认定其具有主观过错。而且,“应当知道”主观认知状态的认定要与行业惯例及平台信息管理能力相契合,这也是用于判断网络服务提供者主观过错标准之一的“红旗标准”的内在要求。

网络服务提供者应承担的注意义务,不仅来源于法律规定,也来源于网络服务提供者与网络用户达成的服务协议。《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《人工智能生成合成内容标识办法》等对服务提供者应尽的注意义务如建立健全投诉举报机制、潜在风险提示、显著标识等,作出了明确规定。生成式人工智能服务提供者是否应当承担一定程度的版权过滤义务,是值得探究的议题。现阶段,要求生成式人工智能服务提供者尽到输入端和输出端的主动过滤义务,在技术上和经济上的可行性受到质疑。更何况特定类型的输入及其对应的输出是否构成著作权侵权,依然存在较大争议。贸然就此为生成式人工智能服务提供者设定过滤义务,会减损人工智能产业本应发挥的社会福利增进效应。

生成式人工智能服务提供者原则上适用“通知-必要措施”一般规则,其特殊性主要体现在“合格通知”和“采取必要措施”要件的认定方面。司法实践经验表明,通知书记载的信息足以准确定位被诉侵权作品时,可认定为有效的通知。人工智能技术原理中采纳了概率学的知识,导致其输出具有一定的随机性,可重复性受到较大制约。向生成式人工智能系统输入相同提示词,很有可能会得到不同的输出,特别是在输入开放性极强的文学艺术内容提示词时,该特征体现得尤为明显。故此,对于权利人提交的侵权通知,生成式人工智能服务提供者采取所属领域的常规做法和普通技术手段可以确定被诉侵权内容的生成原理的,则该通知属于合格的通知。个案中,网络服务提供者接到侵权通知后应当采取何种处理措施、履行何种注意义务,是由案涉网络服务平台的技术原理所决定的。以API调用模型方式提供技术服务的生成式人工智能平台,对于从输入指令转化为输出内容的模型处理过程缺乏控制力,关于其接到侵权通知后应当采取的必要措施,平台在尽到转通知义务的针对生成式人工智能包含的特定元素启动输出端过滤措施,可以获得豁免侵权责任的机会。

当前位置:首页 >> 产业观察

你可能感兴趣的

查看更多