AI时代著作权的治理路径

发布日期:2026-03-25  文:赵徐州 陈炼  来源:中国社会科学网

资料来源 中国社会科学网

【中国社会科学网3月25日】AI技术迭代为哲学社会科学领域知识生产提供新的可能,但也催生剽窃著作权乱象,引发形态多样的侵权行为、伦理危机、模糊的法律边界与受损的学术生态等多重挑战。围绕上述问题,本报记者近日采访了相关专家学者,探析AI时代著作权的治理路径。

AI剽窃著作权的模糊地带

AI剽窃著作权因技术特性呈现出非复制性、隐蔽性等新型侵权样态,其与“合理使用”的边界模糊,成为当前学术界与司法实践的核心争议点。多位学者在采访中认为,AI剽窃的本质仍是未经许可对他人著作权的侵占,但技术赋能下的表现形式更为复杂,需结合AI技术运行逻辑进行精准界定。中国社会科学院法学研究所研究员管育鹰表示,利用AI强大的信息调用和重组能力,剽窃者通过简单的关键词提示,就能获得包含他人实质性内容的生成物。这种经过简单再加工的“新作品”极易掩盖侵权痕迹,侵占他人的创意和心血,其隐蔽性远超传统剽窃行为。但AI技术的发展需要大量的训练数据支持,若一概要求事先获得许可才能使用相关内容,可能不利于AI产业发展,需在保护原创与促进技术创新之间寻求平衡。

司法实践中的典型案例清晰呈现了AI剽窃的隐蔽性侵权特征。在2024年的一起刑事案件中,罗某等人利用“图生图”工具对插画师张某的原创作品仅做颜色、背景微调,在保留原作核心独创元素后批量制作拼图销售,非法获利27万余元。管育鹰认为,此类案例表明,无论采取何种技术手段,只要生成内容与原作构成实质性相似,都可能构成侵权。

华东政法大学知识产权学院特聘副研究员姚叶从技术特性角度,对AI剽窃的边界进行了双重剖析。姚叶表示,人工智能目前具有两种特征。一是在输入端依托“文本与数据挖掘”技术可以从作品数据中学习其中的信息,且不需要在数据库中长期储存作者作品,即具有“非复制性”特征。二是在某些情况下对作品进行“记忆”并再现作品表达。因此,从输入端看,生成式人工智能不存储作品,也不在训练数据的作品之上拼凑新的作品,这应构成“合理使用”或“非表达性使用”。但是,从输出端看,生成式人工智能会在某些情况下对作品进行“记忆”并再现作品表达,而表达之间的实质性相似正是著作权侵权判定的核心要素。此外,原创者尤其注重声誉,人工智能窃取作品但并不指明作品来源,模糊了原作者的精神与作品之间的关联,具有侵犯著作权人精神权益的可能性。

冲击知识生产核心价值

从哲学视角审视,AI剽窃著作权不仅是法律层面的侵权问题,更触及知识生产的伦理根基,对学术生态造成负面影响。黑龙江大学哲学学院院长蒋红雨在采访中表示,AI剽窃著作权违背知识生产伦理原则之处,在于对知识生产主体基本价值内核的否定,主要表现为违反了知识生产伦理的人道原则与公正原则。究其根本,人道与公正是人之为创作主体应获得的基本尊重,也是知识生产伦理的基本精神内核。AI剽窃著作权直接冲击了现代社会人之主体性预设和人作为主体的创造性特质的张扬。

在哲学社会科学领域,AI剽窃引发的伦理危机尤为突出,“幻觉引用”与“论文工厂”的产业化现象令人担忧。更严重的是,这种趋势导致学术研究日益平面化。蒋红雨表示,研究者可能迷失于AI技术的便利,丧失深度钻研的热情,对人工智能的过度依赖正在削弱研究者的学习自主性,使批判性思维得不到应有训练,创新能力不断弱化。

“合理使用”的边界

AI技术飞速发展,给传统著作权法律体系带来双重挑战:一是“合理使用”边界的模糊化,导致司法实践中争议频发;二是人机协作模式下,侵权责任划分缺乏清晰的界定标准,亟待完善。

AI技术对法律的挑战首先体现在“合理使用”边界的模糊性上。

江南大学法学院副院长叶敏表示,当前司法实践呈现出的新趋势之一是“合理使用成为关键抗辩武器”。在《纽约时报》等8家媒体诉微软、OpenAI案,英伟达被图书作者集体诉讼案中,被告均以“公开数据合理使用”作为主要抗辩理由,而不同法院对这一抗辩的认定存在分歧,进一步凸显了“合理使用”边界界定的难度。

吉林大学法学院教授王国柱针对“人机协作”的概念,提出AI尽管具有智能化的特征,但仍然是“高级”工具,没有成为创作主体的可能,创作主体只能是人本身。“人类创作者如果运用AI进行创作,就应承担创作过程中可能产生的所有伦理责任和法律责任。”

在王国柱看来,在AI训练环节未经著作权人许可对其作品进行的使用,若仅为信息提取且不长期储存、不拼凑新作品,通常不宜认定为剽窃,可通过“作品合理使用”或“非独创性表达性使用”获得正当性解释。若人类将AI生成内容作为自己的研究成果署名,或未对AI生成内容进行审慎校正导致侵权、造假,相应的学术不端责任与法律责任均应由人类承担。

在侵权责任划分方面,王国柱提出基于注意义务的解决路径,为司法实践提供了可操作的标准。具体而言,AI开发者是否设置人类反馈强化学习训练流程,以便拒绝回答可能导致生成侵权内容的提问等;AI服务平台是否建立相关投诉机制、是否以服务协议等方式提示用户不得侵害他人著作权、是否为AI生成内容添加显著标识等;AI使用者是否避免直接要求AI模仿已知受著作权保护的作品、是否通过反向图像搜索等工具确认AI生成内容不与现有作品构成实质性相似等。叶敏提出,应依据AI服务提供者对生成内容的实际控制力划分责任,实现权责统一,让实质参与内容生成者承担更高的过滤义务。

此外,现行著作权法中“独创性”“智力成果”的界定,也难以完全适配AI剽窃的认定需求。王国柱认为,著作权法保护思想的表达,但不保护思想本身,正因如此,对学术观点、学术思想等的剽窃属于学术伦理范畴,并不属于著作权法的调整范围。

法律评价与多元共治

面对AI剽窃的复杂挑战,传统著作权保护体系需要系统性升级,构建“法律完善、伦理引导、机构联动、产业合作”的多元治理路径,实现技术创新与知识原创保护的良性平衡。

在法律层面,叶敏提出应当“从技术中立向精细化法律评价转化”,同时指出“接触+实质性相似”的判断标准并未过时,只是需要结合AI技术特点进行更科学的判断,对于AI提供商的义务与责任配置应当与其技术控制力相匹配。

叶敏建议在具体侵权判断上可引入“动态系统论”等新工具,根据AI模型的不同类型与运行机理,构建综合考虑多种因素的判断体系,这些因素包括作品使用目的、对原作者权益的影响、技术控制程度、传播范围、是否采取合理过滤技术等。在损害结果判断上,应注重“市场性替代”标准,同时区分商业性使用和非商业性使用场景,平衡侵权追责与技术包容。

姚叶认为,学术剽窃的对象包括思想、观点、科研数据等科研成果的核心内容,因此抓取并利用他人学术数据而缺乏必要的指引,仍构成学术剽窃,但很难构成著作权侵权;同时,AI的“幻觉”可能产生与原文不符的内容,破坏古籍文献的忠实再现目的,进而影响文化传承和科研的准确性。

管育鹰提出场景化区分的治理思路,为不同应用场景下的AI使用提供了明确指引。管育鹰认为,AI生成物用于教学科研公务等公益目的、提供的是处理后的数据情报等信息而非作品内容本身之欣赏价值的,可参照合理使用规则豁免侵权责任;AI生成物用于投放文化市场提供精神产品之欣赏价值的,未按照法律规定获得许可或支付报酬的则应承担相应责任。

高校、科研机构、学术期刊作为哲学社会科学领域知识生产的核心载体,应承担起相应的防范责任。多位学者认为,此类机构应建立AI生成内容检测机制,明确学术成果中AI使用的标注要求,完善学术评价体系,遏制AI代写、剽窃等学术不端行为;同时,加强对学者的引导,培养其批判性思维与原创意识,避免过度依赖AI工具,守护学术生态的纯粹性。

从零和博弈走向合作共生

跳出“非此即彼”的对立思维,通过制度设计的创新,引导著作权人与AI服务商从对立走向合作,构建人机共生的良性秩序。

叶敏认为,治理核心是通过制度的精准化调节引导著作权人与AI服务商从对立走向合作。这种制度创新可采取多种形式,以有效平衡双方利益;用精细化的标准,依据AI服务提供者对生成内容的实际控制力划分责任;同时,引导大模型开发平台与著作权人达成新的版权集体合作。

蒋红雨从哲学角度提出“机器自觉”概念,为AI技术的向善发展提供了伦理指引。蒋红雨认为,要以向善治理为指引,出台和丰富人工智能法案,为生成式人工智能划定可遵循的权利与义务边界,实现对于技术自主性创制的硬约束。要将负责任的创新原则纳入两种创制模式的进程,形成AI技术知识生成中尊重知识原创性的“机器自觉”。

面对AI浪潮,人类需要做的不是筑起高墙阻隔技术,而是在代码与法律条文之间,找到那个既能保护创造火花又不熄灭创新火焰的平衡点,守护哲学社会科学领域的知识原创性,实现AI技术与著作权保护的良性共生,推动哲学社会科学知识生产高质量发展。

本文来源:中国社会科学网

原文链接:https://cssn.cn/skgz/bwyc/202603/t20260325_5977958.shtml


阅读(

编辑:于乐

技术支持:信息化建设管理处 校内备案号:JW备170083

地址:江苏省无锡市蠡湖大道1800号

邮编:214122

联系电话:0510-85326517

服务邮箱:xck@jiangnan.edu.cn