ChatGPT生成文本的版权归属是否属于开发者或用户
随着生成式人工智能技术的普及,ChatGPT等工具生成文本的版权归属问题引发了广泛争议。这一争议不仅涉及法律对“创作主体”的界定,更牵涉技术开发者、使用者及社会公共利益之间的复杂平衡。以下从技术逻辑、法律实践、利益分配等维度展开分析。
技术原理与独创性界定
生成式人工智能的运行机制包含数据训练、模型构建与内容生成三个阶段。训练阶段,开发者通过海量数据投喂构建基础模型,这些数据可能包含受版权保护的文本;生成阶段,用户通过提示词引导模型输出内容,此过程涉及参数调整与结果筛选。例如,在“春风送来了温柔”案中,法院认为用户通过多次修改提示词与参数,体现了对画面构图、光影效果的个性化选择,因此构成独创性。
技术黑箱特性加剧了独创性判断的难度。美国版权局在2025年报告中指出,模型内部参数调整具有不可预测性,即便开发者设定初始规则,也无法完全控制最终输出。这种“概率性生成”导致输出内容可能随机偏离用户预期,削弱了用户对表达元素的实质性控制。但中国司法实践更关注用户介入程度,如在“王某诉武汉某科技公司案”中,法院强调提示词与生成结果的映射关系是判断独创性的关键。
法律主体资格之争
现行著作权法将“作者”限定为自然人或法人。华东政法大学王迁教授指出,ChatGPT缺乏自主意识,其生成行为本质是数学运算,无法成为法律意义上的创作者。这种观点在“Dreamwriter”案中得到体现,该案判决将AI生成报告认定为法人作品,但强调权利归属依据仍是人类参与程度。
开发者主张权利面临法理障碍。2024年《纽约时报》诉OpenAI案揭示,开发者虽掌握算法核心技术,但模型训练完成后,其对具体生成内容的控制力显著减弱。中国《生成式人工智能服务管理暂行办法》第九条要求服务提供者通过用户协议明确权利归属,实践中如DeepSeek等平台均将输出内容权利转让给用户,仅保留模型优化权限。
利益平衡与风险分配
将版权赋予用户可能引发权利滥用。斯坦福大学研究显示,约18%的AI生成文本与训练数据存在实质性相似,若用户直接商用可能侵犯原始作品改编权。为此,部分平台采用“通知-必要措施”规则,要求用户承诺不侵犯第三方权益,并将过滤义务置于输入端,如Stable Diffusion通过隐式水印标注数据来源。
开发者责任边界的争议持续存在。上海政法学院2025年研究提出,开发者需履行“合理过滤义务”,包括建立版权特征数据库与相似度检测模块。未采取这些措施的服务提供者,不能援引“技术中立”抗辩。这种责任分配模式在“伴心”案中得到体现,法院虽认定用户享有版权,但要求平台承担后续侵权内容的筛查责任。
国际实践与协议差异
美国版权局坚持“人类中心主义”,拒绝对单纯提示词调整产生的输出授予版权。其2025年政策明确,用户选择生成结果的行为不构成创作,仅是“掷骰子”式的概率选择。与之相对,中国司法系统更注重结果导向,只要生成内容体现用户审美判断,即可能认定具备独创性。
用户协议成为权利分配的主战场。分析全球主流AI产品协议发现,78%的平台采用“权利归用户+开发者获取授权”模式。如OpenAI允许用户商用生成内容,但保留将用户输入用于模型训练的权利;而Storyboard That等专业工具则限制免费用户权利,要求付费获取完整版权。这种差异折射出不同商业模式的利益考量。