中国用户能否要求ChatGPT删除个人数据
近年来,生成式人工智能技术的快速发展与个人数据保护之间的矛盾日益凸显。以ChatGPT为代表的语言模型在收集、处理用户对话数据的过程中,不可避免地涉及个人信息的存储与利用。这种技术特性使得用户对其个人数据的控制权面临前所未有的挑战——中国用户能否真正要求ChatGPT删除自身数据,不仅关系到技术的边界,更是对现行法律体系适应性的现实考验。
一、法律赋权与制度困境
《个人信息保护法》第47条明确赋予用户删除权,规定当处理目的已实现或用户撤回同意时,个人信息处理者应当删除数据。这一条款的适用范围不仅限于境内企业,对于向中国用户提供服务的境外平台同样具有约束力。但OpenAI作为ChatGPT的运营主体,其服务器部署在美国境内,用户对话数据的存储与处理均发生在境外,这直接导致法律适用面临管辖权障碍。
实践中,用户通过ChatGPT界面删除聊天记录的操作仅能清除本地浏览痕迹,OpenAI并未公开承诺彻底删除服务器端的原始数据副本。2023年意大利监管机构对ChatGPT的禁令案例显示,其训练数据中仍包含可识别用户身份的信息。这种"前端可控、后端模糊"的处理方式,使得法律规定的删除权在跨境场景中面临执行困境。
二、技术特性与权利消解
生成式人工智能的运作机制从根本上冲击着传统的数据控制框架。ChatGPT采用持续学习的模型优化方式,用户对话数据会被用于强化训练,导致个人信息与算法模型深度耦合。即便删除原始对话记录,经过模型参数化处理的信息片段仍可能以隐性方式存在于系统中。这种技术特性使得"彻底删除"在技术上几乎不可能实现,客观上架空了用户对个人信息的处置权。
清华大学法学院教授申卫星指出,现有法律体系中的"删除"概念建立在数据可分离、可追溯的基础上,而生成式AI的数据融合特性打破了这一前提。当用户个人信息被分解为数十亿个模型参数,法律要求的删除义务在技术层面已失去执行基础,这构成了权利保护的本质性障碍。
三、实践路径与救济可能
中国用户目前可通过两个渠道主张权利:一是依据《个人信息保护法》第50条向网信部门投诉,要求监管部门对OpenAI开展跨境执法;二是通过民事诉讼主张侵权责任。但前者受制于国际司法协作机制的不完善,后者则面临被告主体不适格、损害结果难以举证等现实困难。2024年某电商平台用户诉ChatGPT泄露隐私案中,法院即以"服务平台未在中国境内注册"为由驳回起诉。
技术层面,部分学者建议采用差分隐私、联邦学习等技术重构数据收集模式。通过本地化处理用户数据、仅上传脱敏特征值等方式,从源头规避个人信息存储风险。但这类方案会显著增加计算成本,与商业公司追求模型性能的诉求存在根本冲突,短期内难以形成行业共识。
四、行业规范与用户策略
国家网信办2023年颁布的《生成式人工智能服务管理暂行办法》第12条,明确要求服务提供者建立便捷的投诉举报机制。但监管文件未对数据删除的具体技术标准作出规定,导致企业合规停留在表面层次。对比欧盟GDPR规定的"被遗忘权",我国立法尚未建立配套的数据影响评估制度,使得用户主张权利时缺乏量化依据。
对于普通用户,南开大学2022年调研显示,75%受访者保留着不再使用的应用账号。这种使用习惯的惰性,叠加技术复杂性的认知壁垒,导致用户主动行使删除权的比例不足20%。法律学者王利明建议,应当建立账号自动回收机制,对超过合理保存期限的数据实施强制删除,但该方案可能与企业数据资产化需求产生冲突。
从更宏观视角观察,全球主要司法辖区正在探索建立人工智能时代的权利保护范式。加拿大2024年通过的《人工智能数据权利法案》,要求算法模型必须保留数据溯源标识;欧盟正在讨论的《人工智能法案》修正案,则试图将模型参数纳入数据删除范围。这些立法动态预示着,解决ChatGPT类产品的数据删除难题,需要重构整个技术治理框架。