ChatGPT的数据来源是否符合中国数据安全法规定
人工智能技术的快速发展正重塑全球产业格局,以ChatGPT为代表的生成式AI工具凭借其强大的自然语言处理能力,成为商业、教育、医疗等领域的革新力量。这一技术浪潮背后,数据作为核心生产要素的跨境流动与处理机制,却暗藏合规风险。中国《数据安全法》《个人信息保护法》《网络安全法》构建的立体化监管体系,对数据处理活动提出了严格规范。当ChatGPT的服务器位于境外,用户输入的信息可能涉及敏感数据时,其数据来源与处理流程是否符合中国法律,已成为企业引入该技术时必须直面的问题。
数据跨境传输的法律框架
根据《数据安全法》第三十七条,关键信息基础设施运营者境内产生的个人信息和重要数据应境内存储,确需出境的需通过安全评估。ChatGPT的运营主体OpenAI未在中国境内设立实体,用户与系统的交互数据直接传输至美国服务器,这一过程本质上构成数据出境行为。对于处理超过100万人个人信息或累计出境10万人敏感信息的企业,必须依据《数据出境安全评估办法》向国家网信部门申报安全评估。
OpenAI并未在中国境内注册运营实体,导致其数据处理活动难以纳入《网络安全法》第三十七条的管辖范围。但国内企业若通过API接口引入ChatGPT服务,则可能被认定为数据处理者,需承担数据出境申报义务。2023年微软员工因向ChatGPT输入代码导致商业秘密泄露的案例,印证了未履行合规义务将触发行政处罚,最高面临营业额5%的罚款。
重要数据的识别与保护
《数据安全法》将重要数据定义为可能危害国家安全、经济运行、社会稳定的信息。ChatGPT在金融咨询、医疗诊断等场景的应用中,用户可能输入企业财务数据、患者病历等敏感信息。例如某医疗机构使用ChatGPT分析患者健康数据时,若涉及基因信息等生物特征数据,即触碰《生物安全法》与《数据安全法》双重监管红线。
OpenAI的服务条款明确保留对用户输入数据的使用权,包括用于模型训练。这意味着重要数据一旦出境,可能被整合进算法模型形成不可逆的数据扩散。2023年意大利数据监管局对ChatGPT的临时禁令,正是基于其未经授权处理意大利用户数据的风险判断,这对中国企业具有警示意义。
个人信息处理的合规挑战
《个人信息保护法》确立的“告知-同意”原则,要求数据处理者明确告知收集范围和使用目的。然而ChatGPT的隐私政策显示,用户输入内容可能包含电话号码、住址等个人信息,但OpenAI未设置独立的同意获取机制。这种概括式授权是否符合“单独同意”要求,在法律界存在争议。西南政法大学霍俊阁指出,生成式AI对个人信息的“被动收集”特性,导致传统合规路径难以适配。
更隐蔽的风险在于数据再识别可能性。即使企业对输入信息进行匿名化处理,ChatGPT通过上下文关联仍可能还原个人身份。例如用户连续输入“心内科医生”“35岁”“杭州三甲医院”等信息,结合模型的海量训练数据,存在精准定位特定个体的风险。这种间接识别场景下的合规边界,目前尚未形成明确司法解释。
意识形态与内容安全风险
ChatGPT的训练数据主要来自英文互联网资源,其价值判断体系建立在西方话语框架之下。当用户查询涉及领土主权、历史评价等问题时,系统可能输出与中国官方立场相悖的内容。2023年国内某高校使用ChatGPT撰写社科研究报告,因包含不恰当历史表述引发舆情事件,暴露出意识形态渗透风险。
《生成式人工智能服务管理暂行办法》第四条明确规定,AI生成内容不得含有危害国家安全的信息。国内企业在接入ChatGPT时,需建立“双审核”机制:一方面通过关键词过滤屏蔽敏感提问,另一方面对输出内容实施人工复核。某电商平台引入ChatGPT客服系统后,因未能及时识别用户诱导性政治提问,导致违规内容传播,最终被网信部门约谈。
企业合规责任与应对路径
对于拟引入ChatGPT技术的境内企业,《数据出境安全评估办法》要求建立三级防控体系。首先开展数据分类分级,依据《网络数据分类分级指引》区分一般数据、重要数据与核心数据;其次实施风险自评估,重点审查数据出境必要性、接收方安保能力等要素;最后构建应急响应机制,明确数据泄露后的通知时限与处置流程。
在合同条款设计上,需参照《个人信息出境标准合同办法》附件模板,与境外接收方约定数据安全保护义务。包括限制数据再转移、设定存储期限、建立跨境维权通道等条款。2023年某跨国公司在华分支机构与OpenAI签订补充协议,要求所有涉及中国用户的数据处理必须在华为云境内节点完成,这种“数据不出境”的本地化部署模式,为行业提供了合规样本。