中国对ChatGPT的使用有何具体政策规定
近年来,生成式人工智能技术的快速发展为经济社会带来新机遇,也引发数据安全、内容合规等风险。中国通过构建多层次政策框架,对ChatGPT等生成式人工智能服务实施分类分级监管,既鼓励技术创新又注重风险防范,形成具有本土特色的治理模式。
政策体系框架
中国对生成式人工智能的监管以《生成式人工智能服务管理暂行办法》为核心,该办法于2023年8月15日施行,明确境内服务提供者需履行算法备案、安全评估等义务。立法依据涵盖《网络安全法》《数据安全法》《个人信息保护法》三大基础法律,形成技术发展与安全治理的平衡机制。2024年9月出台的《网络数据安全管理条例》进一步细化数据分类分级要求,将生成式人工智能训练数据纳入重要数据范畴,要求建立全生命周期安全管理体系。
监管逻辑体现包容审慎原则,对研发阶段采取“沙盒监管”,允许技术试错;对应用阶段强化主体责任,要求服务提供者建立用户身份核验、违法内容处置等机制。例如,2024年备案的327个生成式AI模型中,政务、金融等关键领域模型需通过三级安全审查,而教育、娱乐类模型仅需基础备案。
技术准入限制
OpenAI未在中国大陆地区开放API服务,境内用户无法直接使用ChatGPT。根据2024年7月实施的跨境数据监管政策,调用境外AI接口需通过安全审查,企业需证明数据出境必要性并签署合规承诺书。截至2025年3月,仅有12家持牌金融机构获批接入GPT-4接口,且调用频次受严格限制。
境内替代方案快速发展,302款备案大模型覆盖多个垂直领域。以政务领域为例,“鹏城脑海”大模型在深圳政务服务中实现95%常见咨询自动应答,其训练数据全部来源于国产芯片支持的本地算力集群。技术自主化率成为备案审核关键指标,2024年新增备案模型中86%采用国产深度学习框架。
数据安全屏障
《暂行办法》第七条明确训练数据“四性”要求:真实性、准确性、客观性、多样性。服务提供者需建立数据溯源机制,商业数据使用必须取得授权,公共数据调用需符合《数据二十条》共享规则。某电商平台AI客服因违规爬取用户评价数据,2024年被处以200万元罚款,其训练模型强制下架三个月。
个人信息处理执行最严标准,对话记录保存期限不得超过6个月,且需经去标识化处理。2025年1月某教育类AI应用因未彻底删除用户提问中的身份证号码,触发监管系统的实时预警,企业被勒令暂停服务并整改。
内容审核机制
生成内容需通过“双审核”流程,既包括基于关键词库的机器过滤,也包含人工复审环节。算法模型必须内置价值观校验模块,确保输出内容符合社会主义核心价值观。某国产大模型在测试阶段因生成历史虚无主义表述,导致整个研发团队接受专项合规培训。
动态监测系统实时捕捉异常输出,2024年国家网信办建立的生成内容监测平台,可对文本、图像、视频进行多模态分析,识别准确率达98.7%。当检测到虚假信息传播风险时,系统能在0.3秒内触发服务熔断机制。
行业自律规范
中国人工智能产业发展联盟发布《生成式AI应用自律公约》,要求企业建立审查委员会。头部企业形成“红黄蓝”三级预警体系,蓝色预警针对一般性内容偏差,红色预警则直接上报网信部门。2025年3月,某科技公司在模型迭代时主动报备3个潜在风险点,获得监管部门的快速审批通道。
产学研协同建立测试认证体系,包括中国电子技术标准化研究院推出的T/AI 1127—2024《生成式人工智能系统安全要求》。该标准设置268项检测指标,涵盖模型鲁棒性、隐私保护、价值观对齐等维度,已成为行业准入的必备认证。