中央网信办自2025年4月启动“清朗·整治AI技术滥用”专项行动以来,针对AI换脸拟声侵犯公众权益、AI内容标识缺失误导公众等乱象展开重点整治。部署各地网信部门加大违规AI产品处置力度,切断违规产品营销引流渠道,督促重点网站平台健全技术安全保障措施,推动生成合成内容标识加速落地。第一阶段累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个,取得积极进展。
各地网信部门多措并举,扎实推进工作。北京网信办开设AI技术滥用治理举报渠道,形成用户标记—平台核查—联合处置的工作模式,处理相关举报26篇。上海网信办推动标识要求落地示范,组织4场法规宣贯和专题交流活动,覆盖企业400余家,属地内重点企业已基本完成显式标识规范上线。浙江网信办加大对属地AI应用和网站平台的督导力度,各平台共拦截清理各类违法违规信息及提问2550万余条。江苏网信办联合省通信管理局等部门排查AI风险域名163个,封堵和取消接入域名18个。天津网信办采用人工和技术结合的方式,开展大模型安全监测,通报4批次14个风险问题。
重点网站平台也加强了AI技术滥用源头治理。腾讯规范应用程序管理,提高准入门槛,优化巡查机制,驳回、处置违规小程序、应用程序等共计570余款。微博通过策略识别、用户举报等多渠道审核,累计处置违规内容4800余条,并公布典型案例。通义平台围绕数据生命周期建立安全管理体系,在数据采集、训练、使用等阶段加强训练语料管理。抖音建立红蓝对抗机制,模拟攻击案例,修复潜在安全漏洞,优化模型对虚假信息的识别能力。阿里、快手、稀宇等重点平台积极推进元数据隐式标识落地落实。小红书在模型后置训练阶段输入专业领域数据,提升模型对医疗、金融、未成年人等重点领域问题的理解能力。
接下来,中央网信办将聚焦AI造谣、低俗内容等7类突出问题,开展专项行动第二阶段工作,构建技术监测体系,形成处置处罚规范,推动内容标识如期落地,形成长效工作机制,维护清朗网络生态,推动人工智能向善向好发展。