引言
2025年被普遍称为“AI Agent”元年,标志着人工智能(AI)[1]技术已在更高自主性和更好的自我驱动执行任务能力方面得到了长足发展。另一方面,人工智能技术应用已从虚拟网络世界扩展至现实世界。世界模型数据集和世界模型预训练方法的进展,推动了具身智能的发展,机器人从实验室走向场景应用。
中国对于人工智能的监管一直持审慎包容的态度,并以基于风险分类分级的逻辑从小切口开展人工智能治理[2]。在2025年,监管部门基于对人工智能技术和其风险类型与程度理解的日趋深入,在市场准入、生成内容合规以及生成式人工智能标识要求方面开展了专项执法活动[3]。总体看来,中国的人工智能治理已展示出日趋成熟的气质,治理边界愈发明晰。本文将基于法律从业者的视角,回顾2025年中国的人工智能治理路径,并尝试展望2026年的人工智能治理趋势。
一、立法进展与趋势
在监管治理理念与总体框架层面,9月15日,在国家网络安全宣传周主论坛上,《人工智能安全治理框架》2.0版[4]正式发布,这是2024年发布的《人工智能安全治理框架》1.0版的迭代升级版本。《AI治理2.0框架》延续先前对AI相关风险的系统梳理,并扩展了安全风险类别,在技术内生安全风险、技术应用安全风险之外新增了应用衍生安全风险,特别指出AI技术应用对于社会、环境秩序和伦理规范带来的挑战。该框架并提出了“安全左移”的技术应对策略,即在AI全生命周期中嵌入安全考量。我们亦在评论文章中提出了对AI初创企业的风险应对和合规建议。
在具体政策法规层面,2025年1月,国家网信办调整了2024年《生成式人工智能服务管理暂行办法》对大模型服务的市场准入要求(业内通常称为“大模型备案”)的口径,提出如果仅通过API接口或其他方式直接调用已经备案的底层大模型而提供生成式服务,则可通过属地省级网信办办理登记即可上线。此次调整体现了监管部门对于大模型应用及生成式服务提供者角色差异的认知进一步深入,也体现了务实的监管理念。
2025年3月,作为《生成式人工智能服务管理暂行办法》对大模型生成合成内容标识要求的落地规范性文件,网信办又联合工信部、公安部等发布了《人工智能生成合成内容标识办法》,该文件搭配强制性国家标准GB 45438-2025 《网络安全技术 人工智能生成合成内容标识方法》同步于9月生效。作为强制性合规要求,AIGC服务提供者应在自然文本生成、人声人脸生成合成、沉浸式拟真场景等情形[5]下对生成合成内容添加显式标识[6],并对生成合成内容的文件元数据添加隐式标识[7]。对于该等标识信息,内容传播平台(例如UGC视频网站)和应用程序分发平台亦有义务核验相关标识材料。显式标识要求意在使公众能够辨别AIGC内容,而隐式标识的要求则意图实现溯源监督。至此,AIGC的内容标识义务正式有了落地可实施的规范依据。
“三大法“之一的《网络安全法》亦于10月末经过修正,明确将“促进人工智能应用和健康发展”加入到了该上位法中,并规划运用人工智能技术提升网络安全保护水平。
此外,人工智能的规制框架也逐步从通用性的规范逐步扩展至特定的行业领域,例如,网信办和中国气象局亦在6月发布施行了专门的《人工智能气象应用服务办法》,对利用人工智能技术开展气象应用服务的主体在气象数据获取、标识、算法备案等方面做出了专门性的规定。
12月底,国家网信办又发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,针对利用人工智能技术提供模拟人类人格特征、思维模式和沟通风格与人类进行情感互动的产品或者服务的组织和个人,提出了一系列的小切口合规要求,如防沉迷、未成年人保护、特定情形下向监管报送风险评估报告等合规要求。对于如何界定“与人类进行情感互动的产品或服务”,该文件并未明确定义,但业内亦已有一定的技术性讨论。
在产业发展层面,中国政府高度重视人工智能技术对生产生活范式、生产力发展潜在巨大影响。国务院于2025年8月发文[8]布局“人工智能+”发展框架,并在模型基础能力、高质量数据集、及算力发展方面提出了纲领性意见。9月,国家数据局评选发布[9]了《高质量数据集典型案例》名单。12月底,工信部牵头8部委发布了“人工智能+制造”方面的实施意见[10],在基础设施、应用场景及产品开发等方面进一步提出了指导政策,并同时发布了深入详细的《人工智能赋能制造业重点行业转型指引》作为附件。作为制造业大国,前述纲领性文件预示着国家对于人工智能技术在制造业应用发展的前景规划,也可以作为政策风向的参考。
二、行政执法活动回顾
2025年4月30日,国家网信办宣布其部署开展“清朗·整治AI技术滥用”的专项执法活动,该执法活动分为两个阶段:第一阶段关注AI产品/服务准入合规、训练语料合规性、安全管理措施、法定AI生成内容标识的合规情况;第二阶段聚焦利用AIGC技术的内容合规问题。
2025年6月,国家网信办总结了第一阶段的执法进展(第一阶段累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个),并介绍了各个主要互联网平台的执法响应情况。上海网信办还在其执法总结中专门列举了典型问题,包括:
- 未获取相关个人信息主体的合法性基础,提供AI换脸、AI拟声功能。此类问题指个人信息保护违规,即AIGC服务提供者未按照《个人信息保护法》等要求,提示用户在编辑他人生物识别信息时,应依法告知被编辑个人并取得其单独同意;
- 提供生成诱导沉迷、擦边低俗内容的对话服务,或者提供“一键脱衣”功能。此类问题指模型功能、内容生成违规,例如企业未按照《网络安全法》《生成式人工智能服务管理暂行办法》等要求,在平台出现违法违规内容时及时采取停止生成、停止传播、消除等措施;
- 生成侵犯他人名誉权、隐私权等合法权益的违规信息。此类问题指如根据输入信息,可生成包含公众人物形象的虚假图片;或可根据用户要求生成“开盒教程”“他人隐私信息曝光教程”等违规内容。
同时,作为中国对于人工智能技术应用的重要抓手,大模型备案机制以及前述介绍的大模型“登记”机制亦较为活跃。据不完全统计,截至2025年底,生成式人工智能备案总数已经超过了700项备案完成公示,北京、上海、广东和浙江的备案占据了全国总体备案的一半以上。已获大模型登记号的应用/功能亦已超过了400项。
依据国家网信办的第一阶段执法总结,广东、天津网信办对“未备案、未登记即提供AIGC服务”的网站、APP进行了排查,并要求完成备案/登记;上海网信办对“未履行备案或登记程序提供服务且存在风险的应用,依法约谈并给予行政处罚”。江苏网信办甚至联合工信部门,对AI风险域名进行了封堵和取消接入。因此,对于人工智能相关服务提供者来说,大模型备案/登记是合规运营无法避开的要求。
三、司法领域的探索
在2025年,我们亦观察到,中国在司法领域公布了许多涉人工智能技术的法院判例。法院并未在判决书中直接强调“AI治理”,但通过对具体人工智能应用的合规边界裁判,其判决结果已在渐渐塑型AI行业的边界。在先前发布的AI著作权及竞争性权益风险司法案例评论的基础上,以下梳理了较为重要的中国司法判例裁判要旨。
- 利用人工智能技术生成的成果,如果具备“智力成果”与“独创性”要件,可被认定为作品,受著作权法保护。其著作权权利归属应依据使用者、开发者等对生成内容的独创性智力贡献来认定,大模型本身不能成为作者。(北京互联网法院)
- 未经权利人许可,使用AI合成的名人声音用于“带货”构成侵权,委托推广商家应承担连带责任。(北京互联网法院)
- 大模型平台允许用户上传内容,进行模型自训练并发布,在用户上传的训练素材和自训练模型涉及侵权时,因平台设置了投诉举报机制和发布审核机制,满足了“采取必要措施”、“转通知”义务要求,平台可以不构成侵权。(上海金山区人民法院)
- 企业投入的经营资源研发模型,为企业取得创新优势、经营收益和市场利益,相应模型的“模型结构和参数”构成受到反不正当竞争法保护的竞争利益。(北京知识产权法院)
- 人工智能服务提供者应对法律禁止的有毒、有害、违法信息尽严格审查义务,一旦生成前述类型信息,本身即构成违法,构成一般侵权责任意义上的过错。同时,如果人工智能服务提供者就大模型“幻觉”采取了显著风险提示说明,并采取与所提供内容行业相适应的功能可靠性技术保护措施,则较有可能因不满足“过错”要件而无需就大模型生成的不准确信息承担侵权责任。(杭州互联网法院)
前述案例所涉及的法律权利包括著作权、人格权、企业的竞争性权益,甚至触及了AI应用的“幻觉”效应,体现了人工智能技术相关问题在传统法律框架下的生动适用,在逐步框定人工智能应用的合法与违法之间的边界。
四、2026年中国人工智能治理展望
展望2026年,我们预计监管部门仍会保持包容审慎的监管态度,继续以场景化、分行业的方式展开人工智能行业治理。基于AI Agent应用的持续发展,个人用户使用高度个性化的人工智能产品与服务所产生的《个人信息保护法》下合规问题,亦可能成为网信部门的关注重点。
预计工信部门将依据《工业和信息化领域数据安全管理办法(试行)》进一步推动工业和信息化领域网络安全、数据安全和人工智能相关规范的协同适用。另一方面,国家数据局将推动标准化高质量数据集库的建设,相关标准组织(如全国网络安全标准化技术委员会)亦将发布人工智能应用在训练数据清洗、用户使用方面的安全指南,为行业从业者提供指引与参考。
注 释:
[1] 仅为本文之目的,特指具有文本、图片、音频、视频、虚拟场景等内容生成能力的模型及相关技术,以及基于前述模型和相关技术,为了达成给定的目标,在一定自主性的基础上,通过处理输入内容,生成输出内容,从而对虚拟或现实环境产生影响的系统。
[2] https://www.lexiscn.com/topic/legal.php?act=detail&id=498164&newstype=3&tps=ln_cm
[3] https://www.lexiscn.com/topic/legal.php?act=detail&id=488704&newstype=3&tps=ln_cm
[4] https://www.cac.gov.cn/2025-09/15/c_1759653448369123.htm
[5] 对应《互联网信息服务深度合成管理规定》第17条第1款规定的五类情形。
[6] 显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识。考虑到特定场景下显式标识可能会影响AI生成合成内容的正常使用,法规亦允许用户在签署用户协议的前提下,使用未添加显式标识的AIGC服务。
[7] 对应地,隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。隐式标识应包含生成合成内容属性信息、服务提供者名称或者编码、内容编号等制作要素信息。
[8] https://www.gov.cn/gongbao/2025/issue_12266/202509/content_7039598.html
[9] https://www.nda.gov.cn/sjj/zwgk/tzgg/0912/20250912130433113171778_pc.html
[10] https://www.miit.gov.cn/zwgk/zcwj/wjfb/tz/art/2026/art_01010414608a4226b30687773bb21bdf.html
原标题:不动声色、自有分寸——中国的AI治理2025年度回顾及展望
来源:律商视点
作者:
- 石钛戈,合伙人,竞天公诚律师事务所;执业领域:包括网络安全与数据合规、投资与并购、私募股权与风险投资、外商直接投资;联系方式:shi.taige@jingtian.com
- 张宜轩,律师,竞天公诚律师事务所,北京办公室;执业领域:网络安全、数据安全与个人信息保护合规;联系方式:zhang.yixuan@jingtian.com

