人工智能技术在不断突破能力上限的同时,也带来了版权侵权、深度伪造、输出幻觉、算法偏见等多方面的风险。从屡禁不止的AI虚假信息[1],到Anthropic等科技巨头面临的著作权诉讼[2],再到OpenAI卷入青少年自杀相关指控[3],这一系列事件无不表明当下人工智能治理所面临的重大挑战。如何在有效防范上述风险的同时促进技术发展,避免过度行政干预阻碍技术进步,成为各国人工智能治理的关键课题。对此,各国倾向于针对特定风险施加不同层次的透明度义务,以求在坚守安全红线的同时减轻对技术发展的负担。
本文旨在探究全球范围内的人工智能立法实践,重点分析各国识别AI风险的具体标准,以及对提高AI模型或者应用透明度作出的具体要求。文章选取欧盟、美国加州、韩国及我国的立法实践进行梳理分析,供读者参考。
一、风险的识别
风险识别是构建人工智能治理框架的前置条件。高风险配置高义务、低风险配置低义务,是在人工智能监管中贯彻比例原则的应有之义。因此,如何客观全面地界定和判断人工智能的风险,成为各国立法必须回答的问题。
当前,主要的AI立法实践往往单独或综合采用以下三个核心维度作为风险判断标准:
- AI模型的训练计算量: 代表模型自身能力和潜在的通用性;
- AI产品与服务的应用目的: 代表技术应用的实际场景与特定领域;
- AI产品与服务的市场规模: 代表对市场竞争和更广阔社会的影响能力。
- 下文将围绕上述三个维度,选取有代表性的国际立法实践进行简要梳理和分析。
1. 训练计算量
欧盟《人工智能法案》(EU AI Act)[4]在序言中指出,人工智能模型的风险源于高能力。[5]根据模型训练的“规模法则”(Scaling Law),模型的能力与训练计算量高度相关[6],因此模型的训练计算量成为各国法律衡量模型能力与风险大小的重要标准。
模型的训练计算量以“浮点运算”(Floating Point Operations,下称“FLOPs”)为单位。这一指标与模型的参数规模和训练数据集的大小成正比。其中,参数规模代表了模型本身的复杂程度,而训练数据集的大小则代表了模型学习知识的广度。因此,这一指标能够综合反映上述两个维度,从而能够客观衡量模型的能力。
(1)欧盟
EU AI Act对AI模型的规制,以“通用人工智能模型”(general-purpose AI model,下称“GPAI模型”)为核心。所谓GPAI模型,是指使用大量数据通过自监督训练且有能力完成不同任务的AI模型[7]。根据欧盟委员会发布的指引,GPAI模型的参考标准被设定为10^23 FLOPs。[8]
其中能力最为先进的GPAI模型,被进一步界定为“具有系统性风险的GPAI模型”(general-purpose AI model with systemic risk)[9],其门槛同样采用训练计算量标准。EU AI Act第51条第2款规定,若GPAI模型的训练计算量达到10^25 FLOPs,则应推定为具有“系统性风险”, 进而负担欧盟法下较高的合规义务。[10]截至本年初,已经有包括GPT-4o、Doubao-pro、GLM-4在内的超过30个公开发布的AI模型达到了10^25 FLOPs的门槛[11],从而可能被认定为“具有系统性风险的GPAI模型”。
至于那些训练计算量较低、不满足GPAI门槛的AI模型,EU AI Act未特别课加合规义务。不过,若其嵌入到AI系统中,则仍可能因AI系统构成“高风险AI系统”或者“有限风险AI系统”从而受到规制。
(2)美国加州
美国加州于2025年10月通过了《前沿人工智能透明法案》(Transparency in Frontier Artificial Intelligence Act,下称“TFAIA”)[12]。 正如其名,法案的规制重心在于“前沿模型”(frontier model),即性能最领先的AI模型。
TFAIA将“前沿模型”定义为训练计算量超过10^26 FLOPs的基础模型[13],这比前述欧盟法关于“有系统性风险的GPAI模型”的标准高出了一个数量级。该法案还规定,该计算量“应包括原始训练运行、任何后续微调、强化学习或开发者对先前基础模型应用的其他实质性修改所使用的计算能力”[14]。这种全生命周期的计算方式填补了通过分散训练或渐进式优化来规避监管的漏洞,确保了监管的完整性。
一旦AI模型的训练计算量达到该阈值,其开发者即构成“前沿开发者”(frontier developer),进而需负担本法下的合规义务,包括透明度报告、关键安全事件报告等。[15]
2. 应用目的
从技术角度,AI模型不过是一组权重参数,并无直接造成现实损害的可能。真正对社会造成风险的,是对AI模型疏忽大意乃至恶意的应用。嵌入了AI模型的应用通常被称为“AI系统”(AI systems),其可以将AI模型的能力与各类软硬件相结合,实现广泛的能力。从AI系统的应用目的和使用场景入手识别风险并开展监管,是各国普遍采取的治理途径。
(1)欧盟
EU AI Act按照AI系统应用目的与潜在风险大小,将AI系统归类为具有“不可接受风险”(unacceptable risk)、“高风险”(high risk)、“有限风险”(limited risk)和“最小风险”(minimal risk)等四个层级,并分别配置不同程度的合规义务。[16]
所谓“不可接受风险”的AI系统,是指应用于风险极高、极易导致严重后果的领域的AI系统。EU AI Act第5条列举了此类被禁止的应用目的,包括意识与行为操控、社会评分、犯罪预测等。EU AI Act禁止了此类目的的实践。
次之,EU AI Act将可能显著危害健康、安全或者基本权利的AI系统定为“高风险AI系统”,并对其进行全生命周期的严格监管。高风险AI分为两类:第一类为用作欧盟产品安全法规覆盖产品(如玩具、医疗器械、汽车、航空器等)的安全组件,或本身即为此类产品的AI系统[17];第二类为Annex III列明的八大特定领域的AI系统,包括生物识别、关键基础设施、教育、就业、执法等[18]。
再次,对于不属于上述分类,但仍可能造成“有限风险”的应用目的,例如交互性或者生成式AI系统等,EU AI Act 仅施加一定的透明度义务。而对于那些既不属于禁止类、高风险类,也不属于有限风险类的AI应用目的,EU AI Act基本不施加强制性监管要求,但仍鼓励提供者自愿遵守行为准则和最佳实践。
(2)韩国
韩国于2025年1月21日颁布了《人工智能发展与建立信任基本法》(下称“《AI基本法》”)。[19]与欧盟法类似,该法同样按应用领域和场景将AI系统划分为“高影响AI系统”(High-Impact AI Systems)和“生成式AI系统”(Generative AI Systems)。[20]
《AI基本法》将可能对人类生命、人身安全和基本权利构成重大风险的AI系统定义为“高影响AI系统”,并施加全生命周期的严格监管。高影响AI系统的应用领域包括:能源供应、饮用水生产、医疗保健、医疗器械、核设施安全、刑事调查生物识别、个人权利评估、交通系统、政府决策、教育评估等,以及总统令可扩展的其他关键领域[21]。高影响AI系统的提供者、运营商等主体,需全面履行严格的合规义务,包括影响评估、风险管理、人类监督和报告。
而对于不属于高影响分类,但仍可能造成一定风险的“生成式AI系统”,《AI基本法》对其施加负担较轻的透明度义务,如告知用户AI使用、标注生成内容,并确保可区分虚拟与现实等。
3. 经营规模
AI产品的市场规模正在快速增长,据统计,ChatGPT的周活用户已经突破7亿人[22],豆包AI的月活用户也已突破1.5亿人[23]。在如此庞大的用户基数上,诸如算法偏见、隐私泄露、信息操纵等技术隐患将产生显著的社会风险。因此,各国立法亦将市场规模作为风险判断的重要因素。
(1)欧盟
根据EU AI Act Annex XIII提出的判断标准,若GPAI模型已向欧盟境内至少一万名注册商业用户提供服务,即推定为具有“高影响力”从而构成系统性风险[24]。此外,Annex XIII 还要求在判断系统性风险时,关注GPAI模型的“注册终端用户数量”(number of registered end‑users)[25]。可见,EU AI Act同时关注GPAI模型在“to B”与“to C”市场中的经营规模。
(2)美国加州
TFAIA规定,年收入(annual gross revenue)超过五亿美元的前沿模型开发者构成“大规模前沿开发者”(large frontier developer)[26],进而触发更严格的合规义务,包括制定、实施和公布“前沿AI框架”(Frontier AI Framework)、建立匿名举报通道等。此外,《加州人工智能透明度法案》(California AI Transparency Act,下称“CAITA”)[27]规定,当AI系统每月访问量或者用户量超过100万时,AI系统的提供者则构成“受规制提供者”(covered provider),进而触发一系列义务。[28]可见,加州立法亦将经营规模作为衡量风险与监管必要性的重要指标。
二、透明度义务
风险识别是监管的逻辑起点,而透明度义务则是连接风险与治理的桥梁。面对AI技术带来的复杂挑战,各国普遍将透明度制度作为主要治理手段之一。这一制度在赋予公众以及其他市场主体知情权的同时,降低了企业的合规阻力与政府监管成本。下文将进一步梳理主要立法实践在训练数据、模型与算法、生成与交互标识以及重大事件报告等环节所设定的具体透明度要求。
1. 训练数据透明度义务
训练数据从根本上决定了AI模型的知识储备、性能表现与价值取向。然而,训练数据的不当编制和处理可能引发侵犯知识产权、输出歧视性内容或者虚假信息等问题。因此,建立训练数据透明度制度有助于促进政府、公众与利益相关者对AI开发者的监督,从训练数据入手实现源头治理。
(1)欧盟
EU AI Act第53条对GPAI模型的提供者施加了训练数据透明度义务。首先,第53条第1款第(a)项规定了应要求向欧盟AI办公室和国家有关部门提供技术文档的义务,该文档至少应包含Annex XI所列明的信息,具体包括数据的类型和来源、数据整理方法、数据点的数量、范围及主要特征、数据的获取和选择方式、检测数据源不适当性的所有其他措施、检测可识别偏见的方法(如适用)等。
此外,第(b)项规定了向模型的下游应用者提供信息和文档的义务,其中同样要求包含训练数据的信息。
最后,第(d)项规定了模型提供者制作和公开训练数据摘要的义务。2025年7月,欧盟委员会发布了与之配套的《通用人工智能模型训练内容公开摘要模板》。对此,本团队在《欧盟AI模型训练数据透明度规定最新落地——浅析欧盟与美国立法动态》一文中做出了具体介绍。
(2)美国加州
2024年8月,加州通过了关于生成式AI训练数据透明度的AB 2013法案[29]。该法案要求生成式AI的开发者在2026年1月1日以前发布含有训练数据概要(high-level summary)的文档。该概要应含有包括数据集的来源、使用目的、数据点数量与类型、知识产权情况、个人信息情况、消费者信息情况、数据清洗情况等至少12项内容。而以“维护安全和完整性”“操作飞机”和“国防军事”为目的的生成式AI则可豁免上述义务。[30]
2. 模型与算法透明度义务
模型与算法架构构成了人工智能系统的推理逻辑、决策机制与运行基座。然而,算法运作的“黑箱”特性与内在复杂性可能掩盖隐性歧视、导致决策不可解释或掩护恶意操控行为,从而引发伦理与安全风险。因此,模型与算法构成透明度义务的关键一环。
(1)欧盟
EU AI Act分别针对高风险人工智能系统(high-risk AI systems,下称“HRAIS”)和GPAI模型设定了不同的透明度义务。
根据第13条,HRAIS的提供者有义务向处于下游的部署者(deployer)提供该AI系统的使用说明(instructions for use),确保部署者能够充分理解系统性能、局限性、鲁棒性、准确性、人类监督措施及硬件要求等。此举有助于明确系统的适用边界与操作规范,防止因对技术局限性认知不足而引发的误用或滥用风险。
而对于GPAI模型,第53条第1款第(a)项以及Annex XI,GPAI模型的提供者有义务向AI办公室和国家主管机关提供模型的架构、参数、输入输出模态和格式、训练过程等信息。
此外,根据第53条第1款第(b)项及Annex XII,GPAI模型提供者还需向试图将模型整合至其系统中的下游提供者披露必要的技术文件,包含模型预期任务、架构与参数数量、输入输出模态等通用描述,这有助于实现模型的有效集成与二次开发。
(2)美国加州
对于一般前沿模型的开发者,TFAIA规定,在部署新的前沿模型或现有前沿模型的重大修改版本之前或同时,前沿开发者应当在其网站上清晰显著地发布透明度报告,其中包括关于模型与算法的内容,例如输出模态、预期用途以及使用的任何一般性限制或条件。[31]
若开发者满足了前述市场规模门槛、从而成为“大规模前沿开发者”,则会进一步触发多项透明度义务,包括:
- 在透明度报告中额外加入关于对前沿模型进行的灾难性风险评估相关的内容[32];
- 定期向加州应急服务办公室(Office of Emergency Services)提交任何关于其前沿模型内部使用产生的灾难性风险评估摘要,并提供书面更新[33];
- 编写、实施、遵守并在其互联网网站上清晰显著地发布“前沿AI框架”,包含该大规模前沿开发者如何将国家标准、国际标准以及行业共识的最佳实践纳入其前沿AI框架等事项。[34]
3. 生成与交互透明度义务
随着人工智能生成的内容日益逼真,虚假信息传播、身份冒充及恶意内容生成等风险随之而来,严重削弱了公众对网络信息的信任。对此,针对AI生成物的透明度制度旨在通过标识来区分“人类创作”与“机器生成”;而确立与AI交互过程中的透明度制度,要求系统主动披露机器身份,旨在保障用户的知情权并防止沉迷。
(1)欧盟
EU AI Act对AI系统的提供者与部署者均设定了针对生成内容与交互内容的透明度义务。
第50条第1款规定,AI系统的提供者应确保AI系统在与自然人交互时,能够让其知晓其正在与AI系统交互;第2款规定,生成式AI系统的提供者,应当确保输出的内容带有机器可读格式(Machine-Readable Format)的标记。
而对于AI系统的部署者,第50条第3款规定,涉及人类情感识别或生物特征分类的AI系统,必须向该对象告知其使用;第4款规定,对于生成深度伪造(deep fake)的图像、音视频以及生成与公共利益有关的文本的AI系统,部署者必须披露(disclose)相关内容系生成。
通过上述双重主体与双重面向的透明度义务,欧盟建立了从模型到系统,从交互到生成的全流程披露义务。目前,欧洲委员会人工智能办公室正在针对上述制度起草实践准则,预计将于2026年发布。
(2)美国加州
加州CAITA确立了涵盖“强制标注”与“用户选择”的双重AI生成物披露制度。首先,达到一定市场规模的AI系统提供者应当赋予用户选项,使其能够自主选择是否在AI生成的图像、音频或视频中加入显性披露(manifest disclosure)[35];此外,相关提供者还负担隐性披露(latent disclosure)的强制义务,要求提供者必须在上述生成物中嵌入包含提供者链接、系统信息、创建时间及唯一识别码(unique ID)等内容的隐性数据,且该数据须具备可被AI检测工具识别的技术特性。[36]值得注意的是,文本生成物当前并未被纳入上述强制标注的适用范围。
至2025年10月,加州通过AB 853法案对既有透明度制度进行了修订与补强[37]。该法案一方面强化了平台责任,要求社交媒体、文件共享平台及搜索引擎等大型在线平台主动检测发布内容是否由AI生成并向用户披露;另一方面确立了源头管控机制,明确禁止生成式AI托管平台提供未按法律要求植入披露功能的模型,从而在技术分发端堵塞监管漏洞。[38]
与AB 853同期颁布的SB 243法案则聚焦于“AI伴侣聊天机器人”(companion chatbots)的特殊风险治理。法案要求运营商在交互可能导致用户误认为真人的情形下,必须明确披露其AI身份。针对未成年用户,该法案设定了更为严格的防沉迷机制,强制要求系统每隔不超过三小时发送一次“休息通知”,并再次重申机器人的非人类属性,以防止情感操纵与认知混淆。[39]
(3)中国
2025年3月,我国颁布了《人工智能生成合成内容标识办法》[40],其系统性地规定了各主体对人工智能生成内容的标识义务,并已于2025年9月1日正式生效。
其中,第四、五条规定了服务提供者作为源头的双重责任:不仅要求在文本、音视频及虚拟场景中添加显式标识,还要求在文件元数据中嵌入隐式标识,涵盖内容属性、服务提供者名称及内容编号等核心制作要素。第六条针对传播平台确立了“核验、提示、追加”的义务体系。平台必须核验隐式标识,依据结果在发布内容周边添加显著提示以告知公众,同时须在元数据中追加传播平台名称等信息。第七条则要求应用程序分发平台在上架审核时必须确认开发者是否提供生成服务,并核验相关的合规材料。此外,第十条严格规范了终端用户行为:一方面要求用户发布内容时主动声明并使用标识功能;另一方面严禁恶意删除、篡改、隐匿标识,或为此类违规行为提供工具支持,从而构建起从源头到终端的严密治理闭环。
4. 重大事件
在全生命周期的人工智能治理中,事后监管占据着同等重要的地位。针对人工智能所发生的重大事故或者严重隐患,应当建立强制的报告义务,为政府迅速介入提供保障,以便在第一时间有效控制事态、减轻损害、保障公众的知情权,这已成为当前AI治理的普遍共识。
(1)欧盟
EU AI Act对HRAIS和具有系统性风险的GPAI模型都设定了具体的事件报告义务。
EU AI Act第73条规定,HRAIS的提供者(或在特定适用情况下的部署者)必须对任何“严重事故”向事故发生地成员国的市场监督机构进行报告。所谓严重事故,是指直接或间接导致人员死亡或健康严重受损、关键基础设施运行严重中断、违反基本权利保护义务或造成广泛侵权的事件[41]。提交报告的时间不得晚于提供者知悉事故后的15天,其中对于造成人员死亡的事故不得晚于10天,而对于广泛侵权或涉及关键基础设施的事故不得晚于2天。
而对于有系统性风险的GPAI模型提供者,EU AI Act第55条规定,在发生严重事件时,应立即向人工智能办公室及国家主管部门跟踪、记录并报告有关该严重事件及为应对该事件可能采取的纠正措施的相关信息。
(2)美国加州
根据TFAIA,前沿模型开发者在发现“关键安全事件(critical safety incident)”后,必须在15天内向加州紧急服务办公室报告。此外,若该事件构成“死亡或严重身体伤害的紧迫风险”,报告时限则缩短至24小时。[42]
TFAIA将“关键安全事件”定义为四种情形:
- 导致死亡或身体伤害的模型权重遭到未经授权的访问、修改或外泄;
- 灾难性风险的实现并实际造成了损害;
- 一个“失控的”前沿模型直接导致人员死亡或身体伤害;
- 模型通过欺骗性技术绕开并颠覆开发者的控制,从而显著增加了灾难性风险。
此外,TFAIA还要求大规模前沿开发者每三个月(或按照紧急服务办公室书面通知的其他合理时间表)提交一份内部生成的灾难性风险评估摘要。
(3)中国
2023年,我国颁布的《生成式人工智能服务管理暂行办法》为产业发展奠定了基础规范遵循。[43]其中,第十四条核心规定了服务提供者的“双重报告义务”:在内容层面,一旦发现违法内容,提供者须在采取停止传输、模型优化等整改措施的同时,履行向主管部门报告的义务;在用户层面,对于利用服务从事违法活动的使用者,提供者亦须在实施功能限制或停服等处置后,保存相关记录并上报。这一规定明确将“报告”作为服务提供者的法定义务,健全了监管协作机制。
在此基础上,2025年9月,全国网络安全标准化技术委员会发布了《网络安全标准实践指南——生成式人工智能服务安全应急响应指南》。[44]尽管该指南不具备强制法律效力,但其对涉人工智能的安全事件提供了具体的分类分级方法与应对方案。该指南将生成式人工智能安全事件分为“信息内容安全事件”“数据安全事件”“网络攻击事件”等10类,进而根据事件严重程度分为四个级别,并相应给出了全周期响应流程。该指南构建了一套系统化的人工智能安全管理框架,有力推动了我国人工智能治理水平向精细化迈进。
结语
人工智能产业正在经历一场深刻且颠覆性的技术变革。深度伪造、算法歧视、版权侵害、用户沉迷等问题对人工智能治理带来了前所未有的挑战。如何在有效防范风险与创新活力之间寻求平衡已成为全球人工智能治理的核心命题。对此,以训练计算量、应用场景及经营规模为锚点的风险识别,与贯穿数据、模型及交互全流程的差异化透明度义务,共同构成了当前全球AI治理的重要组成部分。展望未来,人工智能治理应当始终坚持“以人为本”,并以此为导向不断健全风险防范机制,提升人工智能治理水平,从而在确保“技术为人”的前提下,真正释放人工智能技术的无限潜力。
脚注:
[1] 参见赵丽、王艺霏:《AI时代的真伪博弈》,载《法治日报》2025年11月21日,第4版。
[2] Reuters, “Anthropic agrees to pay $1.5 billion to settle author class action”(Sept. 6, 2025), https://www.reuters.com/sustainability/boards-policy-regulation/anthropic-agrees-pay-15-billion-settle-author-class-action-2025-09-05/ (last visited Nov. 25, 2025).
[3] The Associated Press, “OpenAI faces 7 lawsuits claiming ChatGPT drove people to suicide, delusions”(Nov. 7, 2025), https://apnews.com/article/openai-chatgpt-lawsuit-suicide-56e63e5538602ea39116f1904bf7cdc3 (last visited Nov. 25, 2025).
[4] EU AI Act, 参见:https://artificialintelligenceact.eu/the-act
[5] EU AI Act, Recital 111.
[6] See Jared Kaplan et al., Scaling Laws for Neural Language Models, arXiv:2001.08361 (2020), https://arxiv.org/abs/2001.08361.
[7] EU AI Act, Art. 3(63).
[8] See Guidelines on the scope of the obligations for general-purpose AI models established by Regulation (EU) 2024/1689 (AI Act).
[9] EU AI Act, Art. 3(65).
[10] EU AI Act, Art. 51(2).
[11] Epoch AI, “Notable AI Models with Over 10^25 FLOPs Training Compute”(Jan. 30, 2025), https://epoch.ai/data-insights/models-over-1e25-flop (last visited Nov. 19, 2025).
[12] California Senate Bill No. 53 “TFAIA”,参见https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202520260SB53
[13] Cal. Bus. & Prof. Code § 22757.11(i)(1) (added by S.B. 53 “TFAIA”).
[14] Cal. Bus. & Prof. Code § 22757.11(i)(2) (added by S.B. 53 “TFAIA”).
[15] 此外,韩国《人工智能基本法》执行草案也采用了10^26次的训练计算量阈值,该草案截至收稿仍在征求意见。
[16] European Commission, “AI Act” (Nov. 20, 2025), https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (last visited Nov. 25, 2025).
[17] EU AI Act, Art. 6(1).
[18] EU AI Act, Art. 6(2).
[19] 韩国《人工智能发展与建立信任基本法》(《AI基本法》),参见https://www.law.go.kr/lsInfoP.do?lsiSeq=268543#0000
[20]《AI基本法》第4条、第5条。
[21]《AI基本法》第2条。
[22] OpenAI, “How people are using ChatGPT” (Sept. 15, 2025), https://openai.com/index/how-people-are-using-chatgpt/ (last visited Nov. 24, 2025).
[23] Quest Mobile, “2025年8月AI应用行业月度报告” (Sept. 16, 2025), https://www.questmobile.com.cn/research/report/1967853261412208641 (last visited Nov. 24, 2025).
[24] EU AI Act Annex XIII, point(f).
[25] EU AI Act Annex XIII, point(g).
[26] Cal. Bus. & Prof. Code § 22757.11(j) (added by S.B. 53 “TFAIA”).
[27] California Senate Bill No. 942 “CAITA”,参见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB942
[28] Cal. Bus. & Prof. Code § 22757.1(b) (added by S.B. 942 “CAITA”).
[29] California Assembly Bill No. 2013,参见https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2013
[30] Cal. Civ. Code § 3111. (added by A.B. 2013).
[31] Cal. Bus. & Prof. Code § 22757.12(c)(1) (added by S.B. 53 “TFAIA”).
[32] Cal. Bus. & Prof. Code § 22757.12(c)(2) (added by S.B. 53 “TFAIA”).
[33] Cal. Bus. & Prof. Code § 22757.12(d) (added by S.B. 53 “TFAIA”).
[34] Cal. Bus. & Prof. Code § 22757.12(a) (added by S.B. 53 “TFAIA”).
[35] Cal. Bus. & Prof. Code § 22757.3(a) (added by S.B. 942 “CAITA”).
[36] Cal. Bus. & Prof. Code § 22757.3(b) (added by S.B. 942 “CAITA”).
[37] California Assembly Bill No. 853, 参见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202520260AB853
[38] Cal. Bus. & Prof. Code § 22757.3.1 (added by A.B. 853).
[39] California Senate Bill No. 243,参见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202520260SB243
[40] 国家网信办等四部门:《人工智能生成合成内容标识办法》,参见:https://www.cac.gov.cn/2025-03/14/c_1743654684782215.htm
[41] EU AI Act, Art. 3(49).
[42] Cal. Bus. & Prof. Code § 22757.13(c) (added by S.B. 53 “TFAIA”).
[43] 国家网信办等七部门:《生成式人工智能服务管理暂行办法》,参见:https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm
[44] 全国网络安全标准化技术委员会:《网络安全标准实践指南——生成式人工智能服务安全应急响应指南》,参见:https://www.tc260.org.cn/portal/article/2/20250909095834
来源:金杜研究院,https://www.kwm.com/cn/zh/home.html
作者:
- 宋海燕,金杜律师事务所国际合伙人,知识产权部;业务领域:人工智能,跨国知识产权法及娱乐法,主要聚焦于传媒、娱乐、体育与高科技行业;邮箱:seagull.song@cn.kwm.com
- 感谢王默、黄娇娜和实习生刘思含对本文作出的贡献。
声明:本篇文章的所有内容仅供参考与交流,不代表金杜律师事务所的法律意见以及对法律的解读。

