2025年1月7日,西藏日喀则地震中一张被广泛传播的图片“被压在废墟下的小男孩”被证明是AI合成图片,[1]这随即引发了社会对于人工智能生成物(Artificial Intelligence Generated Content,以下简称“AIGC”)的广泛讨论。随着AI大模型生成逼真图像、音频与视频的能力日益增强,人类作品与AIGC之间的界限愈发模糊。如不加以管控,则会产生“真相侵蚀”(Truth Decay),[2]导致公众对信息真实性的信任度下降。对此,AI监管实践中提出可以通过采取适当的AIGC标识,在不影响用户感知准确度与分享意图的前提下方便用户区分AIGC与人类作品。[3]目前,美国加利福尼亚州、欧盟和中国都通过法律法规确立了AIGC服务商的标识(Labelling)义务。这些法律法规体现了各国对AI监管的共识和趋势,但在细节层面又各有差异。本文将对上述三个法域最新的AIGC标识法规与立法趋势进行对比分析,以期为AIGC服务商与其他相关从业者提供合规指引。
此外,我们注意到,很多国家和经济体如欧盟,对涉及Deepfake(深度伪造)技术的AIGC进行了单独的规定,[4]为提供Deepfake技术的AIGC服务商设定了相较于其他AIGC更严格的披露义务。[5]限于文章篇幅,本文仅研究AIGC服务商的普遍性标识义务,而不再单独讨论对Deepfake技术的监管。
一、美国加州:强制的隐式标识与用户可选的显式标识
(一)加州《人工智能透明度法案》规定的标识义务
2024年9月19日,加州州长加文·纽森(Gavin Newsom)正式签署加利福尼亚州《人工智能透明度法案》[6](California AI Transparency Act, 2026年1月1日生效,以下简称“CAITA”),使得加州成为美国继科罗拉多州、犹他州和伊利诺伊州后第4个出台AI透明度相关法规的州。[7]然而,与其他州的AI透明度法案不同,CAITA将立法重点放在了大型AIGC服务商的标识义务上,是目前美国在州层面最全面和具体的 AI 标识法案。
总体而言,CAITA将标识义务的主体限定为每月用户或访客量超过100万的大型AIGC 服务商(并且在加州可以公开无地理限制的访问),而不对中小型AIGC服务商作出要求。[8]其次,CAITA要求上述AIGC服务商应为用户免费提供AI检测工具(AI detection tool)。[9]再次,CAITA采取了显式与隐式标识的立法框架,为AIGC服务商规定了强制的隐式(Latent)标识义务[10]与用户可选的显式(Manifest)标识义务。[11]具体内容请见下表1。
表1 CAITA对服务商标识义务的规定
目前,针对CAITA的评价也存在各种声音:批评的观点指出,CAITA仅针对大型AIGC服务商进行规制,而较小的服务商却游离于标识义务之外,留下了监管漏洞,并且为大型AIGC服务商带来了不切实际的开发负担。[13]支持者则认为,CAITA为解决AI识别困难问题提供了一个起点,为其他州的相关立法作出示范;[14]同时CAITA并不会为企业带来过大负担,批评者的否定只是过分忧虑。一些加州的科技企业已经按照CAITA要求进行AI标识。例如谷歌开发的SynthID技术可以在不被用户察觉的前提下,将水印植入到声波的频谱与图片的像素中。SynthID本身也是一个AI检测工具,目前已被谷歌应用到Lyria等生成式AI大模型中。[15]Open AI在2024年8月声称开发了新的AI文本水印工具,仅能针对所有ChatGPT生成的文字进行水印植入和识别,但考虑到其可能带来的误报风险以及用户流失风险,Open AI至今未公开发布该工具。[16]
(二)加州《人工智能透明度法案》 VS 联邦《标识法案》
CAITA的另一个重要意义在于其突破了美国联邦层面的AI标识立法滞后。2023年10月,拜登政府发布了一份“安全、可靠和可信的人工智能”行政命令(Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence),要求商务部制定AIGC内容认证指南,[17]目前尚未见文。2023年11月,美国联邦参议院两党议员提出了《2023 年 AI 标识法案》[18]( AI Labeling Act of 2023,下文称“《标识法案》”),规定了较为详细的AI标识规制,截至本文发布之时,该法案已提交给美国联邦参议院商业、科学和运输委员会审议,但尚未获得最新进展。[19]2023年7月,Open AI和Google等7家美国大型AI企业向拜登政府作出承诺开发符合要求的AI标识技术以赢得公众信任。[20]可见美国在联邦层面的AI标识立法尚停留在行政命令、提案与自愿承诺的形式,而CAITA则率先实现了在州层面的AI标识立法监管。
《标识法案》体现出美国联邦对于AIGC的强监管态度。然而,过于沉重的标识义务使得这一法案遭受较多反对声音——强制标识 AI 生成内容可能增加企业合规成本,尤其是对于中小企业和初创公司;并且《标识法案》所规定的标识技术(如数字水印)可能容易被篡改或移除,难以实现永久性标识。[21]
相较于《标识法案》,CAITA体现出了以下几点修改:
(1)监管范围:CAITA免去了小型AIGC服务商的标识义务,仅对100万访问量或用户量以上的大型AIGC服务商进行监管。
(2)主体范围:CAITA免去了文字生成型AIGC服务商的标识义务,仅对图像、视频与音频生成型AI服务商进行标识监管。
(3)标识义务强制性:CAITA减轻了AIGC服务商的显式标识义务,AI服务商仅需根据用户的选择来添加显式标识,而无需主动提供显式标识。
(4)法律责任:CAITA和《标识法案》都对违规行为处以民事罚款,CAITA将罚款的上限从10000美元降低到了5000美元。
由此可见,美国在AIGC服务商标识义务上尚未完全达成全国性的共识,主要体现在就标识义务主体范围、标识的强制性等问题,联邦与州政府之间的立场有所不同。在CAITA出台后,美国其他各州可能会效仿加州来通过立法实现AIGC标识监管。我们将持续关注美国在联邦与州层面的AIGC标识立法进展。
二、欧盟:强制的机械可读标识
2024年8月1日,备受关注的欧盟《人工智能法案》(EU AI Act)正式生效。《人工智能法案》第50条第2款为生成合成类音频、图像、视频或文本内容的AI系统(包括通用目的AI系统)提供商规定了普遍的标识义务,[22]要求服务商应确保AIGC以机器可读(Machine-Readable)格式标识,并可检测为人工生成或操纵(Artificially Generated or Manipulated)。此外,供应商应在技术可行的前提下保证这种标识的技术方案有效(Effective)、可互操作(Interoperable)以及稳健可靠(Robust and reliable)。[23]欧盟《人工智能法案》并没有进一步细化上述三种技术要求,而是在第133号注释(Recital 133)中列举推荐了符合上述三种要求的标识形式,包括水印(Watermark)、元数据标识(Metadata identifier)、指纹或其他适当的形式。[24]不同企业开发的水印或元数据标识系统往往存在技术隔离,但通过加入C2PA(Coalition for Content Provenance and Authenticity,内容来源和真实性联盟)等技术标准组织,[25]则有望实现技术方案的可互操作。[26]
以下为欧盟《人工智能法案》规定的AI标识义务具体内容:
表2 欧盟《人工智能法案》规定的AI标识义务
2024年9月25日,为了推动《人工智能法案》的生效和过渡,欧盟在前述基础上进一步推出《人工智能公约》(EU AI Pact),在首批签约的130余个AI企业中,过半数企业作出了有关AIGC透明度义务的额外承诺(Commitment),[29]即承诺清楚并可区分地标记(Clearly and distinguishably label)AIGC,以自愿的形式承担显式标识义务。[30]
就实施细则而言,欧盟《人工智能法案》规定欧盟人工智能办公室(AI Office)应当鼓励并促进起草欧盟层面的实施细则,以促进有效履行有关检测和标记AI生成或操纵内容的义务,[31]但目前相关文件尚未出台。我们将持续关注欧盟与AIGC服务商标识义务相关的行为守则与行业标准的制定情况。
三、中国:强制的元数据[32]隐式标识与用户可选的显式标识
(一)层层递进的AI标识义务
中国政府一直以来强调对AIGC的包容审慎和分类分级监管。[33]2022年以来,中国陆续出台专门针对生成式人工智能监管的法律法规,形成了由三份部门规章,一份强制性国家标准组成的AIGC服务商标识义务体系,包括:《互联网信息服务深度合成管理规定》[34](2023年1月10日生效,下文称“《深度合成管理规定》”)、《生成式人工智能服务管理暂行办法》[35](2023年8月15日生效,下文称“《生成式AI暂行办法》”)、《人工智能生成合成内容标识办法(征求意见稿)》[36](2024年9月14日发布,下文称“《标识办法(征求意见稿)》”),以及作为《标识办法(征求意见稿)》配套实施指南的《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》[37](2024年9月14日发布,下文称“《标识方法(征求意见稿)》”)。
根据中国的AI标识法规要求,一个AIGC服务商首先应对其提供的AIGC负有强制性元数据[38]隐式标识的义务,[39]这一隐性标识需满足《标识方法(征求意见稿)》所要求的特定字符形式。[40]其次,如果服务商提供的AIGC符合《深度合成管理办法》第17条所列举的5种容易引起混淆或误认的情形,则同时负有显式标识义务,这一义务可根据《标识办法(征求意见稿)》第9条,凭借用户的选择来排除,但服务商应在用户手册中进行约定并留存服务日志。[41]如果用户选择保留显式标识,服务商则有义务按照《标识办法(征求意见稿)》与《标识方法(征求意见稿)》所规定的标识形式在特定位置添加显式标识。具体规定请见下表3。
表3 中国的AIGC服务商标识义务体系
(二)标识形式的特别规定
(1)显式标识用户可选
《标识办法(征求意见稿)》不仅允许服务商选择显式标识的位置,甚至允许其基于用户选择排除显式标识。由于显式标识会给AIGC服务商带来很大的标注难度和成本,而且会降低生成物的美感、影响用户的分享欲,所以《标识办法(征求意见稿)》没有强制性规定某一种显式标识方法,而是为AIGC服务商提供了选择空间。《标识办法(征求意见稿)》为文本与音频类AIGC提供了在交互界面标识的备选项,[45]文本类AI服务商无需在生成的文本中添加标识性文字导致降低用户体验感,音频类AI服务商也无需在音频中插入标识性音频从而破坏生成物的整体听觉效果。目前中国的音频生成类AI平台如智谱清言采取在生成音频中插入提示音的标识方法。而大部分文本生成类AI服务平台如Kimi、Deepseek和通义千问均采用交互界面标识的方法。如下图所示,在Kimi与Deepseek网页版开启对话后,对话框的下端可见服务商的显式标识,提示用户对话内容由AI生成。
图1 Kimi和Deepseek的标识实践
(2)隐式标识形式标准化
《标识办法(征求意见稿)》将隐式标识与元数据绑定,强调隐式标识的标准化。[46]隐式标识的核心目的是为AIGC打上一个难以删除并且可被检测的标识,为了达到这一目的,需要一种通用的,机械可读的技术载体,而元数据就是目前的最佳选项。文件元数据[47]是按照特定编码格式嵌入到文件头部的描述性信息,无需图像识别或音视频识别技术辅助,直接可被计算机读取。其次,元数据易于统一标识形式。《标识方法(征求意见稿)》将元数据隐式标识的格式统一为特定字符形式,[48]使得后续开发的AIGC内容的识别技术具有通用性,也为AIGC服务商的合规带来便利。
四、结语
综上分析,美国加州、欧盟与中国的AI标识法规对比总结如下:
表4 美国加州、欧盟与中国的AI标识法规对比
由此可见,三个法域在AIGC服务商标识立法上的共识主要体现在标识类型与强制性要求上,而对义务主体、技术方案以及法律责任等细节规定则不尽相同。总体而言,三个法域的立法均体现了监管者既从安全性角度出发,要求AIGC进行隐式标识,又考虑到用途美观性,不对显式标识采取强制性要求。而相关差异则体现了三个法域的AI产业现状不同,以及监管者面对新业态、新模式的不同监管力度。AI领域技术日新月异,监管要求也在变动之中,我们将持续关注并更新上述三个法域的最新AI标识监管动态。
注释:
[1] 央视新闻:《“地震被压在废墟下的小男孩”居然是AI生成的》,参见:https://news.qq.com/rain/a/20250110A00BDP00, last visited on February 25, 2025.
[2] 美国兰德公司将“真相侵蚀”(Truth Decay)定义为“在公共生活中,事实和基于事实的分析所占比重越来越少的现象”,其可以表现为“公众对传统媒体和权威机构的信任度降低,导致对事实的接受度和依赖度减弱”,参见:https://www.rand.org/research/projects/truth-decay/about-truth-decay.html, last visited on February 25, 2025.
[3] Fan Li, Ya Yang,Impact of Artificial Intelligence–Generated Content Labels On Perceived Accuracy, Message Credibility, and Sharing Intentions for Misinformation: Web-Based, Randomized, Controlled Experiment, JMIR Formative Research, Volume 8, 2024, https://doi.org/10.2196/60024, last visited on February 25, 2025
[4] EU AI Act. Article 50 (4).
[5] 标识(Labeling)义务指对AIGC进行标识,从而使人能够识别其为AIGC,而披露(Disclosure)义务则是更广泛地向相关方提供关于人工智能使用、生成物的详细信息,其中包含标识义务。
[6] California legislative information: Senate Bill No. 942 California AI Transparency Act. 参见:https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB942&firstNav=tracking, last visited on February 25, 2025.
[7] Mayer Brown: New California Law Will Require AI Transparency and Disclosure Measures 参见:https://www.mayerbrown.com/en/insights/publications/2024/09/new-california-law-will-require-ai-transparency-and-disclosure-measures, last visited on February 25, 2025.
[8] California AI Transparency Act 22757.1. (b) “Covered provider” means a person that creates, codes, or otherwise produces a generative artificial intelligence system that has over 1,000,000 monthly visitors or users and is publicly accessible within the geographic boundaries of the state.
[9] California AI Transparency Act22757.2. (a).
[10] California AI Transparency Act 22757.3.(b).
[11] California AI Transparency Act 22757.3. (a).
[12] California AI Transparency Act 22757.4. (a) (1).
[13] Center for data innovation: California’s AI Transparency Law Is a Misstep Other States Should Avoid参见:https://datainnovation.org/2024/11/californias-ai-transparency-law-is-a-misstep-other-states-should-avoid/, last visited on February 25, 2025.
[14] 目前美国科罗拉多州(Colorado SB 24-205)、犹他州(Utah SB0149)和伊利诺伊州(Illinois HB5777)的三部人工智能透明度法案中,均未对人工智能服务商作出生成物标识的规定,而是重点关注AI系统的透明度问题。
[15] Google Synthid 参见:https://deepmind.google/technologies/synthid/, last visited on February 25, 2025.
[16] OpenAI has built a text watermarking method to detect ChatGPT-written content. Jowi Morales. https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-has-built-a-text-watermarking-method-to-detect-chatgpt-written-content-company-has-mulled-its-release-over-the-past-year, last visited on February 25, 2025.
[17] CITED: RE: SB 942 (Becker) California AI Transparency Act. – Request for Signatur参见:https://www.yesfairelections.org/content/pdf/endorsements/cited_sb942_support.pdf?nvep=&hmac=&emci=fd60a401-ad74-ef11-991a-6045bda8aae9&emdi=ea000000-0000-0000-0000-000000000001&ceid, last visited on February 25, 2025.
[18] US Congress: S.2691 - AI Labeling Act of 2023参见:https://www.congress.gov/bill/118th-congress/senate-bill/2691/text \, last visited on February 25, 2025.
[19] All Actions: S.2691 — 118th Congress (2023-2024). 参见:Actions - S.2691 - 118th Congress (2023-2024): AI Labeling Act of 2023 | Congress.gov | Library of Congress, last visited on February 25, 2025.
[20] ANSI: Leading AI Companies Sign U.S. Government Commitment on Safety, Security, and Trust in AI Development参见:https://www.ansi.org/standards-news/all-news/2023/07/7-21-23-leading-ai-companies-sign-us-government-commitment, last visited on February 25, 2025.
[21] Insideradio: Congress considers requirement that ai content be labeled参见:https://www.insideradio.com/free/congress-considers-requirement-that-ai-content-be-labeled/article_0d61d974-73cb-11ee-b0a0-5f286d4ebd75.html, last visited on February 25, 2025.
[22] EU AI Act. Chapter IV: Transparency Obligations for Providers and Deployers of Certain AI Systems. https://artificialintelligenceact.eu/article/50/, last visited on February 25, 2025.
[23] EU AI Act Article50.2.
[24] Recital 133 参见 :https://artificialintelligenceact.eu/recital/133/, last visited on February 25, 2025.
[25] About C2PA,参见: https://c2pa.org/, last visited on February 25, 2025.
[26] Gils, Thomas; 2024. Article Commentary on Article 50 AI Act - Transparency Obligations for Providers and Deployers of Certain AI Systems. The EU Artificial Intelligence (AI) Act: A Commentary; 2024; pp. 827 - 877 Publisher: Wolters Kluwer
[27] EU AI Act Article 50.2.
[28] EU AI Act. Article 99:4.
[29] European Commission: AI Pact参见:https://digital-strategy.ec.europa.eu/en/policies/ai-pact#ecl-inpage-Voluntary-Pledges, last visited on February 25, 2025.
[30] EU AI Office: AI Pact Commitments参见:AI_Office_AI_Pact_commitments_final_4_09_24_q82fUY4goCL4qmzH4NznRZ2blwk_107430.pdf, last visited on February 25, 2025.
[31] EU AI Act Article50.7.
[32] 《人工智能生成合成内容标识办法(征求意见稿)》第五条 第二款:文件元数据是指按照特定编码格式嵌入到文件头部的描述性信息,用于记录文件来源、属性、用途、版权等信息内容。
[33] 《生成式人工智能服务管理暂行办法》第三条:国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
[34] 《互联网信息服务深度合成管理规定》参见:https://www.gov.cn/zhengce/zhengceku/2022-12/12/content_5731431.htm, last visited on February 25, 2025.
[35] 《生成式人工智能服务管理暂行办法》参见:https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm, last visited on February 25, 2025.
[36] 《人工智能生成合成内容标识办法(征求意见稿)》参见:https://www.cac.gov.cn/2024-09/14/c_1728000676244628.htm, last visited on February 25, 2025.
[37] 《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》参见:https://www.tjcac.gov.cn/wxdt/qg/202409/W020240919623405453763.pdf, last visited on February 25, 2025.
[38] 《人工智能生成合成内容标识办法(征求意见稿)》第五条。
[39] 《人工智能生成合成内容标识办法(征求意见稿)》第五条 服务提供者应当按照《互联网信息服务深度合成管理规定》第十六条的规定,在生成合成内容的文件元数据中添加隐式标识,隐式标识包含生成合成内容属性信息、服务提供者名称或编码、内容编号等制作要素信息。
[40] 《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》附录E:b) 隐式标识扩展字段的值,应为符合以下格式的字符串:{"AIGC": {"Label": value1, "ContentProducer": value2, "ProduceID": value3, "ReservedCode1":value4, "ContentPropagator": value5, "PropagateID": value6,,"ReservedCode2": value7, "}}
[41] 《人工智能生成合成内容标识办法(征求意见稿)》第四条。
[42] 《生成式人工智能服务管理暂行办法》第二十一条。
[43] 基于《标识方法(征求意见稿)》C.1-C.4条总结而成
[44] 同样基于《标识方法(征求意见稿)》C.1-C.4条总结而成
[45] 《人工智能生成合成内容标识办法(征求意见稿)》第四条。
[46] 《人工智能生成合成内容标识办法(征求意见稿)》第五条。
[47] 《人工智能生成合成内容标识办法(征求意见稿)》第五条 文件元数据是指按照特定编码格式嵌入到文件头部的描述性信息,用于记录文件来源、属性、用途、版权等信息内容。
[48] 《网络安全技术 人工智能生成合成内容标识方法(征求意见稿)》 b) 隐式标识扩展字段的值,应为符合以下格式的字符串:{"AIGC": {"Label": value1, "ContentProducer": value2, "ProduceID": value3, "ReservedCode1":value4, "ContentPropagator": value5, "PropagateID": value6,,"ReservedCode2": value7, "}}
来源:金杜研究院,https://www.kwm.com/cn/zh/home.html
作者:宋海燕,金杜律师事务所知识产权部国际合伙人;业务领域:人工智能,跨国知识产权法及娱乐法,主要聚焦于传媒、娱乐、体育与高科技行业;联系方式:seagull.song@cn.kwm.com
特别声明:本篇文章的所有内容仅供参考与交流,不代表金杜律师事务所的法律意见以及对法律的解读。