1. 为什么我们需要规范人工智能的使用?
欧盟的人工智能法案是世界上第一个全面的人工智能法案。它旨在解决对健康、安全和基本权利方面的风险。该法案还保护了民主、法治和环境。
采用人工智能系统具有带来社会效益、经济增长、增强欧盟创新和全球竞争力的强大潜力。然而,在某些情况下,某些人工智能系统的具体特征可能会产生与用户安全相关的新风险,包括人身安全和基本权利。一些正在被广泛使用的强大的人工智能模型甚至可能构成系统性风险。
这导致了法律上的不确定性,以及由于缺乏信任,公共当局、企业和公民对人工智能技术的吸收可能会变慢。国家当局的不同监管反应可能会导致内部市场的分裂。
为了应对这些挑战,需要采取立法行动,以确保人工智能系统的内部市场运作良好,其利益和风险都得到了充分的解决。
2. 人工智能法案适用于谁?
只要人工智能系统进入欧盟市场,或其使用对欧盟境内的人员产生影响,该法律框架将适用于欧盟内外的公共和私人参与者
这些义务可能会影响到这两个提供者(例如CV筛选工具的开发者)和人工智能系统的部署人员(例如一家购买了这个筛选工具的银行)。该规定也有一定的豁免权。在人工智能系统投放市场之前进行的研究、开发和原型设计活动不受这些法规的约束。此外,专为军事、国防或国家安全目的而设计的人工智能系统也将被豁免,无论执行这些活动的实体类型如何。
3. 风险类别是什么?
《人工智能法案》基于对人工智能的前瞻性定义和基于风险的方法,在所有欧盟成员国中引入了一个统一的框架:
不可接受风险:一组非常有限的特别有害的人工智能使用违反了欧盟的价值观,因为它们侵犯了基本权利,因此将被禁止:
- 利用个人的脆弱性,操纵和使用潜意识技术;
- 为公共和私人目的而进行的社会评分;
- 仅基于定性人物的个人预测性警务工作;
- 利用互联网或闭路电视的非目标抓取,以建立或扩展数据库;
- 在工作场所和教育机构中的情绪识别,除非是出于医疗或安全原因(即监测飞行员的疲劳水平);
- 对自然人的生物计量分类,以推断或推断他们的种族、政治观点、工会成员、宗教或哲学信仰或性取向。在执法领域对数据集进行标签或过滤和数据分类仍然有可能;
- 执法部门在公共可访问的空间进行实时远程生物识别,但有少数的例外情况(见下文)。
欧盟委员会将在2025年2月2日这些禁令生效之前,就这些禁令发布指导意见。
高风险:提案中定义的有限数量的人工智能系统,可能对人们的安全或其基本权利(受欧盟基本权利宪章保护)产生不利影响,被认为是高风险的。该法案附有高风险人工智能系统的清单,可以进行审查,以与人工智能用例的演变相一致。
这些产品还包括部门工会立法所涵盖的产品的安全组件。当在该部门立法下接受第三方符合性评估时,他们将始终被认为是高风险的。
这种高风险的人工智能系统包括人工智能系统,例如,它可以评估某人是否能够接受某种医疗治疗,获得某种工作或贷款购买公寓。其他高风险的人工智能系统是指被警方用于对人们进行分析或评估其犯罪风险的系统(除非第5条禁止)。而高风险的也可能是操作机器人、无人机或医疗设备的人工智能系统。
具体的透明度风险:为了培养信任,必须确保人工智能使用的透明度。因此,《人工智能法案》对某些人工智能应用程序引入了具体的透明度要求,例如,在存在明显的操纵风险(如通过使用聊天机器人)或深度造假的地方。用户应该意识到他们正在与机器交互。
最小风险:大多数人工智能系统可以在现有立法的前提下开发和使用,而不需要额外的法律义务。这些系统的提供者可以自愿地选择应用值得信赖的人工智能的要求,并遵守自愿的行为准则。
此外,《人工智能法案》还考虑了通用人工智能模型可能产生的系统性风险,包括大型生成式人工智能模型。这些系统可以用于各种任务,并正在成为欧盟许多人工智能系统的基础。其中一些模型如果非常有能力或被广泛使用,可能会带来系统性风险。例如,强大的模型可能会导致严重的事故,或被误用于影响深远的网络攻击。如果一个模型在许多应用程序中传播了有害的偏见,那么许多人可能会受到影响。
4. 如何知道一个人工智能系统是否具有高风险?
该人工智能法案为将人工智能系统分类为高风险制定了一种可靠的方法。这旨在为企业和其他运营商提供法律确定性。
风险分类是基于人工智能系统的预期目的,符合现有的欧盟产品安全法规。这意味着,分类取决于人工智能系统所执行的功能,以及该系统所使用的具体目的和方式。
人工智能系统可以在两种情况下被归类为高风险系统:
- 如果人工智能系统作为安全组件嵌入现有产品法规(附件一)涵盖的产品中的,或构成此类产品。例如,这可能是基于AI的医疗软件。
- 如果人工智能系统打算用于高风险用例,请列于《人工智能法案》的附件三中。该清单包括来自教育、就业、执法或移民等领域的用例。
委员会正在编制高风险分类准则,该准则将在这些规则的申请日期之前公布。
5. 附件三中定义的高风险用例的示例是什么?
附件三包括8个领域,其中人工智能的使用可能特别敏感,并列出了每个领域的具体用例。如果一个人工智能系统打算用于这些用例之一,则将其归类为高风险系统。
例如:
- 在某些关键基础设施中用作安全部件的人工智能系统,例如在道路交通和供水、天然气、供暖和电力供应领域;
- 用于教育和职业培训的人工智能系统,例如,用于评估学习结果、指导学习过程和监控作弊行为;
- 用于就业和工人管理和获得自我就业的人工智能系统,例如,放置有针对性的工作广告,分析和过滤工作申请,以及评估候选人;
- 用于获取基本的私人和公共服务和福利(如医疗保健)、自然人的信誉评估以及与人寿和健康保险有关的风险评估和定价的人工智能系统;
- 用于执法、移民和边境控制领域的人工智能系统,只要尚未被禁止,以及在司法管理和民主进程;
- 人工智能系统用于生物识别、生物识别分类和情绪识别,但不被禁止。
6. 高风险人工智能系统的供应商的义务是什么?
在将高风险的人工智能系统投放欧盟市场或以其他方式投入服务之前,供应商必须对其进行合格评估。这将使他们能够证明他们的系统符合值得信赖的人工智能的强制性要求(例如,数据质量、文件编制和可追溯性、透明度、人工监督、准确性、网络安全和健壮性)。如果系统或其目的经过重大修改,则必须重复此评估。
作为部门工会立法所涵盖的产品安全组件的人工智能系统,在根据该部门立法进行第三方合格性评估时,将始终被视为高风险系统。此外,所有的生物识别系统,无论其应用程序如何,都将需要对第三方进行符合性评估。
高风险人工智能系统的提供者还必须实施质量和风险管理系统,以确保其符合新的要求,并将用户和受影响者的风险降至最低,即使产品投放市场。
由公共当局或代表他们行事的实体部署的高风险人工智能系统必须在欧盟公共数据库中注册,除非这些系统用于执法和迁移。后者必须在数据库的非公开部分注册。
为了确保人工智能系统在整个生命周期内得到遵守,市场监测当局将进行定期审计,并促进上市后监测,并允许供应商自愿报告他们注意到的任何严重事件或违反基本权利义务的行为。在特殊情况下,当局可对特定的高风险人工智能系统给予豁免。
在发生违规时,这些要求将允许国家当局访问所需的信息,以调查人工智能系统的使用是否符合法律。
7. 标准化在人工智能法案中的作用是什么?
根据《人工智能法案》,高风险人工智能系统将受到特定要求。欧洲的协调标准将在这些要求的实施中发挥关键作用。
2023年5月,欧盟委员会授权欧洲标准化组织CEN和欧洲标准化委员会为这些高风险要求制定标准。这一授权现在将被修改,以与人工智能法案的最终文本相一致。
欧洲标准化组织将不得不在2025年4月底之前制定和发布标准。欧盟委员会将评估并可能认可这些标准,这些标准将发表在欧盟官方期刊上。这些标准一旦公布,将赋予根据这些标准开发的人工智能系统一个“一致性推定”。
8. 通用的人工智能模型是如何被监管的?
通用人工智能模型,包括大型生成式人工智能模型,可以用于各种任务。单个模型可以集成到大量的人工智能系统中。
至关重要的是,集成通用人工智能模型的人工智能系统的供应商能够访问所有必要的信息,以确保系统安全并符合人工智能法案。
因此,人工智能法案要求这些模型的提供者向下游系统提供商披露某些信息。这种透明度使我们更好地理解这些模型。
模型提供商还需要制定适当的政策,以确保他们在培训其模型时尊重版权法。
此外,其中一些模型可能会构成系统性风险,因为它们非常有能力或被广泛使用。
目前,使用总计算能力超过10^25训练的通用人工智能模型被认为构成系统性风险。委员会可根据技术进步更新或补充这一门槛,也可根据进一步的标准(例如,用户数量或模型的自主程度)指定其他模型以构成系统性风险。
具有系统性风险的模型提供者有义务评估和减轻风险,报告严重事件,进行最先进的测试和模型评估,并确保其模型的网络安全。
供应商被邀请与人工智能办公室和其他利益相关者合作,制定一个实践守则,详细说明规则,从而确保其模型的安全和负责任的开发。本代码应代表通用人工智能模型提供者演示法规遵从性的中心工具。
9. 为什么10^25FLOPs是具有系统性风险的GPAI的适当阈值?
FLOP是模型能力的代理,确切的FLOP阈值可以由委员会向上或向下更新,例如,根据在客观测量模型能力方面取得的进展和给定性能水平所需的计算能力的发展。
超过这个阈值的模型的能力还没有得到充分的理解。它们可能会构成系统性风险,这就是为什么让它们的提供者承担额外的一套义务是合理的。
10. 关于人工智能法案中规定的人工智能输出的水印和标签的义务是什么?
《人工智能法案》为生成式人工智能生成的内容制定了透明度规则,以解决被操纵、欺骗和错误信息的风险。
它要求生成式人工智能系统的供应商以机器可读的格式标记人工智能输出,并确保它们是人工生成或操纵的。技术解决方案必须是有效的,互操作的、健壮的和可靠在技术上是可行的,考虑到各种类型的内容的特殊性和限制,实现的成本和公认的技术,可能反映在相关的技术标准。
此外,生成或操纵图像、音频或视频内容的生成式人工智能系统的部署人员必须明显地披露这些内容是人工生成或操纵的。一个人工智能系统的部署人员,还必须披露该文本是人为生成或操纵的。如果人工智能生成的内容经过了人工审查或编辑控制的过程,以及自然人或法人对内容的出版负有编辑责任,则此责任不适用。
人工智能办公室将发布指导方针,为提供者和部署者提供关于第50条中义务的进一步指导,该义务将在《人工智能法案》生效两年后(2026年8月2日)成为适用的义务。
人工智能办公室还将鼓励和促进在联盟一级制定业务守则,以简化有关检测和标记人工产生或操纵内容的义务的有效执行。
11. 人工智能法案是适合未来的吗?
《人工智能法案》制定了一个法律框架,响应新的发展,易于快速适应,并允许频繁进行评估。
《人工智能法案》规定了以结果为导向的要求和义务,但将具体的技术解决方案和操作性留给了行业驱动的标准和实践规范,这些标准和实践规范可以灵活地适应不同的用例,并实现新的技术解决方案。
此外,立法本身可以通过授权和实施法案进行修订,例如审查附件三中的高风险用例清单。
最后,将经常对人工智能法案的某些部分进行评估,并最终对整个法规进行评估,以确保确定任何需要修订和修改的地方。
12. 人工智能法案是如何规范生物特征识别?
禁止在公共空间使用实时远程生物识别(即使用闭路电视进行面部识别)。会员国可以通过法律引入例外情况,允许在下列情况下使用实时远程生物识别:
- 执法活动涉及16项具体的非常严重的罪行;
- 有针对性地寻找特定的受害者、绑架、贩运和性剥削人类和失踪者;
- 防止对人员生命或人身安全的威胁,或对目前或可预见的恐怖袭击威胁作出反应。
任何例外用途均须经其决定具有约束力的司法或独立行政当局的事先授权。如紧急,可在24小时内批准;如果授权被拒绝,必须删除所有数据和输出。
在此之前,需要事先进行基本权利影响评估,并应通知相关的市场监督当局和数据保护当局。在紧急情况下,系统可以开始使用。
使用人工智能系统的帖子偏僻的计量生物学被调查人员的身份(识别以前收集的材料中的人员)需要事先得到司法当局或独立行政当局的授权,并通知相关数据保护和市场监督当局。
13. 为什么远程生物识别需要特殊的规则?
生物特征识别可以采取不同的形式。生物识别认证和验证,即解锁智能手机或在边境口岸进行验证/认证,以核对个人的旅行证件(一对一匹配),仍然不受监管,因为它们不会对基本权利构成重大风险。
相比之下,生物特征识别也可以远程使用,例如用来识别人群中的人,这可能会显著影响公共空间的隐私。
面部识别系统的准确性会受到多种因素的显著影响,如相机质量、光线、距离、数据库、算法,以及受试者的种族、年龄或性别。这同样适用于步态和语音识别以及其他生物识别系统。高度先进的系统正在不断地降低其错误的接受率。
虽然99%的准确率一般看起来很不错,但当结果可能导致对无辜者的怀疑时,这是相当危险的。即使是0.1%的错误率,如果适用于大量人群,也会产生重大影响,例如在火车站。
14. 这些规则是如何保护基本权利?
在欧盟和成员国层面,对基本权利和非歧视已经得到了强有力的保护,但某些人工智能应用程序(“黑匣子”)的复杂性和不透明性可能会带来问题。
以人为中心的人工智能方法意味着确保人工智能应用符合基本权利立法。通过将问责制和透明度要求整合到高风险人工智能系统的开发中,并提高执行能力,我们可以确保这些系统从一开始就考虑到法律合规性。在发生违规行为时,这些要求将允许各国当局获得所需的信息,以调查人工智能的使用是否符合欧盟法律。
此外,《人工智能法案》要求高风险人工智能系统的某些部署人员进行基本权利影响评估。
15. 什么是基本的权利影响评估?谁必须进行这样的评估,什么时候进行?
高风险人工智能系统的提供者需要进行风险评估,并以使对健康、安全和基本权利的风险最小化的方式设计该系统。
然而,只有在了解使用高风险人工智能系统的背景下,才能充分识别出对基本权利构成的某些风险。当高风险人工智能系统用于可能存在功率不对称的特别敏感领域时,有必要对这些风险进行额外考虑。
因此,受公法管辖的机构或提供公共服务的私人经营者,以及提供高风险人工智能系统进行信用价值评估或价格和风险评估的运营商,应对对基本权利的影响进行评估,并将结果通知国家当局。
在实践中,许多部署人员还将不得不进行数据保护的影响评估。为避免在这种情况下出现实质性的重叠,基本权利影响评估应与数据保护影响评估同时进行。
16. 这项规定如何解决人工智能中的种族和性别偏见?
必须强调的是,人工智能系统不会创造或复制偏见。相反,如果适当地设计和使用,人工智能系统可以有助于减少偏见和现有的结构性歧视,从而导致更公平和非歧视性的决定(例如在招聘方面)。
对所有高风险人工智能系统的新强制性要求将达到这一目的。人工智能系统必须在技术上健壮,以确保它们符合目的,并且不会产生有偏见的结果,如假阳性或阴性,从而不成比例地影响边缘化群体,包括那些基于种族或民族出身、性别、年龄和其他受保护特征的群体。
高风险系统还需要使用足够具有代表性的数据集进行训练和测试,以最大限度地减少嵌入在模型中的不公平偏差的风险,并确保这些风险可以通过适当的偏差检测、校正和其他缓解措施来解决。
它们还必须是可追踪的和可审计的,以确保保存适当的文件,包括用于训练算法的数据,这将是事后调查的关键。
在合规系统上市前后,必须确保这些系统得到定期监控,并及时解决潜在风险。
17. 人工智能法案何时会完全适用?
该人工智能法案将于2026年8月2日生效两年后适用,但以下具体条款除外:
- 与人工智能素养相关的禁令、定义和规定将于2025年2月2日生效6个月后适用;
- 关于治理规则和通用人工智能义务的规则于2025年8月2日生效12个月后适用;
- 高风险人工智能系统见附件二(工会协调立法清单),被列为高风险的义务在2027年8月2日生效36个月后适用。
18. 人工智能法案将如何被执行?
《人工智能法案》建立了一个两层治理体系,其中国家当局负责监督和执行人工智能系统的规则,而欧盟层面负责管理通用人工智能模型。
为了确保欧盟范围内的一致性和合作,将成立欧洲人工智能委员会(人工智能委员会),由来自成员国的代表组成,并为国家监管机构和其他主管当局提供专门的子小组。
人工智能办公室,该委员会的实施机构,将为人工智能委员会提供战略指导。
此外,《人工智能法》还设立了两个咨询机构来提供专家意见:科学小组和咨询论坛。这些机构将提供来自利益攸关方和跨学科科学界的宝贵见解,为决策提供信息,并确保人工智能发展的平衡方法。
19. 为什么需要欧洲人工智能委员会,它会怎么做?
欧洲人工智能委员会由成员国的高级代表和欧洲数据保护主管组成。作为关键顾问,人工智能委员会就与人工智能政策相关的所有事项提供指导,特别是人工智能监管、创新和卓越政策以及人工智能方面的国际合作。
人工智能委员会在确保人工智能法案的顺利、有效和协调的实施方面发挥着关键作用。该委员会将作为人工智能监管机构,即人工智能办公室、国家当局和EPDS,可以协调人工智能法案的一致应用的论坛。
20. 对侵权行为的处罚是什么?
成员国将不得不对违反人工智能系统规则的行为制定有效、适当的和劝阻性的惩罚。
该条例规定了需要考虑的阈值:
- 因违反被禁止的行为或不符合对数据的要求,在上一财政年度内高达3500万美元或占全球年度营业额总额(以较高者为准)的7%;
- 因不遵守本条例的任何其他要求或义务,高达上一财政年度的1500万或全球年营业额的3%;
- 因向通知机构和国家主管当局提供不正确、不完整或误导性的信息,而达到上一财政年度全球年营业额总额的1.5%;
- 对于每一类侵权,中小企业的门槛在两个金额中较低,其他公司的门槛较高。
欧盟委员会还可以通过罚款的方式来执行对通用人工智能模型提供者的规则,并考虑到以下门槛:
- 由于不遵守委员会根据本条例要求的任何义务或措施,金额高达1500万美元或上一财政年度全球总年营业额的3%。
- 预计欧盟的科研机构、服务机构或团体将以身作则,因此它们亦将受到规则的约束及潜在的处罚。欧洲数据保护主管将有权在不合规对他们处以罚款
21. 通用人工智能操作守则将如何编写?
第一个代码的起草遵循了一个包容性和透明的过程。实践守则将建立促进迭代起草过程,包括所有感兴趣和合格的通用人工智能模型提供者,下游提供商通用人工智能模型集成到人工智能系统,其他行业组织,其他利益相关者组织如公民社会或版权组织,以及学术界和其他独立专家。
人工智能办公室已经呼吁表示有兴趣参与第一个业务守则的起草。与呼吁表达兴趣的同时,启动了多利益相关者咨询,以收集所有感相关利益相关者对第一个业务守则的意见和输入。答案和提交将构成业务守则第一次起草迭代的基础。因此,从一开始,该代码就具有广泛的观点和专业知识。
全体会议将由四个工作组组成,以便就与通用人工智能模型和通用人工智能模型提供者的详细义务相关的具体主题进行集中讨论。全体会议的与会者可以自由选择一个或多个他们希望参与的工作组。会议只在网上进行。
人工智能办公室将为从感兴趣的独立专家中挑选出来的全体会议的四个工作组分别任命主席和副主席。主席将综合全体会议与会者的意见和意见,反复起草第一个业务守则。
作为守则的主要收件人,通用人工智能模型的提供者将在参加全体会议外,被邀请参加专门的研讨会,为每一轮迭代起草工作作出贡献。
9个月后,第一个实务守则的最终版本将在预计将于4月举行的闭幕全体会议上提出,并公布。闭幕的全体会议为通用人工智能模型提供者提供了机会来表达他们是否会设想使用代码。
22. 如果获得批准,通用人工智能模型提供商的业务守则如何作为合规的中心工具?
在业务守则起草过程结束时,人工智能办公室和人工智能委员会将评估业务守则的充分性,并将公布其评估结果。在进行评估之后,委员会可以决定批准一项业务守则,并通过执行行动的方式使其在联盟内具有普遍效力。如果在该法规适用时,AI办公室认为该业务守则不够充分,则欧盟委员会可为相关义务的执行提供共同规则。
因此,通用人工智能模型的提供者可以依靠《业务守则来证明其遵守了《人工智能法案》中规定的义务。
根据人工智能法案,实践守则应包括目标、措施以及适当的关键绩效指标(kpi)。
遵守守则的提供者应定期向人工智能办公室报告所采取措施的实施情况及其结果,包括酌情根据关键绩效指标进行衡量。
这有助于人工智能办公室的执行,该办公室是基于人工智能法案赋予委员会的权力。这包括对通用人工智能模型进行评估的能力,向模型提供者索取信息和措施,并实施制裁。
人工智能办公室将酌情鼓励和促进对守则的审查和调整,以反映技术和最先进技术方面的进步。
一旦统一标准发布并评估为适合涵盖人工智能办公室的相关义务,符合欧洲统一标准应给予供应商符合标准的推定。
此外,如果没有实践守则或协调标准,或者他们选择不依赖这些标准,通用人工智能模型的提供者应该能够使用其他适当的手段,证明符合这些标准。
23. 《人工智能法案》中是否包含了有关环境保护和可持续性的规定?
人工智能提案的目标是解决对安全和基本权利的风险,包括获得高层环境保护的基本权利。环境也是明确提到的和受保护的法律利益之一。
欧盟委员会要求要求欧洲标准化组织生产标准化交付报告和文档过程来提高人工智能系统的资源性能,如减少能源和其他资源消耗的高风险人工智能系统在其生命周期中,和节能开发通用人工智能模型。
此外,委员会两年后应用日期的监管,每四年之后,要求提交一份报告的审查进展发展标准化的节能发展通用模型和评估需要进一步措施或行动,包括有约束力的措施或行动。
此外,通用人工智能模型的供应商使用大量数据,接受培训,因此容易出现高能源消耗,被要求披露能源消耗。对于具有系统性风险的通用人工智能模型,还需要进一步评估能源效率。
委员会有权为这些披露义务制定适当的和具有可比性的衡量方法。
24. 新规则如何支持创新?
该监管框架可以通过两种方式增强对人工智能的吸收。一方面,增加用户的信任度将增加公司和公共主管部门对人工智能的需求。另一方面,通过增加法律的确定性和协调规则,人工智能提供商将进入更大的市场,提供用户和消费者欣赏和购买的产品。规则将只适用于严格需要的地方,并以最小化经济运营商负担的方式,治理结构宽松。
《人工智能法案》进一步支持创建监管沙箱和真实世界的测试,这为在有限的时间内测试创新技术提供了一个受控的环境,从而促进企业、中小企业和初创企业遵守《人工智能法案》的创新。这些连同其他措施如人工智能的额外网络卓越中心和公私合作人工智能,数据和机器人,和访问数字创新中心和测试和实验设施将有助于建立正确的框架条件为公司开发和部署人工智能。
高风险人工智能系统的实际测试最多可以进行6个月(也可以再延长6个月)。在测试之前,需要起草计划并提交给市场监督机构,市场监督机构必须批准计划和具体的测试条件,如果在30天内没有答复,则默认默许。测试可能会受到当局未经通知的检查。
现实世界的测试只能在特定的保障措施下进行,例如。真实世界测试的系统用户必须提供知情同意,测试不得对他们有任何负面影响,结果需要可逆或可忽视,他们的数据需要在测试结束后删除。对弱势群体应给予特别保护。由于他们的年龄,身体或精神残疾。
25. 人工智能协议在人工智能法案的实施中扮演了什么角色?
由Breton专员于2023年5月发起,旨在加强人工智能办公室和组织之间的参与(第I支柱)之间的参与,并鼓励行业自愿承诺在法律截止日期(第II支柱)之前开始实施人工智能法案的要求。
特别是,在支柱I下,参与者将有助于建立一个协作社区,分享他们的经验和知识。这包括由人工智能办公室组织的研讨会,让参与者更好地了解人工智能法案、他们的责任以及如何为其实施做好准备。反过来,人工智能办公室也可以收集到对参与者所面临的最佳实践和挑战的见解。
根据第II支柱,我们鼓励各组织通过自愿承诺,主动披露他们正在实施的程序和实践,以预期遵守情况。承诺旨在作为“参与声明”,并将包含行动(计划中或正在进行中的行动),以满足人工智能法案的一些要求。
人工智能法案的大多数规则(例如,对高风险人工智能系统的一些要求)将在过渡时期结束时适用。从生效到适用日期之间的时间)。
在这种情况下,在人工智能协议的框架内,人工智能办公室呼吁所有组织积极预测和实施《人工智能法案》的一些关键条款,目的是尽快减少对健康、安全和基本权利的风险。
超过700个组织已经表示有兴趣加入人工智能协议倡议,这是在2023年11月发起的一次电话会议之后。5月6日在网上举行了第一次信息会议,有300人参加。自愿承诺的正式签署计划于2024年秋季签署。在9月的第一周,将会有一个关于人工智能协议的研讨会。
26. 欧盟的方法的国际层面是什么?
人工智能具有超越边界的后果和挑战;因此,国际合作很重要。根据人工智能办公室和人工智能协调计划,人工智能办公室负责欧盟在人工智能领域的国际参与。欧盟寻求与国际伙伴合作,按照基于规则的多边体系和所维护的价值观,促进人工智能的负责任管理和良好治理。
欧盟通过双边和多边的方式来促进值得信赖的、以人为中心的和合乎道德的人工智能。因此,欧盟参与了讨论人工智能的多边论坛——特别是七国集团、20国集团、经合组织、欧洲理事会、人工智能全球伙伴关系和联合国——欧盟与欧盟有着密切的双边关系。加拿大、美国、印度、日本、韩国、新加坡以及拉丁美洲和加勒比地区。
来源:上海公平交易