关注我们.

人工智能

人工智能法案:理事会和议会就世界上首个人工智能规则达成协议

共享:

发布时间

on

我们使用您的注册以您同意的方式提供内容并增进我们对您的了解。 您可以随时取消订阅。

经过三天的“马拉松式”会谈,理事会主席和欧洲议会谈判代表就人工智能(AI)协调规则提案(即所谓的人工智能法案)达成了临时协议。 该法规草案旨在确保投放到欧洲市场并在欧盟使用的人工智能系统安全并尊重基本权利和欧盟价值观。 这一具有里程碑意义的提案还旨在刺激欧洲人工智能的投资和创新。

卡梅·阿蒂加斯 (Carme Artigas),西班牙数字化和人工智能大臣

这是历史性的成就,也是迈向未来的巨大里程碑! 今天的协议有效地解决了快速发展的技术环境中涉及我们社会和经济未来关键领域的全球挑战。 在这一努力中,我们成功地保持了极其微妙的平衡:在整个欧洲促进人工智能的创新和采用,同时充分尊重我们公民的基本权利。Carme Artigas,西班牙数字化和人工智能国务秘书

人工智能法案是 旗舰 立法举措有可能促进私人和公共行为者在欧盟单一市场上开发和采用安全、值得信赖的人工智能。 主要思想是根据人工智能对社会造成危害的能力来对其进行监管 “基于风险” 做法: 风险越高,规则越严格。 作为世界上第一个此类立法提案,它可以设定一个 全球标准 正如 GDPR 所做的那样,在其他司法管辖区进行人工智能监管,从而在世界舞台上推广欧洲的技术监管方法。

临时协议的主要内容

与委员会最初的提案相比,临时协议的主要新内容可概括如下:

  • 规则 高影响力的通用人工智能模型 未来可能引发系统性风险以及高风险 人工智能系统
  • 修订后的系统 治理 具有欧盟层面的一些执行权
  • 清单的扩展 禁令 但有可能使用 远程生物特征识别 由执法机关在公共场所执行,但须遵守保障措施
  • 通过高风险人工智能系统的部署者有义务进行更好的权利保护 基本权利影响评估 在将人工智能系统投入使用之前。

更具体地说,临时协议涵盖以下几个方面:

定义和范围

确保了 定义 人工智能系统的定义为区分人工智能与更简单的软件系统提供了足够明确的标准,妥协协议使定义与经合组织提出的方法保持一致。

临时协议还澄清,该法规不适用于欧盟法律范围之外的领域,并且在任何情况下都不应影响成员国的权限。 国家安全 或受托执行该领域任务的任何实体。 此外,人工智能法案不适用于专门用于 军事 or 防御 目的。 同样,该协议规定,该规定不适用于仅用于以下目的的人工智能系统: 研究与创新,或出于非专业原因使用人工智能的人。

广告

将人工智能系统归类为高风险和禁止的人工智能实践

妥协协议规定 水平保护层, 包括高风险分类,以确保不太可能造成严重侵犯基本权利或其他重大风险的人工智能系统不被捕获。 AI系统仅呈现 有限的风险 会受到非常强的光照 透明度义务,例如披露内容是人工智能生成的,以便用户可以就进一步使用做出明智的决定。

广泛的 高风险 人工智能系统将获得授权,但要遵守一系列要求和义务才能进入欧盟市场。 这些要求已由共同立法者明确和调整,以使其更 技术上可行减轻负担 利益相关者必须遵守,例如数据质量,或中小企业应起草的技术文件,以证明其高风险人工智能系统符合要求。

由于人工智能系统是通过复杂的价值链开发和分发的,因此妥协协议包括澄清人工智能系统的变化 职责分配各个演员的角色 在这些链条中,特别是人工智能系统的提供商和用户。 它还澄清了《人工智能法案》下的责任与其他立法(例如相关欧盟数据保护或部门立法)下已经存在的责任之间的关系。

对于人工智能的某些用途,风险被视为 不可接受 因此,这些系统将被欧盟禁止。 例如,临时协议禁止认知 行为操纵, 无目标的 报废 来自互联网或闭路电视录像的面部图像, 情绪识别 在工作场所和教育机构, 社会得分, 生物识别分类 推断敏感数据,例如性取向或宗教信仰,以及某些情况 预测性警务 对于个人。

执法例外情况

考虑到具体情况 执法机关 以及需要保持他们在重要工作中使用人工智能的能力,委员会就将人工智能系统用于执法目的的提案进行了几项修改。 须符合适当的 保障,这些变化旨在反映尊重与其活动相关的敏感操作数据的机密性的需要。 例如,引入了紧急程序,允许执法机构部署尚未通过审查的高风险人工智能工具。 合格评定 紧急情况下的程序。 然而,还引入了具体机制来确保 基本权利 将得到充分保护,防止人工智能系统的任何潜在滥用。

此外,关于实时的使用 远程生物特征识别 临时协议明确了此类使用对于执法目的绝对必要的目标,因此应特别允许执法当局使用此类系统。 妥协协议规定 额外保障 并将这些例外情况限制为某些犯罪受害者的案件,防止真正的、当前的或可预见的威胁,例如恐怖袭击,以及搜查涉嫌犯有最严重罪行的人。

通用人工智能系统和基础模型

添加了新的规定,以考虑人工智能系统可用于许多不同目的的情况(通用人工智能),通用人工智能技术随后被集成到另一个高风险系统中。 临时协议还解决了通用人工智能(GPAI)系统的具体情况。

还商定了具体规则 基础模型,能够胜任执行各种独特任务的大型系统,例如生成视频、文本、图像、横向语言对话、计算或生成计算机代码。 临时协议规定基础模型必须符合特定要求 透明度义务 在它们被投放市场之前。 出台了更严格的制度 '重大影响' 基础模型。 这些是用大量数据训练的基础模型,具有远高于平均水平的高级复杂性、功能和性能,可以沿着价值链传播系统性风险。

新的治理架构

遵循 GPAI 模型的新规则以及在欧盟层面执行这些规则的明显需要, 人工智能办公 委员会内部设立的任务是监督这些最先进的人工智能模型,促进标准和测试实践的制定,并在所有成员国执行共同规则。 A 独立专家科学小组 将为人工智能办公室提供关于 GPAI 模型的建议,包括开发用于评估基础模型能力的方法,就高影响力基础模型的指定和出现提供建议,并监测与基础模型相关的可能的材料安全风险。

人工智能板, 该委员会将由成员国代表组成,将继续作为委员会的协调平台和咨询机构,并将在法规的实施(包括设计基金会模型的实践守则)方面赋予成员国重要作用。 最后,一个 咨询论坛 将设立面向行业代表、中小企业、初创企业、民间社会和学术界等利益相关者的委员会,为人工智能委员会提供技术专业知识。

处罚

对违反人工智能法案的罚款按照违规公司上一财年全球年营业额的百分比或预定金额确定,以较高者为准。 对于违反被禁止的人工智能应用程序,罚款为 35 万欧元或 7%;对于违反人工智能法案义务,罚款为 15 万欧元或 3%;对于提供不正确信息,罚款 7,5 万欧元或 1,5%。 不过,临时协议规定 更比例的上限 关于对违反《人工智能法》规定的中小企业和初创企业实施行政罚款。

妥协协议还明确,自然人或法人可以向有关部门提出投诉。 市场监督管理局 关于不遵守《人工智能法》的行为,并可能期望此类投诉将按照该机构的专门程序进行处理。

透明度和基本权利的保护

临时协议规定 基本权利影响评估 在部署者将高风险人工智能系统投入市场之前。 临时协议还规定增加 透明度 关于使用高风险人工智能系统。 值得注意的是,委员会提案的一些条款已被修改,表明作为公共实体的高风险人工智能系统的某些用户也将有义务在 欧盟数据库 对于高风险的人工智能系统。 此外,新增加的条款强调了用户的义务 情绪识别系统 当自然人接触到此类系统时通知他们。

支持创新的措施

为了创建更加有利于创新的法律框架并促​​进循证监管学习,有关条款 支持创新的措施 与委员会的提案相比进行了实质性修改。

值得注意的是,人工智能已经明确 监管沙箱旨在为创新人工智能系统的开发、测试和验证建立一个受控环境,还应该允许在现实条件下测试创新人工智能系统。 此外,还增加了新的规定,允许 测试 的人工智能系统 现实世界的条件,在特定条件和保障措施下。 为了减轻小公司的行政负担,临时协议包括一系列支持此类运营商的行动,并规定了一些有限且明确规定的减损。

生效

临时协议规定人工智能法应适用 2年 生效后,但具体条款有一些例外。

接下来的步骤

在今天达成临时协议后,未来几周将继续在技术层面进行工作,以最终确定新法规的细节。 这项工作完成后,主席国将向成员国代表(Coreper)提交折衷文本以供批准。

整个文本需要得到两个机构的确认,并经过法律语言修订,然后才能由联合立法者正式通过。

背景资料

该委员会于 2021 年 XNUMX 月提出的提案是欧盟政策的关键要素,旨在促进尊重基本权利的安全合法人工智能单一市场的开发和采用。

该提案遵循基于风险的方法,为人工智能制定了统一的横向法律框架,旨在确保法律确定性。 该条例草案旨在促进人工智能的投资和创新,加强现有基本权利和安全法律的治理和有效执行,并促进人工智能应用单一市场的发展。 它与其他举措齐头并进,包括旨在加速欧洲人工智能投资的人工智能协调计划。 6 年 2022 月 2023 日,理事会就该文件的总体方法(谈判授权)达成了协议,并于 XNUMX 年 XNUMX 月中旬与欧洲议会进行了机构间会谈(“三部曲”)。

分享此文章:

EU Reporter 发表来自各种外部来源的文章,表达了广泛的观点。 这些文章中的立场不一定是欧盟记者的立场。

热销