首页 > 安防资讯网 探讨欧盟就人工智能监管达成协议
探讨欧盟就人工智能监管达成协议
历时3天的“马拉松式”谈判圆满结束,理事会主席与谈判代表刚刚就人工智能协调规则达成协议,预计最终将成为《人工智能监管的人工智能法案》。该法规草案的重点是提供一个合规框架,优先考虑在欧盟部署安全和尊重人权的人工智能系统。这一人工智能法规超越了欧洲国家在人工智能领域投资和创新的灵感。
《人工智能法案》是一项具有里程碑意义的立法,它可以创造一个有利的环境,在这种环境中,人工智能的使用将成为一种更优秀的安全和信任的工具,确保整个欧盟的公共和私人机构利益相关者的参与。其主要思想是,根据人工智能对社会造成伤害的能力,遵循“基于风险”的方法来监管人工智能:风险的危险程度越高,需要做出的限制就越多。这第一部法律为其他司法管辖区的人工智能监管建立了一个全球先例。相比之下,GDPR以同样的方式已经在保护个人数据方面做到了这一点,因此在全球范围内推广了欧盟的技术监管方式。
临时协定的主要内容
与欧盟委员会的初步提案相比,人工智能监管临时协议的主要新内容可以总结如下:
对具有未来系统性风险的高影响通用人工智能模型和控制该系统的高风险人工智能系统进行分类。 在欧盟一级改进具有协调权力的治理制度或全面改革经济政策。 扩大了违禁物品清单,但警务人员可在公共场所使用远程生物鉴别识别;不过,这是在不受滥用的条件下进行的。 更好地执行权利,这是因为要求部署有潜在风险的系统的人工智能行为者在使用这些系统之前先了解这些系统的基本权利影响。
更具体地,临时协定包括以下方面:
定义和范围
根据选择协议,试图选择经合组织庇护所的人工智能系统的定义与建议的程序相对应。这样,人工智能系统的标准有助于更清楚地区分简单的软件系统。
此外,临时协议更详细地解释了该条例的规则不包括属于欧盟法律领域的部门,不能以任何方式削弱成员国在国家安全领域或在国家安全领域分担责任的各方的能力。不仅如此,《人工智能法案》也不会扩展到仅用于军事或国防目的的人工智能系统。同时,该条约还指出,人工智能系统不仅用于科学和研究目的,而且用于非科学和非创新原因,包括非人工智能技术人员或专家的情况下,法律应适用于人工智能系统。
将人工智能系统分类为高风险和被禁止的人工智能实践
它创建了一个横向安全屏障,其中包括1.1级"可能的严重/重大权利损害",以排除未预测会造成这种威胁的人工智能系统。那些对用户有轻微伤害风险的人工智能系统将具有最低的透明度要求。例如,其应该通知用户内容是人工智能生成的,这样就可以决定是否使用该内容或执行进一步的操作。
将批准在欧盟领土上运行的各种基于人工智能的系统。然而,必须满足进入欧盟市场的要求和责任。这些共同立法委员增加和修订了一些规定,使之在技术上更简单明了,减轻了持份者的负担,例如,关于数据质量的供应,以及中小企业需要编写的技术文件,以证明其人工智能系统已安全构建并符合现行规定。
由于人工智能系统是在要求苛刻的价值链环境中创建和提供的,因此折衷安排将要求除其他外,对企业的行为进行修订,以反映对该链中各种行为者(即该技术系统的提供商和用户)的责任/影响范围的澄清。它还阐明了《人工智能法案》中衍生的人工智能特定义务如何相互作用,并与其他法律中规定的义务发生冲突,如欧盟的数据立法和部门立法。
人工智能的应用将会因为高风险而被拒绝,这对于人工智能的某些用途是被禁止的。因此,这些设备将不会被引入欧盟。根据初步协议,禁止的行为包括行为控制的认知技术、从网络上无目的地收集面部图像等、机构和教育中的情感识别、社会评分、用于确定性取向或宗教信仰的生物识别方法,以及用于警务目的的一些个人家谱。
执法例外
考虑到执法组织的特殊性和其在履行职责时使用计算机的必要性,对委员会关于执法的规则AI的建议作出了若干修改,这是至关重要的。只要制定了谨慎的措施,这些变革就会转化为运营商保护信息隐私的必要性。这方面的一个例子是启动高风险人工智能实施的紧急程序,但不包括在紧急情况下进行符合性评估。除此之外,还制定了一项具体行动,为保障人权,防止滥用人工智能申请提供权限。
此外,临时协议的案文明确表达了在公共场所使用实时远程生物鉴别识别系统的原因,但仅出于执法原因,只有在例外情况下才允许当局这样做。折衷协定规定了额外的保障措施,并将这些例外情况限于杀害犯罪嫌疑人的案件,确保只有在真正威胁的情况下才进行搜查,以及在人们涉嫌犯下最严重罪行时才防止恐怖袭击和搜查。
通用人工智能系统和基础模型
对于人工智能系统用于多种目的的场景,即通用人工智能和独立系统,制定了新的规定。另一个高风险系统,即自行驾驶汽车,与通用人工智能集成。《过渡协定》还包括GPA(GPAI)。GPA监管是协议的核心部分。
基础模型被描述为能够在复杂活动中表现出能力的系统,如文本生成、视频分割、处理自然语言、渲染代码和许多更多的计算机任务,也已经得出结论。临时安排要求基本模型在上市前满足去污染要求。建立"高影响"基础模型所需的政策要严格得多。这些具有巨大规模和非常先进的复杂性、能力和性能的平均数据模型可以在企业的价值链中带来系统性风险;所有参与企业都可以分担这些风险。
新的治理架构
根据新的GPAI模式的限制措施及其在欧盟一级的标准化监测的必要性,委员会设立了一个独特的人工智能办公室,负责监督这些最先进的人工智能模式,促进建立规范和测试程序,并在所有成员国执行主要规则。一个独立的技术专家科学小组将就模型规模向GPAIAI办公室提供咨询意见,方法是制定评估基础模型和技术力量的方法,对准备上市的GPAI状态和基础模型进行评估,并可能监测与基础模型有关的材料的安全性。
为此目的,由成员国组成的人工智能委员会作为其成员,并作为委员会的协调平台和咨询机构,应在其领域内使成员国在实施条例方面发挥突出和关键的作用,将其作为基础模式的业务守则。最后但并非最不重要的是,将建立一个论坛,由行业参与者、中小型企业、初创企业、公民社会和大学代表个人利益相关者。这可以提供人工智能委员会可以使用的技术知识。
处罚
对违反《人工智能法》的企业进行对接和制裁,罚款金额最低为一定数额,最高可达上一财政年度全球年营业额的百分比。违反上述人工智能应用将被处以3500万欧元(7%)的罚款,违反《人工智能法》义务将被处以1500万欧元(3%)的罚款,提供误导性信息将被处以750万欧元(1.5%)的罚款。尽管如此,该临时协议包括特殊罚款,当中小企业和初创企业承诺遵守人工智能法案的规定时,这些罚款对其影响较小。
与《人工智能法》的简明协议规定,自然人或法人有权向相关市场监督实体提出正式投诉。此外,该机构在处理上述投诉时应遵循其特定和规定的程序。
透明度和保护基本权利
值得注意的是,临时协议要求人工智能系统部署人员在将高风险系统投放市场之前,对终端用户的保障措施进行权利影响评估。这项临时协议也为广泛使用复杂的人工智能和自动真相检测系统提供了一个良好的起点。其将使该系统的实施范围清晰。值得注意的是,拟议委员会的一些规定已经修改,参考了高风险人工智能系统的各种偶尔的政府用户,这些用户也在欧盟数据库中注册了高风险人工智能机器学习系统。除此之外,更新后的产品线还会向操作情绪识别系统的用户发送一条消息,告知其何时接触到该系统。
支持创新的措施
这一部分的规定受到了重大修改,鼓励创新,这是委员会提议建立一个更加科学的创新框架的一个重要方面,该框架不断适应,以确保在整个欧盟范围内建立可持续的监管环境。
应要求人工智能监管沙箱,旨在确保开发、测试和验证新人工智能系统的控制环境,也允许在真实情况下测试机构。此外,在人工智能系统在现实环境中进行测试的情况下,已经启用了新的限制,以便在特定条件下使用系统。此次临时协议是为了减轻中小企业的行政负担,制定了收入低的中小企业支援方案。在这种情况下,如果克减受到合法限制和严格具体,则允许克减。
生效日期
《人工智能管理临时协议》规定,除某些例外情况外,《人工智能法》的规定自生效之日起适用2年。
责任编辑:
文章来源://www.profoottalk.com/2024/0507/11489.shtml