本周末,欧盟就全球首个AI监管法案“AI Act”达成初步协议。根据彭博社获得的一份欧盟文件,通用人工智能系统的开发人员必须满足基本的透明度要求,除非这些系统是免费开源的。被认为会构成“系统性风险”的模型将受到额外规则的约束。欧盟将根据训练模型的计算能力来确定是否存在风险,并为模型设定阈值是每秒超过10万亿次运算。此外,欧盟执行机构还可根据数据集的规模、是否在欧盟拥有至少10000名注册商业用户、注册用户的最终数量等可能的指标来指定其他阈值。
在欧盟委员会制定出更协调且长期有效的控制措施期间,“能力更强”的模型应该签署行为准则。这些模型还必须满足如下要求:主动报告自身能耗情况,在内部或外部进行红队测试/对抗性测试,评估和减轻可能的系统性风险,并报告任何事件确保使用适当的网络安全控制措施报告用于微调模型的信息及其系统结构如果制定了更节能的标准,则开发过程中应当符合新的标准至于没有签署行为准则的模型,则必须向欧盟委员会证明它们确实会遵守《AI法案》。需要注意的是,对开源模型的豁免不适用于那些“被认为会带来系统性风险”的模型。
访谈
更多做行业赋能者 HID迎接数字化浪潮新机遇 破解新挑战
今年3月份,全球可信身份解决方案提供商HID发布了最新的《安防行业现状报告》(以下简称“报告”),该报告…
数字化浪潮下,安防厂商如何满足行业客户的定制化需求?
回顾近两年,受疫情因素影响,包括安防在内的诸多行业领域都遭受了来自市场 “不确定性”因素的冲击,市场…
博思高邓绍昌:乘产品创新及客户服务之舟,在市场变革中逆风飞扬
11月24日,由慧聪物联网、慧聪安防网、慧聪电子网主办的2022(第十九届)中国物联网产业大会暨品牌盛会,在深…