欧盟就《人工智能法案》达成共识:对基础模型引入更严格监管

2023-12-12  

经过为期三天的“马拉松式”会谈,欧盟理事会主席和欧洲议会谈判代表日前就人工智能(AI)协调规则提案(即所谓的《人工智能法案》)达成了临时协议。

临时协议的主要内容

  • 针对未来可能导致系统性风险的高影响力通用人工智能模型以及高风险人工智能系统的规则
  • 修订后的治理体系,在欧盟层面具有一定的执行权
  • 扩大禁止清单,但执法当局可以在公共场所使用远程生物识别,但须遵守保障措施
  • 通过高风险人工智能系统的部署者,有义务在人工智能系统投入使用之前进行基本权利影响评估,以便更好地保护权利。

对通用人工智能系统和基础模型引入更严格监管

考虑到人工智能系统可用于多种不同目的(通用人工智能)以及通用人工智能技术会被集成到其他高风险系统中的情况, 临时协议还涉及通用人工智能(GPAI)系统的部分。

对于基础模型,即能够胜任执行一系列独特任务的大型系统,如生成视频、文本、图像、横向语言转换、计算或生成计算机代码,也达成了具体规则。临时协议规定,基础模型在投放市场之前必须遵守特定的透明度义务。对“高冲击”基础模型引入了更严格的制度。这些使用大量数据训练的基础模型,具有高复杂性、能力和性能,并且潜藏巨大的传播系统性风险。

支持创新的措施

为了建立一个更利于创新的法律框架,与委员会的提案相比,临时协议关于对支持创新的措施的条款作了大幅修改。

值得注意的是,人工智能监管沙箱应该为创新人工智能系统的开发、测试和验证建立一个受控的环境,也应允许在现实世界条件下测试创新人工智能。此外,还增加了新的条款,允许在特定条件和保障措施下,在现实世界条件下测试人工智能系统。为了减轻小型公司的负担,临时协议列出了支持此类运营商的行动清单。

临时协议规定,《人工智能法》应在生效两年后适用,但具体条款有一些例外。在临时协议达成之后,未来数周欧盟层面还将继续推进技术层面的工作,以便最终确定新法规的细节。

IBM牵头成立人工智能联盟

对于欧盟内部就临时协议共识的达成,IBM 欧盟事务总监Jean-Marc Leclerc表示赞赏。Jean-Marc Leclerc表示,“我们长期以来一直敦促欧盟采取谨慎平衡的方法,重点监管人工智能的高风险应用,同时提高所有人工智能模型的透明度、可解释性和安全性。当立法者研究剩余的技术细节时,我们鼓励欧盟政策制定者继续关注风险和责任,而不是算法。

最近,IBM 宣布推出watsonx.governance,为组织提供管理风险、拥抱透明度以及预测遵守此类以人工智能为重点的监管所需的工具包。而前不久,IBM和Meta 联合全球50多个创始成员和合作者共同创立了人工智能联盟(thealliance.ai)。

文章来源于:国际电子商情    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。