该法案是全球首部全面监管人工智能的法规,标志着欧盟在规范快速发展的人工智能应用方面迈出了重要一步。
法案旨在通过风险导向的方法对人工智能系统进行分类和管理,确保其安全性和透明度,并保护基本权利和民主制度。根据这项法案,所有人工智能系统,包括聊天机器人,都必须清楚地告知用户他们正在与一个AI系统进行交互。
同时,AI技术供应商有责任确保由人工智能合成的音频、视频、文本和图像能够被识别为AI生成。法案还明确禁止使用那些可能明显威胁用户基本权利的人工智能系统。
此外,法案还规定了高风险人工智能系统的特别要求,包括在上市前进行严格评估和持续监测。
据悉,欧盟《人工智能法案》基于风险预防的理念,为人工智能制定了一套覆盖全过程的风险规制体系。该法案采用风险分级的管理措施,将人工智能系统的风险划分为不可接受的风险、高风险、有限风险和轻微风险四种类型,并针对不同类型施加了不同的监管措施。
《人工智能法案》定义了一个框架来理解人工智能相关的风险,并根据所获得的数据及利用该数据采取的决定或行动。法案对人工智能存在的风险进行了分类:
一是禁止不可接受的风险(例如社交评分系统和操纵性人工智能)。
二是大部分文本涉及受到监管的高风险人工智能系统。
三是较小的部分负责处理风险有限的人工智能系统,但透明度义务较轻:开发人员和部署人员必须确保最终用户意识到他们正在与人工智能(聊天机器人和深度伪造)进行交互。
四是最小的风险不受监管(包括目前在欧盟单一市场上提供的大多数人工智能应用程序,例如人工智能视频游戏和垃圾邮件过滤器;但该内容正在随着生成人工智能而改变)。
比如,高风险人工智能系统在投放市场之前将受到严格的义务约束,包括透明度要求、数据治理、准确性、鲁棒性和网络安全等方面的规定。例如,生成式基础模型如GPT必须有充分的保障措施以确保其符合欧盟法律,并且在文本是AI生成的情况下必须进行披露。
法案还明确禁止使用那些可能明显威胁用户基本权利的人工智能系统。这类风险的人工智能系统将被禁止使用。任何违反此规定的活动都将受到严厉的法律制裁。
值得注意的是,尽管某些条款将在两年内全面适用,但其中一些将更早实施。例如,学校和工作场所不得使用实时情绪识别系统,并且聊天机器人等人工智能系统必须明确告知用户他们在与机器互动。
欧盟作为全球首部全面监管人工智能的法律,其影响力不仅限于欧洲内部,还可能对全球范围内的AI企业产生重大影响。这包括谷歌、OpenAI等公司,它们需要适应新的合规要求和标准,从而推动全球人工智能产业向更高水平的规范化发展。
因此,欧盟《人工智能法案》的生效不仅为人工智能的发展提供了法律框架,也为其他国家和地区的监管提供了参考。