首页>产业政策>其他国家/地区>正文

欧盟通过了全球第一部全面的《人工智能法案》

2024-09-19 《欧洲政策洞察》2024年第9期

2024313日,欧洲议会以523票赞成、46票反对、49票弃权的投票结果批准了《人工智能法案》。该法案被称为全球首个关于人工智能的综合法律框架,旨在通过确保人工智能系统尊重基本权利、安全和道德原则,并解决非常强大和有影响力的人工智能模型的风险,在欧洲及其他地区培育值得信赖的人工智能。

欧盟始终期待打造可信任的人工智能生态环境,为实现这一愿景,20214月,欧盟委员会首次发布《人工智能法案》提案,基于人工智能系统的应用场景等因素,将人工智能系统划分为不可接受的风险、高风险、有限风险和极低风险四类,并对每类风险的人工智能系统提出差异化的监管要求。

2022126日,欧盟理事会通过了关于《人工智能法案》的共同立场。2023614日,欧洲议会对《人工智能法案》草案进行表决,并以499票赞成、28票反对和93票弃权的压倒性结果通过了其妥协立场。2023129日,欧盟成员国、欧盟理事会及欧洲议会达成有关《人工智能法案》的临时协议。

一、法案框架

法案共计12章、82条,包括以下八个方面的内容:(1)人工智能系统(AI System)在欧盟市场上的投放、服务和使用的统一规则(第1章);(2)禁止某些人工智能行为(第2章);(3)对高风险人工智能系统的具体要求以及此类系统运营商的义务(第3章);(4)某些人工智能系统的透明度义务(第4章);(5)支持创新的措施,包括鼓励国家主管部门建立监管沙盒,特别关注包括初创企业在内的中小企业(第5章);(6)各成员国的治理体系以及构建相关高风险人工智能系统数据库(第6~7章);(7)通用人工智能模型投放市场后监管、信息共享等方面的统一规则(第8章);(8AI提供商行为准则(第9章)。此外,欧盟专门列出了通用人工智能(GPAI)的相关规则(第8A章)。

以下将针对法案的适用范围、人工智能系统风险分级管理、通用人工智能模型管理、执法与处罚、法案的生效与实施5项重要内容进行详细阐述。

二、适用范围

《人工智能法案》第1章第2条规定,无论是欧盟境内还是欧盟境外的实体,只要其在欧盟境内将人工智能系统或通用人工智能模型投入市场或投入使用,均将受到《人工智能法案》的规制。具体而言,根据《人工智能法案》的相关规定,除了人工智能系统提供者,以下主体也将受到该法案的监管:

Ø  部署者:部署者指经授权使用人工智能系统的公共机构、法人和自然人(自然人在非职业活动中使用人工智能系统除外),包含在欧盟内设立场所或位于欧盟的人工智能系统部署者,以及其人工智能系统产生的产出将用于欧盟的部署者;

Ø  进口者:将带有欧盟境外自然人或法人的名称、商标的人工智能系统投放欧盟市场、且位于或设立于欧盟的法人、自然人;

Ø  分销者:除人工智能系统提供者、进口者以外,在欧盟市场上提供人工智能系统的主体;

Ø  产品制造商:以自己的名称或商标将人工智能系统与其产品一同投入欧盟市场或投入使用的产品制造者。

此外,法案适用范围还包括未在联盟内设立的提供商的授权代表以及位于欧盟境内的受影响人员。

三、确立风险等级,并为相关风险等级设立监管规则

《人工智能法案》将人工智能系统的风险等级划分为不可接受的风险、高风险、有限风险和轻微风险四类,并对每类人工智能系统施以不同的监管要求。法案第2~4章对相关风险的范围、义务等内容进行了规定。

1.禁止的人工智能行为

根据《人工智能法案》第2章,欧盟禁止所有被认为对人们的安全、生计和权利构成明显威胁的人工智能系统,从政府的社会评分到使用语音辅助鼓励危险行为的玩具,具体如下:

Ø  AI使用潜意识、操纵或欺骗手段来扭曲行为并损害明智的决策,从而造成重大伤害。

Ø  AI利用与年龄、残疾或社会经济环境相关的脆弱性来扭曲行为,造成重大伤害。

Ø  AI利用生物识别分类系统推断敏感属性(种族、政治观点、工会会员资格、宗教或哲学信仰、性生活或性取向),但合法获取的生物识别数据集的标签或过滤或执法部门对生物识别数据进行分类时除外。

Ø  AI进行社会评分,即根据社会行为或个人特征对个人或群体进行评估或分类,从而对这些人造成有害或不利的待遇。

Ø  AI仅根据分析或人格特征来评估个人实施刑事犯罪的风险,除非用于增强基于与犯罪活动直接相关的客观、可验证事实的人类评估。

Ø  AI通过从互联网或闭路电视录像中无目的地抓取面部图像来编译面部识别数据库。

Ø  AI推断工作场所或教育机构中的情绪,除非出于医疗或安全原因。

Ø  AI在执法公共场所进行“实时”远程生物识别(RBI),但以下情况例外:寻找失踪人员、绑架受害者以及遭受人口贩运或性剥削的人;防止重大和迫在眉睫的生命威胁或可预见的恐怖袭击;或者识别严重犯罪(例如谋杀、强奸、武装抢劫、麻醉品和非法武器贩运、有组织犯罪和环境犯罪等)的嫌疑人。

2.高风险人工智能系统

法案第3章对高风险人工智能分类、要求、义务、标准等方面进行了规定。根据法案第6条,高风险人工智能系统是:附件2中欧盟法律涵盖的安全组件或产品,或者附件3中的用例,其中附件3用例如下:

Ø  生物识别技术:远程生物识别系统(不包括确认某人身份的生物识别验证)、用于推断敏感或受保护的属性或特征的生物识别分类系统、情绪识别系统。

Ø  关键基础设施:关键数字基础设施、道路交通以及水、燃气、供热和电力供应的管理和运营中的安全组件。

Ø  教育和职业培训:决定各级教育和职业培训机构的准入、录取或分配的人工智能系统;评估学习成果,包括用于指导学生学习过程的成果的人工智能系统;评估个人适当教育水平的人工智能系统;监控和检测考试期间学生未尽行为的人工智能系统。

Ø  就业、工人管理和自营职业:用于招聘或选拔的人工智能系统(特别是有针对性的投放招聘广告、分析和过滤申请以及评估候选人);用于晋升和终止合同,根据人格特质或特征和行为分配任务,以及监控和评估绩效的人工智能系统。

Ø  获得和享受基本公共和私人服务:公共当局使用人工智能系统评估福利和服务的资格,包括其分配、减少、撤销或恢复;评估信用度,但检测金融欺诈时除外;对紧急呼叫进行评估和分类,包括对警察、消防员、医疗援助和紧急患者分诊服务进行优先调度;对健康和人寿保险的风险评估和定价。

Ø  执法部门:人工智能系统用于评估个人成为犯罪受害者的风险;用于测谎仪或类似工具;用于在刑事调查或起诉期间评估证据的可靠性;用于评估个人犯罪或再次犯罪的风险不仅仅基于分析或评估人格特征或过去的犯罪行为;用于在犯罪侦查、调查或起诉期间进行犯罪分析。

Ø  移民、庇护和边境管制管理:人工智能系统用于测谎仪;对非正常移徙或健康风险的评估;用于审查庇护、签证和居留许可申请以及与资格相关的投诉;用于检测、识别或识别个人(旅行证件除外)。

Ø  司法和民主程序:人工智能系统用于研究和解释事实并将法律应用于具体事实或用于替代性争议解决;影响选举和公投结果或投票行为,不包括不直接与人们互动的产出,例如用于组织、优化和构建政治运动的工具。

根据法案第38~25条,高风险人工智能提供商必须:

Ø  建立贯穿高风险人工智能系统全生命周期的风险管理体系;

Ø  进行数据治理,确保训练、验证和测试数据集具有相关性、具有足够的代表性,并尽可能没有错误并根据预期目的完成。

Ø  起草技术文件来证明合规性,并向当局提供评估合规性的信息。

Ø  设计用于记录保存的高风险人工智能系统,使其能够自动记录与识别国家级风险和整个系统生命周期中的重大修改相关的事件。

Ø  向下游部署者提供使用说明以确保后者合规。

Ø  设计的高风险人工智能系统须允许部署人员实施人工监督。

Ø  设计的高风险人工智能系统须达到适当水平的准确性、稳健性和网络安全性。

Ø  建立质量管理体系以确保合规。

3.有限风险人工智能

有限风险是指与人工智能使用缺乏透明度相关的风险。《人工智能法案》第4章引入了具体的透明度义务,以确保人类在必要时了解情况,从而培养信任。根据规定,通用人工智能 (GPAI) 系统及其所基于的 GPAI 模型必须满足某些透明度要求,包括遵守欧盟版权法和发布用于培训的内容的详细摘要。可能带来系统性风险的更强大的GPAI模型将面临额外的要求,包括执行模型评估、评估和减轻系统性风险以及报告事件。此外,人造或操纵的图像、音频或视频内容(深度伪造品)需要明确标记。

4.风险极小或无风险人工智能

《人工智能法案》允许免费使用风险最小的人工智能,且不受监管,包括人工智能视频游戏或垃圾邮件过滤器等应用程序。

三、确立人工智能监管沙盒制度,激励人工智能创新,保护中小企业发展

《人工智能法案》第5章第53条规定,欧盟各成员国应至少建立一个国家级别的人工智能监管沙盒,使得潜在的高风险人工智能系统提供者可以在可控的环境内进行研发、培训和测试,接受相关主管机关提供的指导与便利。企业可申请参与人工智能监管沙盒,且主管机关设置的申请、选拔流程应当便于小微企业参与;如企业是小微企业,还可免费进入监管沙盒。

此外,为了保护中小企业的利益,《人工智能法案》第5章第55条还规定了针对中小企业的保护措施。例如,在合适的情形下,当地主管机关还应针对小微企业开展有关《人工智能法案》的培训,提高相关企业对人工智能监管要求的认识,并促进小微企业参与人工智能系统相关标准化规则的制定。

四、通用人工智能(GPAI)的相关规则

根据法案第52a条,GPAI模型是指一种人工智能模型,包括使用大规模自我监督进行大量数据训练时,显示出显著的通用性,并且无论模型以何种方式投放市场,都能够胜任执行各种不同的任务并且可以集成到各种下游系统或应用程序中,不包括在市场上发布之前用于研究、开发和原型设计活动的人工智能模型。GPAI系统是指基于通用人工智能模型的人工智能系统,能够服务于多种目的,既可以直接使用,也可以集成到其他人工智能系统中。GPAI 系统可以用作高风险人工智能系统或集成到其中。GPAI系统提供商应与此类高风险人工智能系统提供商合作,以确保后者合规。

所有GPAI模型的提供商必须:

Ø  制定技术文件,包括培训和测试过程以及评估结果。

Ø  起草信息和文档,提供给打算将 GPAI 模型集成到自己的人工智能系统中的下游提供商,以便后者了解功能和限制并能够遵守。

Ø  制定尊重版权指令的政策。

Ø  发布有关用于训练GPAI 模型的内容的足够详细的摘要。

除上述四项义务外,存在系统性风险的 GPAI 模型提供者还必须:

Ø  执行型评估,包括进行和记录对抗性测试,以识别和减轻系统风险。

Ø  评估和减轻可能的系统性风险,包括其来源。

Ø  跟踪、记录并向人工智能办公室和相关国家主管部门报告严重事件和可能的纠正措施,不得无故拖延。

Ø  确保足够的网络安全保护水平。

所有GPAI模型提供商如果在欧洲统一标准发布之前自愿遵守实践准则,则可以证明其遵守了其义务,遵守该准则将导致推定符合性。不遵守行为准则的提供商必须证明其他适当的合规方式,以供欧盟委员会批准。

五、执行和实施

根据法案第6章第56条,欧盟在欧盟委员会内设立人工智能办公室(已于20242月成立),负责监督《人工智能法案》与成员国的执行和实施人工智能办公室可以评估GPAI模型合规情况(如果在其权限范围内收集的信息不足),以及调查GAPI系统性风险(特别是根据独立专家科学小组的合格报告进行调查)。此外,下游供应商可以就上游供应商的侵权行为向人工智能办公室提出投诉。

六、法案的生效和实施

法案将在官方公报上发布20天后生效,并在生效后24个月后全面适用,但以下情况除外:

Ø  总则、禁止性人工智能系统的规定(法案第12章),在法案生效之日起6个月适用;

Ø  有关通知机构和被通知机构、治理、通用人工智能模型、处罚的规定(法案第3章第4节,第610章,第8a章),在法案生效之日起12个月适用;

有关某些高风险人工智能系统分类及相应义务的规定(法案第6条),在法案生效之日起36个月适用。


关键词: 人工智能   法案   欧盟