人工智能在欧盟的使用将受到世界上第一部全面的人工智能法《人工智能法》的监管。 了解它将如何保护您。
的一部分,其 数字策略,欧盟希望对人工智能 (AI) 进行监管,以确保为这项创新技术的开发和使用提供更好的条件。 人工智能可以创造很多好处,例如更好的医疗保健; 更安全、更清洁的运输; 更高效的制造; 更便宜和更可持续的能源。
2021年XNUMX月,欧盟委员会提出了第一个 EU 人工智能的监管框架。 它说,可用于不同应用程序的人工智能系统根据它们对用户构成的风险进行分析和分类。 不同的风险级别将意味着或多或少的监管。 一旦获得批准,这将是世界上第一个关于人工智能的规则。
议会在 AI 立法中想要什么
议会的优先事项 是确保欧盟使用的人工智能系统安全、透明、可追溯、非歧视和环保。 人工智能系统应该由人而不是自动化来监督,以防止有害结果。
议会还希望为 AI 建立一个技术中立的统一定义,以应用于未来的 AI 系统。
进一步了解 议会在人工智能方面的工作 以及 人工智能未来的愿景
人工智能法案:不同风险级别的不同规则
新规则根据人工智能的风险水平为提供商和用户规定了义务。 尽管许多人工智能系统带来的风险很小,但仍需要对其进行评估。
不可接受的风险
不可接受的风险 人工智能系统被认为对人类构成威胁,将被禁止。 他们包括:
- 对人或特定弱势群体的认知行为操纵:例如鼓励儿童危险行为的声控玩具
- 社会评分:根据行为、社会经济地位或个人特征对人进行分类
- 实时和远程生物特征识别系统,例如面部识别
一些例外情况可能是允许的:例如,“后”远程生物特征识别系统在显着延迟后进行识别将被允许起诉严重犯罪,但只有在法院批准后。
高风险
对安全或基本权利产生负面影响的人工智能系统将被视为高风险,并将分为两类:
1) 用于以下产品的人工智能系统 欧盟的产品安全立法. 这包括玩具、航空、汽车、医疗设备和电梯。
2) 属于八个特定领域的人工智能系统必须在 EU 数据库:
- 自然人的生物识别和分类
- 关键基础设施的管理和运营
- 教育和职业培训
- 就业、工人管理和自营职业
- 获得和享受基本的私人服务和公共服务及福利
- 执法
- 移民、庇护和边境管制管理
- 协助法律解释和适用法律。
所有高风险人工智能系统在投放市场之前以及整个生命周期中都将接受评估。
生成式人工智能
生成式人工智能,如 ChatGPT,必须遵守透明度要求:
- 披露内容是由人工智能生成的
- 设计模型以防止其生成非法内容
- 发布用于培训的受版权保护的数据摘要
有限的风险
风险有限的人工智能系统应该符合最低限度的透明度要求,让用户能够做出明智的决定。 与应用程序交互后,用户可以决定是否要继续使用它。 用户在与 AI 交互时应该意识到这一点。 这包括生成或操纵图像、音频或视频内容的 AI 系统,例如 deepfakes。
接下来的步骤
议会定于 2023 年 XNUMX 月就其谈判立场达成一致,之后将开始与理事会中的欧盟国家就法律的最终形式进行谈判。
目标是在今年年底前达成协议。