今天, 欧盟委员会 提出了新的规则和行动,作为使欧盟成为全球人工智能(AI)中心的努力的一部分。
“有史以来”的法律框架旨在确保信任和安全,同时促进AI创新。
EC执行副总裁致辞 玛格丽特·韦斯特格,概述了欧洲AI的五项义务:
- 要求AI提供者为其系统提供高质量的数据,以确保结果不会偏颇或带有歧视性。
- 他们还需要提供有关其AI系统如何工作的详细文档,以便当局评估其合规性;
- 提供者必须与用户共享大量信息,以帮助他们理解和正确使用AI系统;
- 他们必须在人工智能的设计和实施中确保适当程度的人员监督;
- 最后,他们必须尊重网络安全性和准确性的最高标准。
Vestager表示,他们对欧洲数字未来的战略是创建“信任的生态系统和卓越的生态系统”。
“对于 欧洲 为了成为值得信赖的人工智能领域的全球领导者,我们需要为企业提供构建先进人工智能系统的最佳条件,”Vestager 说。 ” 这是我们修订后的人工智能协调计划背后的想法。 它协调成员国之间的投资,以确保来自数字欧洲和地平线欧洲计划的资金用于我们最需要的地方。 例如在高性能计算或创建设施来测试和改进人工智能系统。”
在委员会的一份声明中,概述了高风险的AI系统:
- 可能使公民的生命和健康处于危险之中的关键基础设施(例如运输);
- 教育或职业培训,可能决定某人生活中接受教育和专业课程的机会(例如,考试成绩);
- 产品的安全组件(例如AI在机器人辅助手术中的应用);
- 就业,工人管理和自营职业(例如,用于招聘程序的简历分类软件);
- 基本的私人和公共服务(例如信用评分剥夺了公民获得贷款的机会);
- 可能会干扰人们基本权利的执法(例如,评估证据的可靠性);
- 移民、庇护和边境管制管理(例如核实身份真实性 旅行 文件)
- 司法和民主程序(例如,将法律应用于具体事实集)。
- 高风险的AI系统在投入市场之前,必须遵守严格的义务:
适当的风险评估和缓解系统;
- 提供给系统的高质量数据集可最大程度地降低风险和歧视性结果;
- 记录活动以确保结果的可追溯性;
- 详细的文件,提供有关该系统及其目的的所有必要信息,以供当局评估其合规性;
- 向用户提供清晰,充分的信息;
- 适当的人为监督措施,以最大程度地降低风险;
- 高水平的鲁棒性,安全性和准确性。
总体而言,目标是为AI的成长和发展创造“有利条件”。 该政策倡议的下一步包括让欧洲议会和成员国在立法程序中采纳委员会关于人工智能以及机械产品的方法的建议。 一旦通过,该法规将直接在整个欧盟范围内适用。
当然,人工智能在各个行业中已经相当丰富-金融服务是该技术的主要受益者。
欧盟计划每年投入1亿欧元用于人工智能,同时每年吸引20亿欧元以上的AI总投资。
只有时间会证明这种结构化的方法是否会推动更大的创新和采用,或者更放任的政策是否会更好。
新规则 以及常见问题解答,请点击此处。