古特雷斯周一在纽约举行的联合国非正式会议上表示:“我们的世界不应该存在致命的自主武器系统。”此次非正式会议主要讨论此类武器的使用和影响。
“那些拥有不受人类控制的权力和自由裁量权来夺走人类生命的机器应该受到国际法的禁止。”
在纽约举行的为期两天的会议汇集了会员国、学术专家和民间社会代表,共同研究这些系统带来的人道主义和人权风险。
目标是:为制定具有法律约束力的协议来规范和禁止其使用奠定基础。
人类控制至关重要
虽然没有国际公认的 定义 在自主武器系统中,它们泛指无需人类指令即可选择目标并施加武力的先进无人机等武器。
秘书长在会议致辞中表示,任何规定和禁令都必须追究责任。
古特雷斯先生说:“人类对武力使用的控制至关重要。我们不能把生死攸关的决定权交给机器。”
人们非常担心自主武器系统会剥夺战争中的人类判断,从而违反国际人道主义法和人权法。
联合国秘书长呼吁会员国在2026年前对此类系统制定明确的规定和禁令。
达成具有法律约束力的协议
自 2014 年以来,联合国会员国一直在《特定常规武器公约》框架下考虑制定自主武器系统的法规(CCW) 涉及可能违反人道主义法的武器。
最近,《未来契约》 采用 去年9月,安理会呼吁避免不断发展的武器技术的武器化和滥用。
“制止杀手机器人”——一个由大约 270 个民间社会组织组成的联盟——是本周会议上发言的组织之一。
执行董事 Nicole van Rooijen 告诉 联合国新闻 围绕一些关键问题开始达成共识,她称这是一个“巨大的进步”。
具体而言,人们就所谓的“双层”方法达成了共识,这意味着应该禁止某些类型的自主武器系统,同时对其他类型的自主武器系统进行监管。
然而,仍然存在其他症结。例如,目前尚不清楚自主武器系统的具体特征,以及如何立法规定“有意义的人类控制”。
迄今为止的会谈只是磋商, “我们还没有开始谈判,”Rooijen 女士告诉 联合国新闻:“这是个问题。”
'时间不多了'
秘书长多次呼吁禁止自主武器系统, 说 人类的命运不能被置于“黑匣子”之中。
然而,最近这个问题变得越来越紧迫,部分原因是人工智能、算法以及整个自主系统的快速发展。
“我们等待的时间越长,不作为的代价就越大”Rooijen 女士告诉我们。
罗伊詹女士还指出,系统的开发成本正在降低,这引起了国家和非国家行为者对扩散的担忧。
秘书长在周一的评论中还强调了制定自主武器系统法规的“紧迫性”。
古特雷斯先生说:“采取预防措施的时间已经不多了。”