在周五的一份声明中,专家们表示,包括基于人工智能的生物识别监控系统在内的新兴技术越来越多地被用于“敏感环境”, 未经个人知情或同意
必须划“紧急红线”
包括反恐中促进和保护人权问题特别报告员 Fionnuala Ní Aoláin 在内的专家们表示:“对于声称能够执行情感或性别识别的技术,需要紧急和严格的监管红线。”
特 人权理事会- 任命的专家谴责间谍软件和监视技术已经“令人震惊”地使用和影响人权捍卫者和记者的工作,“通常是在国家安全和反恐措施的幌子下”。
他们还呼吁制定监管措施,以解决生成式人工智能的闪电般快速发展问题,这种发展可以大量生产散布虚假信息和仇恨言论的虚假在线内容。
现实世界的后果
专家们强调需要确保这些系统不会进一步使人们和社区暴露于 人权 侵权行为,包括通过扩大和滥用侵犯隐私权的侵入性监视做法,助长了严重侵犯人权的行为,包括强迫失踪和歧视。
他们还对尊重言论、思想、 和平抗议, 以及获得基本的经济、社会和文化权利以及人道主义服务。
“应完全避免特定技术和应用 无法对人权投诉进行监管,”专家说。
专家们还表示关切的是,生成人工智能的发展是由一小群强大的参与者推动的,包括企业和投资者,没有足够的要求来进行人权尽职调查或与受影响的个人和社区进行磋商。
独立专家指出,通过内容审核进行内部监管的关键工作通常由个人在劳动剥削的情况下执行。
增加透明度
“迫切需要监管以确保透明度,在人们遇到合成媒体时提醒他们,并告知公众所使用的训练数据和模型,”专家们说。
专家们 重申他们的谨慎呼吁 关于人道主义危机背景下数字技术的使用,从大规模数据收集——包括高度敏感的生物识别数据的收集——到使用先进的有针对性的监视技术。
他们说:“我们敦促在更广泛的人权影响得到充分理解和强有力的数据保护措施到位之前,克制使用此类措施。”
加密,隐私至上
他们强调需要确保技术解决方案——包括 强大的端到端加密和不受限制的虚拟专用网络访问 – 保护和保护数字通信。
“两个都 行业和国家必须承担责任,包括对经济、社会、环境和人权的影响,”他们说。 “下一代技术 不得复制或加强排斥制度、歧视和压迫模式。”
特别报告员和其他权利专家均由联合国人权理事会任命,负责监督和报告具体专题或国家情况,他们不是联合国工作人员,也没有工作报酬。