18.9 C
布鲁塞尔
周二,四月30,2024的
美国法庭上的人工智能:算法如何决定人的命运和...

法庭上的人工智能:算法如何决定人的命运以及为什么它是危险的

免责声明:文章中转载的信息和观点是陈述他们的信息和观点,由他们自己负责。 发表于 The European Times 并不自动意味着赞同观点,而是表达观点的权利。

免责声明翻译:本网站的所有文章均以英文发表。 翻译版本是通过称为神经翻译的自动化过程完成的。 如有疑问,请始终参考原始文章。 谢谢你的理解。

加斯顿·德·佩西尼
加斯顿·德·佩西尼
Gaston de Persigny - 记者 The European Times 新闻

自 2014 年以来,取证算法已越来越多地应用于美国司法系统的几乎各个方面。 目标是简化部门的工作,最重要的是,使其更加公正。 我们正在研究在这个技术发展阶段,赋予人工智能决定人类命运的能力是否合理。

一些专家相信,在武器技术中使用人工智能将减少涉及生死的情况下的人为错误数量。 反过来,使用法医算法的支持者认为,它们将导致对犯罪现场数据的更客观评估,减少囚犯人数并消除不恰当的判决。

虽然人工智能通常被称为可以解决世界上许多问题并带领人类走向更美好未来的技术,但它并非没有缺点。

为什么正义需要人工智能?

一年前,美国在法庭上恢复了一个使用人工智能的项目,此前该项目因疫情而暂停。 《华尔街日报》写道,一种评估风险的特殊算法为法官提供了建议:保释或拘留正在接受调查的人。

当然,首先需要训练人工智能。 为此,2017年,侦查部向两家调研公司提供了1.6年至2009年超过2015万件刑事案件的数据库。其中有被调查人的年龄、性别、居住地、种族、民族等信息。 ,以及他们涉嫌的罪行。 此外,还有一些细节,在比较时可以得出一个人是否会出庭或试图隐藏的结论。 例如,该人在逮捕期间是否自愿向警方提供电话号码和地址。 那些自愿这样做的人更有可能自己出庭。

结果,出现了一个系统,根据开发人员的初步估计,该系统应该可以显着减少法官在根据被调查人的种族和民族做出决定时的偏见。 该系统于 2019 年 XNUMX 月启动。

AI怎么错了

在美国早些时候,曾多次尝试使用类似的系统,但结果喜忧参半。 据《连线》杂志报道,2014 年,新泽西州启动了一个试点项目,因此监狱的负担实际上减少了近一半。 然而,这个制度并不能解决种族不平等的问题。

例如,2014 年,一名黑人女孩因最类似误解的罪行而被捕。 Brisha Borden 拿走了 Huffy 孩子的蓝色自行车。 她试图在劳德代尔堡郊区的街道上骑它,然后放弃了。 但为时已晚——邻居们报了警。

一段时间后,41 岁的白人男性 Vernon Prater 在同一个县因偷窃价值 86.35 美元的工具而被捕。 他是一名经验更丰富的罪犯,不止一次被判犯有武装抢劫罪,并因此入狱五年。

然而,当博登和普拉特被拘留时,发生了一些奇怪的事情。 预测他们每个人未来犯罪的可能性的计算机程序得出了一个惊人的结论。 黑人女孩博登被列为高危人群。 已经受审的白人男性普拉特被AI归为低危人群。

去年 27 月,来自哈佛大学、普林斯顿大学、哥伦比亚大学和麻省理工学院等美国领先大学的 XNUMX 名科学家和研究人员发表了一封公开信,对算法可能存在的不准确性表示“严重关切”。 用于评估与受调查的特定人员有关的风险。

此外,人工智能有时会干扰取证结果。 这就是问题变得更加尖锐的地方。

每个人工智能背后都有一个人

任何技术都是易受攻击的:它与开发它的人具有相同的缺点。 这一事实的一个例子是 2017 年哥伦比亚特区法院案件。 当时,匿名被告由公设辩护人服务处的律师 Rachel Chicurel 代理。 本案的检察官最初同意缓刑作为对她的委托人的公平判决。 然而,随后一份法医报告来了,其中一个特殊的算法“指控”了被告。 然后,检察官改变主意,要求法官将被告置于少年拘留所。

被告的律师要求向她的团队展示报告背后的机制。 她发现这项技术本身根本没有经过任何独立的司法或科学组织的审查。 结果本身在某种程度上基于种族偏见的数据。

取证算法的背后是什么

许多人担心和愤怒的是,影响一个人是否自由的取证算法是完全不透明的。 为什么会这样? 开发算法的公司经常声明他们的方法、源代码和测试过程必须保持开放并受到知识产权法的保护。 他们没有解释他们的人工智能是如何工作的,因此没有人可以窃取他们的技术; 开发商正在努力保护商业机密。

但是,当这些算法在法庭上不被盘问时,被告被迫承认用于提供证据的程序的有效性和可靠性。 相信人工智能,这也是错误的。 毕竟是人创造的。

为了解决这个问题,2019 年,美国加利福尼亚州众议员马克高野提出了“2019 年司法算法法”。 其目的是确保在刑事案件中保护被告的公民权利,并规范人工智能在法医学中的使用。 高野今年早些时候与也是宾夕法尼亚州美国众议院议员的德怀特·埃文斯重新提交了该法案。 政策制定者相信,通过技术提高透明度将确保公民权利在诉讼中得到尊重。 时间会证明法律是否会通过。

当公司不得不披露取证算法时,一个罕见的例外是新泽西上诉法院的要求。 他命令法医软件公司 Cyber​​genetics 向被告的法律团队提供 DNA 分析程序的源代码。

但这种情况更多的是例外而不是规则。

所以有什么问题?

机器学习算法非常适合在数据中寻找模式。 给他们足够的犯罪统计数据,他们会在数据集中找到有趣的模式。 但是,正如麻省理工学院技术评论正确指出的那样,人类对这些信息的解释通常可以“将相关见解转化为判断的因果机制”,这可能会扭曲现实。 这是一个危险的陷阱。

必须从各个角度评估用于确定法庭上某人有罪或无罪的法医算法。 归根结底,一个人的命运取决于它。

- 广告 -

更多来自作者

- 独家内容 -现货图片
- 广告 -
- 广告 -
- 广告 - 现货图片
- 广告 -

必读

最新文章

- 广告 -