10.3 C
Brüsszel
Május vasárnap 5, 2024
AmerikaMesterséges intelligencia a bíróságon: hogyan döntenek az algoritmusok az emberek sorsáról és...

Mesterséges intelligencia a bíróságon: hogyan döntenek az algoritmusok az emberek sorsáról és miért veszélyes

NYILATKOZAT: A cikkekben közölt információk és vélemények az azokat közölők sajátjai, és ez a saját felelősségük. Publikáció in The European Times nem jelenti automatikusan a nézet jóváhagyását, hanem a kifejezés jogát.

NYILATKOZAT FORDÍTÁSA: Ezen az oldalon minden cikk angol nyelven jelent meg. A lefordított verziók egy neurális fordításként ismert automatizált folyamaton keresztül készülnek. Ha kétségei vannak, mindig olvassa el az eredeti cikket. Köszönöm a megértésed.

Gaston de Persigny
Gaston de Persigny
Gaston de Persigny - Riporter itt The European Times Hírek

2014 óta a kriminalisztikai algoritmusokat egyre gyakrabban alkalmazzák az Egyesült Államok igazságszolgáltatási rendszerének szinte minden területén. A cél az osztályok munkájának egyszerűsítése, és ami a legfontosabb, pártatlanabbá tétele. Azt vizsgáljuk, vajon ésszerű-e az AI-nak megadni azt a képességet, hogy döntsön az emberek sorsáról a technológiai fejlődés ezen szakaszában.

Egyes szakértők biztosak abban, hogy a mesterséges intelligencia fegyvertechnológiában történő alkalmazása csökkenteni fogja az emberi hibák számát élettel vagy halállal járó helyzetekben. A kriminalisztikai algoritmusok alkalmazásának támogatói viszont azzal érvelnek, hogy ezek a tetthelyről származó adatok objektívebb értékeléséhez vezetnek, csökkentik a foglyok számát és megszüntetik a nem megfelelő büntetéseket.

És bár az AI-t gyakran olyan technológiának nevezik, amely képes megoldani a világ számos problémáját, és egy jobb jövő felé vezeti az emberiséget, ennek nincsenek hátrányai sem.

Miért van szüksége az igazságszolgáltatásnak mesterséges intelligenciára?

Egy évvel ezelőtt az Egyesült Államok újraindította a mesterséges intelligencia felhasználásával kapcsolatos projektet a bíróságon, korábban egy járvány miatt felfüggesztették. Egy speciális kockázatértékelési algoritmus a bírák számára ad javaslatokat: óvadék ellenében engedjék szabadon, vagy vegyék őrizetbe a vizsgálat alatt álló személyt – írta a The Wall Street Journal.

Természetesen az AI-t először ki kell képezni. Ennek érdekében a Nyomozó Osztály 2017-ben két kutatócéget bocsátott rendelkezésre a 1.6-től 2009-ig tartó időszak több mint 2015 millió büntetőügyének adatbázisához. A nyomozás alatt álló személyekről, életkorukról, nemükről, lakóhelyükről, faji hovatartozásukról, etnikai hovatartozásukról volt információ. , valamint azokat a bűncselekményeket, amelyekkel meggyanúsították. Voltak olyan részletek is, amelyek összehasonlításánál arra lehetett következtetni, hogy az illető bíróság elé kerül, vagy megpróbál elbújni. Például, hogy az illető önként adta-e meg telefonszámát és címét a rendőrségnek az elfogás során. Azok, akik ezt önként tették, nagyobb valószínűséggel jelentek meg egyedül a bíróságon.

Ennek eredményeként megjelent egy olyan rendszer, amely a fejlesztők kezdeti becslése szerint jelentősen csökkentette volna a bírák elfogultságát a vizsgált személyek faji és etnikai hovatartozásától függően. A rendszer 2019 novemberében indult.

Mennyire tévedett az AI

Korábban az Egyesült Államokban többször is próbálkoztak hasonló rendszerekkel – és ezek eredményei vegyesek voltak. A Wired értesülései szerint 2014-ben New Jersey-ben indult egy kísérleti projekt, amelynek köszönhetően a börtönök terhelése valójában csaknem felére csökkent. Ez a rendszer azonban nem tudta megoldani a faji egyenlőtlenség problémáját.

Például 2014-ben egy fekete lányt letartóztattak egy olyan bűncselekmény miatt, amely leginkább félreértésre hasonlított. Brisha Borden elvitte a Huffy gyerek kioldott kék biciklijét. Megpróbált végigmenni vele az utcán Fort Lauderdale külvárosában, majd feladta. De már késő volt – hívták a szomszédok a rendőrséget.

Valamivel később a 41 éves fehér férfit, Vernon Pratert letartóztatták, mert 86.35 dollár értékű szerszámokat lopott ugyanabban a megyében. Tapasztaltabb bűnöző volt, nem egyszer elítélték fegyveres rablásért, amiért öt év börtönt töltött.

És mégis valami furcsa történt, amikor Bordent és Pratert őrizetbe vették. A számítógépes program, amely megjósolta egy jövőbeni bűncselekmény elkövetésének valószínűségét, elképesztő következtetésre jutott. Borden, egy fekete lány magas kockázatúnak minősült. A fehér férfi Prátert, akit már kipróbáltak, az MI az alacsony kockázatú csoportba sorolta.

Tavaly júliusban 27 tudós és kutató vezető amerikai egyetemekről, köztük a Harvardról, a Princetonról, a Columbia Egyetemről és az MIT-ről tett közzé nyílt levelet, amelyben „komoly aggodalmát” fejezte ki az algoritmusok mögött meghúzódó pontatlanságokkal kapcsolatban. egy adott vizsgált személlyel kapcsolatos kockázatok felmérésére szolgál.

Ezenkívül az MI néha megzavarja a törvényszéki eredményeket. És itt a probléma még súlyosabbá válik.

Minden mesterséges intelligencia mögött ember áll

Minden technológia sebezhető: ugyanolyan hátrányai vannak, mint a fejlesztőknek. Példa erre a 2017-es District of Columbia bírósági ügy. Abban az időben a névtelen vádlottat Rachel Chicurel, a Védelmi Szolgálat ügyvédje képviselte. Az ügyész ebben az ügyben kezdetben beleegyezett, hogy védencére méltányos büntetésként felfüggesztett börtönbüntetést szabjanak ki. Ekkor azonban jött egy igazságügyi szakértői jelentés, amelyben egy speciális algoritmus „vádolta” a vádlottat. Ekkor az ügyész meggondolta magát, és arra kérte a bírót, hogy helyezze fiatalkorúak őrizetbe a vádlottat.

A vádlott ügyvédje követelte, hogy mutassák be csapatának a feljelentés alapjául szolgáló mechanizmusokat. Úgy találta, hogy magát a technológiát egyetlen független igazságügyi vagy tudományos szervezet sem vizsgálta felül. Maguk az eredmények pedig bizonyos mértékig fajilag elfogult adatokon alapultak.

Mi rejlik a kriminalisztikai algoritmusok mögött

Sokan aggódnak és felháborodnak, hogy teljesen átláthatatlanok azok a törvényszéki algoritmusok, amelyek azt befolyásolják, hogy egy személy szabad lesz-e vagy sem. Miért történik ez? Az algoritmusokat fejlesztő cégek gyakran állítják, hogy módszertanuknak, forráskódjaiknak és tesztelési folyamataiknak nyitottnak kell maradniuk, és a szellemi tulajdonjog által védettnek kell lenniük. Nem magyarázzák el a mesterséges intelligencia működését, hogy senki ne lophassa el a technológiájukat; a fejlesztők igyekeznek megvédeni az üzleti titkokat.

Ám amikor ezeket az algoritmusokat a tárgyalóteremben elrejtik a keresztkérdések elől, a vádlottak kénytelenek beismerni a bizonyításra használt programok érvényességét és megbízhatóságát. Bízz az AI-ban, ami szintén rossz. Végül is az emberek alkotják.

A probléma megoldása érdekében 2019-ben Mark Takano amerikai képviselő (Kalifornia) bevezette a „Justice in Judicial Algorithms Act 2019 Act”. Célja, hogy biztosítsa a büntetőügyekben a vádlottak állampolgári jogainak védelmét, és szabályozza a mesterséges intelligencia kriminalisztikai alkalmazását. Takano az év elején újra benyújtotta a törvényjavaslatot Dwight Evans-szel, aki szintén a Pennsylvania Egyesült Államok Képviselőházának tagja. A döntéshozók biztosak abban, hogy a technológia révén a nagyobb átláthatóság garantálni fogja az állampolgári jogok tiszteletben tartását a peres eljárások során. Az idő eldönti, hogy elfogadják-e a törvényt.

Ritka kivétel volt a New Jersey-i Fellebbviteli Bíróság kérése, amikor a cégnek kriminalisztikai algoritmusokat kellett nyilvánosságra hoznia. Elrendelte a Cybergenetics igazságügyi szakértői szoftvercéget, hogy biztosítsa a vádlott jogi csapatának hozzáférést a DNS-elemző program forráskódjához.

De egy ilyen eset inkább kivétel, mint szabály.

Tehát mi a probléma?

A gépi tanulási algoritmusok nagyszerűek az adatok mintáinak megtalálásához. Adjon nekik elegendő bűnügyi statisztikát, és érdekes mintákat találnak az adatkészletben. De amint az MIT Technology Review helyesen megjegyzi, ezen információk emberi értelmezése gyakran „a korrelatív betekintést az ítélet ok-okozati mechanizmusaivá változtatja”, ami potenciálisan torzíthatja a valóságot. Ez egy veszélyes csapda.

Minden szemszögből értékelni kell azokat a törvényszéki algoritmusokat, amelyeket egy személy bűnösségének vagy ártatlanságának megállapítására használnak a bíróságon. Végül is az ember sorsa múlik rajta.

- Reklám -

Még több a szerzőtől

- EXKLUZÍV TARTALOM -spot_img
- Reklám -
- Reklám -
- Reklám -spot_img
- Reklám -

Muszáj elolvasni

Legfrissebb cikkek

- Reklám -