8 C
Brussel
Vrydag, April 26, 2024
AmerikaKunsmatige intelligensie in die hof: hoe algoritmes die lot van mense bepaal en ...

Kunsmatige intelligensie in die hof: hoe algoritmes die lot van mense bepaal en hoekom dit gevaarlik is

VRYWARING: Inligting en menings wat in die artikels weergegee word, is dié van diegene wat dit vermeld en dit is hul eie verantwoordelikheid. Publikasie in The European Times beteken nie outomaties onderskrywing van die siening nie, maar die reg om dit uit te druk.

VRYWARINGVERTALINGS: Alle artikels op hierdie webwerf word in Engels gepubliseer. Die vertaalde weergawes word gedoen deur 'n outomatiese proses bekend as neurale vertalings. As jy twyfel, verwys altyd na die oorspronklike artikel. Dankie vir die begrip.

Gaston de Persigny
Gaston de Persigny
Gaston de Persigny - Verslaggewer by The European Times Nuus

Sedert 2014 word forensiese algoritmes toenemend toegepas op byna elke aspek van die Amerikaanse regstelsel. Die doel is om die werk van departemente te vereenvoudig, en, bowenal, om dit meer onpartydig te maak. Ons is besig om uit te vind of dit redelik is om KI die vermoë te gee om die lot van mense in hierdie stadium van tegnologie-ontwikkeling te bepaal.

Sommige kenners is vol vertroue dat die gebruik van KI in wapentegnologie die aantal menslike foute in situasies wat lewe of dood behels, sal verminder. Op hul beurt voer ondersteuners van die gebruik van forensiese algoritmes aan dat dit sal lei tot 'n meer objektiewe beoordeling van data van die misdaadtoneel, die aantal gevangenes verminder en onvanpaste vonnisse uitskakel.

En hoewel daar dikwels na KI verwys word as 'n tegnologie wat baie van die wêreld se probleme kan oplos en die mensdom na 'n beter toekoms kan lei, is dit nie sonder sy nadele nie.

Waarom het geregtigheid KI nodig?

'n Jaar gelede het die Verenigde State 'n projek oor die gebruik van kunsmatige intelligensie in die hof hervat, vroeër is dit opgeskort weens 'n pandemie. 'n Spesiale algoritme om risiko's te evalueer gee regters aanbevelings: om op borgtog vry te laat of om 'n persoon wat ondersoek word in hegtenis te neem, het The Wall Street Journal geskryf.

Natuurlik moet KI eers opgelei word. Om dit te doen, het die Ondersoekdepartement in 2017 twee navorsingsmaatskappye voorsien van 'n databasis van meer as 1.6 miljoen kriminele sake van 2009 tot 2015. Daar was inligting oor die mense wat ondersoek word, hul ouderdom, geslag, woonplek, ras, etnisiteit , asook die misdade waarvan hulle verdink is. Daar was ook besonderhede, wanneer dit vergelyk word wat dit moontlik was om te bepaal of 'n persoon hof toe sou kom of probeer wegkruip. Byvoorbeeld, of die persoon vrywillig die telefoonnommer en adres aan die polisie verskaf het tydens die arrestasie. Diegene wat dit vrywillig gedoen het, was meer geneig om op hul eie in die hof te verskyn.

Gevolglik het 'n stelsel verskyn wat, volgens die aanvanklike skattings van die ontwikkelaars, die vooroordeel van regters aansienlik moes verminder het wanneer besluite geneem word na gelang van die rasse en etnisiteit van die persone wat ondersoek word. Die stelsel is in November 2019 bekendgestel.

Hoe die KI verkeerd was

Vroeër in die Verenigde State het verskeie kere probeer om soortgelyke stelsels te gebruik - en hul resultate is gemeng. Volgens Wired is daar in 2014 ’n loodsprojek in New Jersey van stapel gestuur, waardeur die las op tronke eintlik met byna die helfte verminder is. Hierdie stelsel kon egter nie die probleem van rasse-ongelykheid oplos nie.

Byvoorbeeld, in 2014 is 'n swart meisie gearresteer vir 'n misdaad wat die meeste na 'n misverstand gelyk het. Brisha Borden het die Huffy-kind se losgemaakte blou fiets geneem. Sy het probeer om dit in die straat af te ry in die voorstede van Fort Lauderdale, en toe opgegee. Maar dit was te laat – die bure het die polisie ontbied.

Iewers later is die 41-jarige wit man Vernon Prater gearresteer vir diefstal van $86.35 se gereedskap in dieselfde land. Hy was ’n meer ervare misdadiger, meer as een keer skuldig bevind aan gewapende roof, waarvoor hy vyf jaar tronkstraf uitgedien het.

En tog het iets vreemds gebeur toe Borden en Prater in hegtenis geneem is. Die rekenaarprogram, wat die waarskynlikheid voorspel het dat elkeen van hulle 'n toekomstige misdaad pleeg, het 'n wonderlike gevolgtrekking gemaak. Borden, ’n swart meisie, is as hoërisiko geklassifiseer. Die wit manlike Prater, wat reeds verhoor is, is deur die KI as 'n laerisiko-groep geklassifiseer.

Verlede Julie het 27 wetenskaplikes en navorsers van vooraanstaande Amerikaanse universiteite, insluitend Harvard, Princeton, Columbia Universiteit en MIT, 'n ope brief gepubliseer waarin hulle "ernstige kommer" uitgespreek het oor die onakkuraathede wat die algoritmes kan onderlê. gebruik om die risiko's met betrekking tot 'n spesifieke persoon wat ondersoek word, te assesseer.

Daarbenewens meng KI soms in met forensiese resultate. En dit is waar die probleem selfs meer akuut word.

Daar is 'n mens agter elke KI

Enige tegnologie is kwesbaar: dit het dieselfde nadele as die mense wat dit ontwikkel. 'n Voorbeeld van hierdie feit is die 2017 Distrik van Columbia hofsaak. Op daardie stadium is die anonieme verweerder verteenwoordig deur die prokureur vir die Openbare Beskermers Diens, Rachel Chicurel. Die aanklaer in hierdie saak het aanvanklik ingestem tot 'n opgeskorte vonnis as 'n billike vonnis vir haar kliënt. Toe kom egter 'n forensiese verslag waarin 'n spesiale algoritme die verweerder “beskuldig” het. Toe het die aanklaer van plan verander en die regter gevra om die beskuldigde in jeugdetensie te plaas.

Die verweerder se prokureur het geëis dat die meganismes onderliggend aan die verslag aan haar span gewys word. Sy het gevind dat die tegnologie self glad nie deur enige onafhanklike geregtelike of wetenskaplike organisasie hersien is nie. En die resultate self was tot 'n mate gebaseer op rasbevooroordeelde data.

Wat lê agter forensiese algoritmes

Baie mense is bekommerd en woedend dat die forensiese algoritmes wat beïnvloed of 'n persoon vry sal wees of nie, heeltemal ondeursigtig is. Hoekom gebeur dit? Maatskappye wat algoritmes ontwikkel, sê dikwels dat hul metodologieë, bronkodes en toetsprosesse oop en beskerm moet bly deur intellektuele eiendomsreg. Hulle verduidelik nie hoe hul KI werk sodat niemand hul tegnologie kan steel nie; ontwikkelaars probeer om handelsgeheime te beskerm.

Maar wanneer hierdie algoritmes vir kruisondervraging in die hofsaal weggesteek word, word die verweerders gedwing om die geldigheid en betroubaarheid van die programme wat gebruik word om bewyse te verskaf, te erken. Vertrou KI, wat ook verkeerd is. Mense skep dit immers.

Om die kwessie aan te spreek, het die Amerikaanse Rep. Mark Takano, Kalifornië, in 2019 die "Justice in Judicial Algorithms Act 2019" bekendgestel. Die doel daarvan is om die beskerming van die burgerregte van beskuldigdes in kriminele sake te verseker en om die gebruik van KI in forensiese wetenskap te reguleer. Takano het die wetsontwerp vroeër vanjaar weer ingedien saam met Dwight Evans, ook 'n lid van die Pennsylvania Amerikaanse Huis van Verteenwoordigers. Beleidmakers is vol vertroue dat die bring van meer deursigtigheid deur tegnologie sal verseker dat burgerregte in litigasie gerespekteer word. Tyd sal leer of die wet aanvaar sal word.

’n Seldsame uitsondering wanneer die maatskappy forensiese algoritmes moes openbaar, was die versoek van die New Jersey-hof van appèl. Hy het Cybergenetics, ’n forensiese sagtewaremaatskappy, beveel om die verweerder se regspan toegang te gee tot die bronkode vir die DNS-ontledingsprogram.

Maar so 'n geval is meer die uitsondering as die reël.

So, wat is die probleem?

Masjienleeralgoritmes is wonderlik om patrone in data te vind. Gee hulle genoeg misdaadstatistieke en hulle sal interessante patrone in die datastel vind. Maar, soos die MIT Technology Review tereg opmerk, kan menslike interpretasie van hierdie inligting dikwels "korrelatiewe insigte omskep in oorsaaklike meganismes van oordeel", wat die werklikheid moontlik verdraai. Dit is 'n gevaarlike lokval.

Forensiese algoritmes wat gebruik word om die skuld of onskuld van 'n persoon in die hof te bepaal, moet vanuit alle hoeke beoordeel word. Op die ou end hang die lot van 'n persoon daarvan af.

- Advertensie -

Meer van die skrywer

- EKSKLUSIEWE INHOUD -kol_img
- Advertensie -
- Advertensie -
- Advertensie -kol_img
- Advertensie -

Moet lees

Jongste artikels

- Advertensie -