15.2 C
Bruxelles
Monday, May 6, 2024
AmericaIntelligenza artificiale in tribunale: come gli algoritmi decidono il destino delle persone e...

Intelligenza artificiale in tribunale: come gli algoritmi decidono il destino delle persone e perché è pericoloso

DISCLAIMER: Le informazioni e le opinioni riprodotte negli articoli sono di chi le esprime ed è sotto la propria responsabilità. Pubblicazione in The European Times non significa automaticamente l'approvazione del punto di vista, ma il diritto di esprimerlo.

DISCLAIMER TRADUZIONI: Tutti gli articoli di questo sito sono pubblicati in lingua inglese. Le versioni tradotte vengono eseguite attraverso un processo automatizzato noto come traduzioni neurali. In caso di dubbio, fare sempre riferimento all'articolo originale. Grazie per la comprensione.

Gastone de Persigny
Gastone de Persigny
Gaston de Persigny - Reporter a The European Times Notizie

Dal 2014, gli algoritmi forensi sono stati sempre più applicati a quasi ogni aspetto del sistema giudiziario statunitense. L'obiettivo è semplificare il lavoro dei dipartimenti e, soprattutto, renderlo più imparziale. Stiamo cercando di capire se sia ragionevole dare all'IA la capacità di decidere il destino delle persone in questa fase dello sviluppo tecnologico.

Alcuni esperti sono fiduciosi che l'uso dell'IA nella tecnologia delle armi ridurrà il numero di errori umani in situazioni che coinvolgono la vita o la morte. A loro volta, i sostenitori dell'uso degli algoritmi forensi sostengono che porteranno a una valutazione più obiettiva dei dati sulla scena del crimine, ridurranno il numero di prigionieri ed elimineranno le sentenze inappropriate.

E mentre l'IA viene spesso definita una tecnologia in grado di risolvere molti dei problemi del mondo e portare l'umanità verso un futuro migliore, non è priva di inconvenienti.

Perché la giustizia ha bisogno dell'IA?

Un anno fa, gli Stati Uniti hanno ripreso un progetto sull'uso dell'intelligenza artificiale in tribunale, prima sospeso a causa di una pandemia. Uno speciale algoritmo per la valutazione dei rischi fornisce ai giudici raccomandazioni: rilasciare su cauzione o prendere in custodia una persona sotto inchiesta, ha scritto il Wall Street Journal.

Naturalmente, l'IA deve prima essere addestrata. Per fare ciò, nel 2017, il Dipartimento Investigativo ha fornito a due società di ricerca un database di oltre 1.6 milioni di procedimenti penali dal 2009 al 2015. C'erano informazioni sulle persone indagate, sulla loro età, sesso, luogo di residenza, razza, etnia , così come i crimini di cui erano sospettati. Inoltre, c'erano dettagli, confrontando i quali era possibile concludere se una persona sarebbe venuta in tribunale o avrebbe cercato di nascondersi. Ad esempio, se la persona ha fornito volontariamente il numero di telefono e l'indirizzo alla polizia durante l'arresto. Coloro che lo hanno fatto volontariamente erano più propensi a comparire in tribunale da soli.

Di conseguenza, è apparso un sistema che, secondo le prime stime degli sviluppatori, avrebbe dovuto ridurre significativamente i pregiudizi dei giudici quando prendevano decisioni a seconda della razza e dell'etnia delle persone indagate. Il sistema è stato lanciato a novembre 2019.

Come l'IA aveva torto

In precedenza negli Stati Uniti, diverse volte hanno cercato di utilizzare sistemi simili e i loro risultati sono stati contrastanti. Secondo Wired, nel 2014 è stato avviato un progetto pilota nel New Jersey, grazie al quale il carico sulle carceri è stato di fatto ridotto di quasi la metà. Tuttavia, questo sistema non poteva risolvere il problema della disuguaglianza razziale.

Ad esempio, nel 2014, una ragazza di colore è stata arrestata per un crimine che assomigliava molto a un malinteso. Brisha Borden ha preso la bicicletta blu slacciata del bambino Huffy. Ha provato a guidarla lungo la strada nei sobborghi di Fort Lauderdale, ma poi ha rinunciato. Ma era troppo tardi: i vicini hanno chiamato la polizia.

Qualche tempo dopo, Vernon Prater, maschio bianco di 41 anni, è stato arrestato per aver rubato strumenti per un valore di $ 86.35 nella stessa contea. Era un criminale più esperto, più volte condannato per rapina a mano armata, per la quale ha scontato cinque anni di carcere.

Eppure è successo qualcosa di strano quando Borden e Prater sono stati presi in custodia. Il programma per computer, che prevedeva la probabilità che ciascuno di loro commettesse un crimine futuro, ha tratto una conclusione sorprendente. Borden, una ragazza di colore, è stata classificata come ad alto rischio. Il maschio bianco Prater, che era già stato processato, è stato classificato dall'IA come gruppo a basso rischio.

Lo scorso luglio, 27 scienziati e ricercatori delle principali università americane, tra cui Harvard, Princeton, Columbia University e MIT, hanno pubblicato una lettera aperta in cui esprimevano "serie preoccupazioni" sulle imprecisioni che potrebbero essere alla base degli algoritmi. utilizzato per valutare i rischi in relazione a una particolare persona oggetto di indagine.

Inoltre, l'IA a volte interferisce con i risultati forensi. Ed è qui che il problema diventa ancora più acuto.

C'è un essere umano dietro ogni IA

Qualsiasi tecnologia è vulnerabile: ha gli stessi svantaggi delle persone che la sviluppano. Un esempio di questo fatto è il caso giudiziario del Distretto di Columbia del 2017. A quel tempo, l'imputato anonimo era rappresentato dall'avvocato del Public Defenders Service, Rachel Chicurel. Il pubblico ministero in questo caso inizialmente ha accettato una sospensione della pena come condanna equa per il suo cliente. Tuttavia, poi è arrivato un rapporto forense, in cui uno speciale algoritmo ha "accusato" l'imputato. Poi il pm ha cambiato idea e ha chiesto al giudice di mettere l'imputato in carcere minorile.

L'avvocato dell'imputata ha chiesto che al suo team fossero mostrati i meccanismi alla base del rapporto. Ha scoperto che la tecnologia stessa non è stata affatto rivista da alcuna organizzazione giudiziaria o scientifica indipendente. E i risultati stessi erano basati in una certa misura su dati razzisti.

Cosa si nasconde dietro gli algoritmi forensi

Molte persone sono preoccupate e indignate dal fatto che gli algoritmi forensi che influenzano se una persona sarà libera o meno siano completamente opachi. Perché sta succedendo? Le aziende che sviluppano algoritmi spesso affermano che le loro metodologie, codici sorgente e processi di test devono rimanere aperti e protetti dalla legge sulla proprietà intellettuale. Non spiegano come funziona la loro intelligenza artificiale in modo che nessuno possa rubare la loro tecnologia; gli sviluppatori stanno cercando di proteggere i segreti commerciali.

Ma quando questi algoritmi vengono nascosti al controinterrogatorio in aula, gli imputati sono costretti ad ammettere la validità e l'affidabilità dei programmi utilizzati per fornire prove. Fidati dell'IA, che è anche sbagliata. Dopotutto, le persone lo creano.

Per affrontare la questione, nel 2019, il rappresentante degli Stati Uniti Mark Takano, California, ha introdotto il "Justice in Judicial Algorithms Act 2019". Il suo scopo è garantire la protezione dei diritti civili degli imputati nei procedimenti penali e regolamentare l'uso dell'IA nelle scienze forensi. Takano ha ripresentato il disegno di legge all'inizio di quest'anno con Dwight Evans, anche lui membro della Camera dei rappresentanti degli Stati Uniti in Pennsylvania. I responsabili politici sono fiduciosi che portare maggiore trasparenza attraverso la tecnologia garantirà il rispetto dei diritti civili nelle controversie. Il tempo dirà se la legge sarà approvata.

Una rara eccezione quando la società ha dovuto rivelare algoritmi forensi è stata la richiesta della Corte d'Appello del New Jersey. Ordinò alla Cybergenetics, una società di software forense, di fornire al team legale dell'imputato l'accesso al codice sorgente del programma di analisi del DNA.

Ma un caso del genere è più l'eccezione che la regola.

Allora, qual'è il problema?

Gli algoritmi di apprendimento automatico sono ottimi per trovare modelli nei dati. Fornisci loro un numero sufficiente di statistiche sulla criminalità e troveranno modelli interessanti nel set di dati. Ma, come giustamente osserva il MIT Technology Review, l'interpretazione umana di queste informazioni può spesso "trasformare le intuizioni correlative in meccanismi causali di giudizio", distorcendo potenzialmente la realtà. Questa è una trappola pericolosa.

Gli algoritmi forensi utilizzati per determinare la colpevolezza o l'innocenza di una persona in tribunale devono essere valutati da tutte le angolazioni. Alla fine, il destino di una persona dipende da questo.

- Annuncio pubblicitario -

Più da parte dell'autore

- CONTENUTI ESCLUSIVI -spot_img
- Annuncio pubblicitario -
- Annuncio pubblicitario -
- Annuncio pubblicitario -spot_img
- Annuncio pubblicitario -

Devi leggere

Articoli Recenti

- Annuncio pubblicitario -