16.6 C
Bruxelles
Thursday, May 2, 2024
EuropaLegge sull'intelligenza artificiale: gli eurodeputati adottano una legge fondamentale | Notizia

Legge sull'intelligenza artificiale: gli eurodeputati adottano una legge fondamentale | Notizia

DISCLAIMER: Le informazioni e le opinioni riprodotte negli articoli sono di chi le esprime ed è sotto la propria responsabilità. Pubblicazione in The European Times non significa automaticamente l'approvazione del punto di vista, ma il diritto di esprimerlo.

DISCLAIMER TRADUZIONI: Tutti gli articoli di questo sito sono pubblicati in lingua inglese. Le versioni tradotte vengono eseguite attraverso un processo automatizzato noto come traduzioni neurali. In caso di dubbio, fare sempre riferimento all'articolo originale. Grazie per la comprensione.

Edicola
Edicolahttps://europeantimes.news
The European Times Le notizie mirano a coprire le notizie che contano per aumentare la consapevolezza dei cittadini in tutta l'Europa geografica.

Il regolamento, concordato nei negoziati con gli Stati membri a dicembre 2023, è stata approvata dai deputati con 523 voti favorevoli, 46 contrari e 49 astenuti.

Mira a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dall’intelligenza artificiale ad alto rischio, promuovendo al contempo l’innovazione e affermando l’Europa come leader nel settore. Il regolamento stabilisce obblighi per l’IA in base ai rischi potenziali e al livello di impatto.

Applicazioni vietate

Le nuove regole vietano alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini, compresi i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e lo scraping non mirato di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale. Saranno vietati anche il riconoscimento delle emozioni sul posto di lavoro e a scuola, il punteggio sociale, la polizia predittiva (quando si basa esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche) e l’intelligenza artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.

Esenzioni delle forze dell'ordine

L'utilizzo di sistemi di identificazione biometrica (RBI) da parte delle forze dell'ordine è in linea di principio vietato, tranne che in situazioni tassativamente elencate e strettamente definite. L'RBI “in tempo reale” può essere implementato solo se vengono soddisfatte rigorose garanzie, ad esempio il suo utilizzo è limitato nel tempo e nell'ambito geografico e soggetto a specifica autorizzazione giudiziaria o amministrativa preventiva. Tali usi possono includere, ad esempio, la ricerca mirata di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di tali sistemi post facto (“RBI post-remoto”) è considerato un caso d’uso ad alto rischio, che richiede l’autorizzazione giudiziaria essendo collegata a un reato penale.

Obblighi per i sistemi ad alto rischio

Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Esempi di usi dell'IA ad alto rischio includono infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati ​​essenziali (ad esempio assistenza sanitaria, banche), alcuni sistemi di applicazione della legge, migrazione e gestione delle frontiere, giustizia e processi democratici (ad esempio influenza sulle elezioni) . Tali sistemi devono valutare e ridurre i rischi, conservare i registri di utilizzo, essere trasparenti e accurati e garantire la supervisione umana. I cittadini avranno il diritto di presentare reclami sui sistemi di IA e ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che influiscono sui loro diritti.

Requisiti di trasparenza

I sistemi di intelligenza artificiale per scopi generali (GPAI) e i modelli GPAI su cui si basano devono soddisfare determinati requisiti di trasparenza, tra cui il rispetto della legge europea sul copyright e la pubblicazione di riepiloghi dettagliati dei contenuti utilizzati per la formazione. I modelli GPAI più potenti che potrebbero comportare rischi sistemici dovranno affrontare requisiti aggiuntivi, tra cui l’esecuzione di valutazioni dei modelli, la valutazione e la mitigazione dei rischi sistemici e la segnalazione degli incidenti.

Inoltre, le immagini artificiali o manipolate, i contenuti audio o video (“deepfakes”) devono essere chiaramente etichettati come tali.

Misure a sostegno dell'innovazione e delle PMI

Sarà necessario istituire sandbox normativi e test nel mondo reale a livello nazionale e renderli accessibili alle PMI e alle start-up, per sviluppare e formare un’intelligenza artificiale innovativa prima della sua immissione sul mercato.

Citazioni

Martedì, durante il dibattito in plenaria, il correlatore della commissione per il mercato interno Brando Benifei (S&D, Italia) ha dichiarato: “Finalmente abbiamo la prima legge vincolante al mondo sull’intelligenza artificiale, per ridurre i rischi, creare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento, le pratiche inaccettabili di intelligenza artificiale saranno bandite in Europa e i diritti dei lavoratori e dei cittadini saranno tutelati. L’Ufficio AI sarà ora istituito per supportare le aziende nell’iniziare a conformarsi alle norme prima che entrino in vigore. Abbiamo fatto in modo che gli esseri umani e i valori europei siano al centro stesso dello sviluppo dell'IA”.

Correlatore della commissione per le libertà civili Dragos Tudorache (Renew, Romania) ha dichiarato: “L’UE ha mantenuto i suoi impegni. Abbiamo collegato il concetto di intelligenza artificiale ai valori fondamentali che costituiscono la base delle nostre società. Tuttavia, c’è ancora molto lavoro da fare che va oltre lo stesso AI Act. L’intelligenza artificiale ci spingerà a ripensare il contratto sociale al centro delle nostre democrazie, dei nostri modelli educativi, dei mercati del lavoro e del modo in cui conduciamo la guerra. L’AI Act è un punto di partenza per un nuovo modello di governance costruito attorno alla tecnologia. Ora dobbiamo concentrarci sulla messa in pratica di questa legge”.

Prossimi passi

Il regolamento è ancora sottoposto ad una verifica finale da parte dei giuristi-linguisti e se ne prevede l'adozione definitiva entro la fine della legislatura (attraverso il c.d. rettifica procedura). La legge dovrà inoltre essere approvata formalmente dal Consiglio.

Entrerà in vigore venti giorni dopo la sua pubblicazione nella Gazzetta ufficiale, e sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, ad eccezione di: divieti di pratiche vietate, che entreranno in vigore sei mesi dopo la data di entrata in vigore; codici di condotta (nove mesi dall'entrata in vigore); norme generali sull'IA, compresa la governance (12 mesi dopo l'entrata in vigore); e obblighi per i sistemi ad alto rischio (36 mesi).

sfondo

La legge sull'intelligenza artificiale risponde direttamente, nel modo più concreto, alle proposte dei cittadini della Conferenza sul futuro dell'Europa (COFE). proposta 12(10) sul rafforzamento della competitività dell'UE nei settori strategici, proposta 33(5) su una società sicura e affidabile, compresa la lotta alla disinformazione e la garanzia che gli esseri umani mantengano il controllo, proposta 35 sulla promozione dell’innovazione digitale, (3) garantendo nel contempo il controllo umano e (8) uso affidabile e responsabile dell’IA, stabilendo misure di salvaguardia e garantendo la trasparenza, e proposta 37 (3) sull’uso dell’intelligenza artificiale e degli strumenti digitali per migliorare l’accesso dei cittadini alle informazioni, comprese le persone con disabilità.

Fonte

- Annuncio pubblicitario -

Più da parte dell'autore

- CONTENUTI ESCLUSIVI -spot_img
- Annuncio pubblicitario -
- Annuncio pubblicitario -
- Annuncio pubblicitario -spot_img
- Annuncio pubblicitario -

Devi leggere

Articoli Recenti

- Annuncio pubblicitario -