11.2 C
Bruxelles
Venerdì, aprile 26, 2024
EuropaEU AI act: primo regolamento sull'intelligenza artificiale

EU AI act: primo regolamento sull'intelligenza artificiale

DISCLAIMER: Le informazioni e le opinioni riprodotte negli articoli sono di chi le esprime ed è sotto la propria responsabilità. Pubblicazione in The European Times non significa automaticamente l'approvazione del punto di vista, ma il diritto di esprimerlo.

DISCLAIMER TRADUZIONI: Tutti gli articoli di questo sito sono pubblicati in lingua inglese. Le versioni tradotte vengono eseguite attraverso un processo automatizzato noto come traduzioni neurali. In caso di dubbio, fare sempre riferimento all'articolo originale. Grazie per la comprensione.

L'uso dell'intelligenza artificiale nell'UE sarà regolamentato dalla legge sull'intelligenza artificiale, la prima legge globale sull'IA al mondo. Scopri come ti proteggerà.

Come parte del suo strategia digitale, l'UE vuole regolamentare l'intelligenza artificiale (AI) per garantire condizioni migliori per lo sviluppo e l'utilizzo di questa tecnologia innovativa. L'intelligenza artificiale può creare molti vantaggi, come una migliore assistenza sanitaria; trasporti più sicuri e puliti; produzione più efficiente; ed energia più economica e più sostenibile.

Nell'aprile 2021, la Commissione europea ha proposto il primo EU quadro normativo per l'IA. Dice che i sistemi di intelligenza artificiale che possono essere utilizzati in diverse applicazioni vengono analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio significheranno più o meno regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull'IA.

Cosa vuole il Parlamento nella legislazione sull'IA

La priorità del Parlamento è garantire che i sistemi di IA utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati dalle persone, piuttosto che dall'automazione, per prevenire esiti dannosi.

Il Parlamento vuole anche stabilire una definizione uniforme e neutrale dal punto di vista tecnologico per l'IA che potrebbe essere applicata ai futuri sistemi di IA.

Scopri  Il lavoro del Parlamento sull'IA e il suo tool proprietario visione per il futuro dell'IA

AI Act: regole diverse per diversi livelli di rischio

Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio derivante dall'intelligenza artificiale. Sebbene molti sistemi di intelligenza artificiale comportino un rischio minimo, devono essere valutati.


Rischio inaccettabile

Rischio inaccettabile I sistemi di intelligenza artificiale sono sistemi considerati una minaccia per le persone e saranno vietati. Loro includono:

  • Manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili: ad esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini
  • Punteggio sociale: classificare le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali
  • Sistemi di identificazione biometrica remota e in tempo reale, come il riconoscimento facciale


Possono essere consentite alcune eccezioni: ad esempio, i sistemi di identificazione biometrica remota "post" in cui l'identificazione avviene dopo un ritardo significativo saranno autorizzati a perseguire reati gravi, ma solo dopo l'approvazione del tribunale.

Alto rischio

I sistemi di IA che incidono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

1) Sistemi di intelligenza artificiale utilizzati nei prodotti che rientrano in la legislazione dell'UE sulla sicurezza dei prodotti. Ciò include giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2) Sistemi di IA ricadenti in otto aree specifiche che dovranno essere registrati in an EU Banca dati:

  • Identificazione biometrica e categorizzazione delle persone fisiche
  • Gestione e funzionamento delle infrastrutture critiche
  • Istruzione e formazione professionale
  • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
  • Accesso e fruizione dei servizi privati ​​essenziali e dei servizi e benefici pubblici
  • Law enforcement
  • Migrazione, asilo e gestione dei controlli alle frontiere
  • Assistenza nell'interpretazione giuridica e nell'applicazione della legge.



Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita.

AI generativa


L'IA generativa, come ChatGPT, dovrebbe rispettare i requisiti di trasparenza:

  • Rivelare che il contenuto è stato generato dall'intelligenza artificiale
  • Progettare il modello per evitare che generi contenuti illegali
  • Pubblicazione di riepiloghi di dati protetti da copyright utilizzati per la formazione

Rischio limitato

I sistemi di IA a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentirebbero agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente può quindi decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l'IA. Ciò include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video, ad esempio i deepfake.

Prossimi passi

Il Parlamento dovrebbe concordare la sua posizione negoziale nel giugno 2023, dopodiché inizieranno i colloqui con i paesi dell'UE in sede di Consiglio sulla forma finale della legge.

L'obiettivo è raggiungere un accordo entro la fine di quest'anno.

    - Annuncio pubblicitario -

    Più da parte dell'autore

    - CONTENUTI ESCLUSIVI -spot_img
    - Annuncio pubblicitario -
    - Annuncio pubblicitario -
    - Annuncio pubblicitario -spot_img
    - Annuncio pubblicitario -

    Devi leggere

    Articoli Recenti

    - Annuncio pubblicitario -