8.3 C
Bruxelles
Sabato, Maggio 4, 2024
EuropaLa Commissione europea rivela regole e azioni per l'IA nell'Unione europea

La Commissione europea rivela regole e azioni per l'IA nell'Unione europea

DISCLAIMER: Le informazioni e le opinioni riprodotte negli articoli sono di chi le esprime ed è sotto la propria responsabilità. Pubblicazione in The European Times non significa automaticamente l'approvazione del punto di vista, ma il diritto di esprimerlo.

DISCLAIMER TRADUZIONI: Tutti gli articoli di questo sito sono pubblicati in lingua inglese. Le versioni tradotte vengono eseguite attraverso un processo automatizzato noto come traduzioni neurali. In caso di dubbio, fare sempre riferimento all'articolo originale. Grazie per la comprensione.

Bandiere dell'UE all'edificio Berlaymont della Commissione europea guillaume perigois unsplash La Commissione europea rivela regole e azioni per l'IA nell'Unione europeaOggi, la Commissione europea ha proposto nuove regole e azioni nell'ambito di uno sforzo volto a trasformare l'Unione europea in un hub globale per l'intelligenza artificiale (IA).

Il "primo quadro giuridico in assoluto" è progettato per garantire fiducia e sicurezza promuovendo al contempo l'innovazione dell'IA.

In un discorso del vicepresidente esecutivo della CE Margherita Vestager, sono stati delineati cinque obblighi per l'IA in Europa:

  • I fornitori di IA sono tenuti a fornire ai loro sistemi dati di alta qualità per assicurarsi che i risultati non escano distorti o discriminanti;
  • Devono anche fornire una documentazione dettagliata su come funzionano i loro sistemi di intelligenza artificiale, affinché le autorità ne valutino la conformità;
  • I fornitori devono condividere informazioni sostanziali con gli utenti per aiutarli a comprendere e utilizzare correttamente i sistemi di intelligenza artificiale;
  • devono garantire un livello adeguato di supervisione umana sia nella progettazione che nell'implementazione dell'Intelligenza Artificiale;
  • e, infine, devono rispettare i più elevati standard di sicurezza e accuratezza informatica.

Vestager ha affermato che la loro strategia per il futuro digitale dell'Europa consiste nel creare "un ecosistema di fiducia si unisce a un ecosistema di eccellenza".

"Per Europa per diventare un leader globale nell'IA affidabile, dobbiamo fornire alle aziende l'accesso alle migliori condizioni per costruire sistemi di intelligenza artificiale avanzati", ha affermato Vestager. "Questa è l'idea alla base del nostro piano coordinato rivisto sull'intelligenza artificiale. Coordina gli investimenti negli Stati membri per garantire che i soldi dei programmi Europa digitale e Orizzonte Europa vengano spesi dove ne abbiamo più bisogno. Ad esempio nel calcolo ad alte prestazioni o per creare strutture per testare e migliorare i sistemi di intelligenza artificiale".

In una dichiarazione della Commissione sono stati delineati i sistemi di IA ad alto rischio:

  • Infrastrutture critiche (es. Trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini;
  • Formazione scolastica o professionale, che può determinare l'accesso all'istruzione e al percorso professionale della vita di qualcuno (es. Punteggio di esami);
  • Componenti di sicurezza dei prodotti (es. Applicazione AI nella chirurgia assistita da robot);
  • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo (es. Software di smistamento CV per procedure di assunzione);
  • Servizi privati ​​e pubblici essenziali (es. Valutazione del credito che nega ai cittadini l'opportunità di ottenere un prestito);
  • Applicazione della legge che può interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell'affidabilità delle prove);
  • Migrazione, asilo e gestione dei controlli alle frontiere (es. Verifica dell'autenticità dei documenti di viaggio);
  • Amministrazione della giustizia e processi democratici (es. Applicazione della legge a un insieme concreto di fatti).
  • I sistemi di IA ad alto rischio saranno soggetti a severi obblighi prima di poter essere immessi sul mercato:

Adeguati sistemi di valutazione e mitigazione del rischio;

  1. Alta qualità dei set di dati che alimentano il sistema per minimizzare i rischi e gli esiti discriminatori;
  2. Registrazione delle attività per garantire la tracciabilità dei risultati;
  3. Documentazione dettagliata che fornisce tutte le informazioni necessarie sul sistema e il suo scopo affinché le autorità possano valutarne la conformità;
  4. Informazione chiara e adeguata all'utente;
  5. Adeguate misure di sorveglianza umana per ridurre al minimo il rischio;
  6. Elevato livello di robustezza, sicurezza e precisione.

Nel complesso, l'obiettivo è creare "condizioni che consentano all'IA di crescere e svilupparsi. I prossimi passi dell'iniziativa politica comprendono l'adozione da parte del Parlamento europeo e degli Stati membri delle proposte della Commissione sull'approccio per l'IA, nonché dei prodotti meccanici, nella procedura legislativa. Una volta adottato, il Regolamento sarà direttamente applicabile in tutta l'UE.

Naturalmente, l'IA è già abbastanza prolifica in vari settori: i servizi finanziari sono un benefattore chiave della tecnologia.

L'UE prevede di destinare 1 miliardo di euro all'anno all'IA, attirando al contempo oltre 20 miliardi di euro di investimenti complessivi nell'IA, ogni anno.

Solo il tempo dirà se questo approccio strutturato guiderà una maggiore innovazione e adozione o se una politica più laissez-faire potrebbe essere superiore.

Le nuove regole, così come domande e risposte, sono disponibili qui.

- Annuncio pubblicitario -

Più da parte dell'autore

- CONTENUTI ESCLUSIVI -spot_img
- Annuncio pubblicitario -
- Annuncio pubblicitario -
- Annuncio pubblicitario -spot_img
- Annuncio pubblicitario -

Devi leggere

Articoli Recenti

- Annuncio pubblicitario -