Oggi, la Legge europea sull’intelligenza artificiale (legge sull’IA), entra in vigore il primo regolamento completo al mondo sull'intelligenza artificiale. La legge sull’intelligenza artificiale è concepita per garantire che l’intelligenza artificiale sviluppata e utilizzata nell’UE sia affidabile, con garanzie a tutela dei diritti fondamentali delle persone. Il regolamento mira a istituire un mercato interno armonizzato per l’intelligenza artificiale nell’UE, incoraggiando l’adozione di questa tecnologia creando un ambiente favorevole per l’innovazione e gli investimenti.
L’AI Act introduce una definizione lungimirante di AI, basata su un approccio basato sulla sicurezza dei prodotti e sul rischio nell’UE:
- Rischio minimo: la maggior parte dei sistemi di intelligenza artificiale, come i sistemi di raccomandazione abilitati all'intelligenza artificiale e i filtri antispam, rientrano in questa categoria. Questi sistemi non sono soggetti a obblighi ai sensi della legge sull'AI a causa del rischio minimo per i cittadini. diritti e sicurezza. Le aziende possono adottare volontariamente ulteriori codici di condotta.
- Rischio specifico di trasparenza: Sistemi di intelligenza artificiale come i chatbot deve comunicare chiaramente agli utenti che stanno interagendo con una macchina. Alcuni contenuti generati dall’intelligenza artificiale, compresi i deep fake, devono essere etichettati come tali e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo tale che il contenuto sintetico di audio, video, testo e immagini sia contrassegnato in un formato leggibile dalla macchina e rilevabile come generato o manipolato artificialmente.
- Alto rischio: I sistemi di IA identificati come ad alto rischio dovranno conformarsi requisiti rigorosi, compresi sistemi di mitigazione del rischio, set di dati di alta qualità, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un elevato livello di robustezza, accuratezza e sicurezza informatica. I sandbox normativi faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di intelligenza artificiale conformi. Tali sistemi di intelligenza artificiale ad alto rischio includono, ad esempio, sistemi di intelligenza artificiale utilizzati per il reclutamento o per valutare se qualcuno ha diritto a ottenere un prestito o per gestire robot autonomi.
- Rischio inaccettabile: I sistemi di intelligenza artificiale saranno considerati una chiara minaccia per i diritti fondamentali delle persone vietato. Ciò include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti, come giocattoli che utilizzano l'assistenza vocale che incoraggiano comportamenti pericolosi dei minori, sistemi che consentono il "punteggio sociale" da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico (con limitate eccezioni).
A complemento di tale sistema, la legge sull'AI introduce anche norme per i cd modelli di IA generici, che sono modelli di intelligenza artificiale altamente capaci progettati per eseguire un'ampia varietà di attività come la generazione di testo simile a quello umano. I modelli di intelligenza artificiale per scopi generali sono sempre più utilizzati come componenti delle applicazioni di intelligenza artificiale. La legge sull’intelligenza artificiale garantirà la trasparenza lungo la catena del valore e affronterà i possibili rischi sistemici dei modelli più capaci.
Applicazione e rispetto delle regole dell'IA
Gli Stati membri hanno tempo fino al 2 agosto 2025 per designare le autorità nazionali competenti, che supervisioneranno l'applicazione delle norme per i sistemi di IA e svolgeranno attività di vigilanza del mercato. La Commissione Ufficio AI sarà l'organismo chiave di attuazione della legge sull'intelligenza artificiale a livello dell'UE, nonché l'autorità di attuazione delle norme per scopi generali Modelli AI.
Tre organi consultivi sosterranno l’attuazione delle regole. IL Comitato europeo per l’intelligenza artificiale garantirà un’applicazione uniforme della legge sull’AI in tutto il territorio EU Stati membri e fungerà da organismo principale per la cooperazione tra la Commissione e gli Stati membri. Un panel scientifico di esperti indipendenti offrirà consulenza tecnica e input sull'applicazione. In particolare, questo pannello può emettere avvisi all’Ufficio AI sui rischi associati ai modelli di IA di carattere generale. L'Ufficio AI può anche ricevere indicazioni da un forum consultivo, composto da un insieme eterogeneo di soggetti interessati.
Le aziende che non rispetteranno le regole verranno multate. Le multe potrebbero arrivare fino al 7% del fatturato annuo globale per violazioni di applicazioni IA vietate, fino al 3% per violazioni di altri obblighi e fino all’1.5% per aver fornito informazioni errate.
Passi successivi
La maggior parte delle norme della legge sull’AI entreranno in vigore il 2 agosto 2026. Tuttavia, i divieti relativi ai sistemi di IA ritenuti presentanti un rischio inaccettabile entreranno in vigore già dopo sei mesi, mentre le regole per i cosiddetti modelli di IA per scopi generali entreranno in vigore dopo 12 mesi.
Per superare il periodo transitorio prima della piena attuazione, la Commissione ha lanciato il Patto dell’AI. Questa iniziativa invita gli sviluppatori di intelligenza artificiale ad adottare volontariamente gli obblighi principali della legge sull’intelligenza artificiale prima dei termini legali.
La Commissione sta inoltre sviluppando linee guida per definire e dettagliare le modalità di attuazione della legge sull’intelligenza artificiale e facilitare strumenti di coregolamentazione come standard e codici di condotta. La Commissione ha aperto un invito a manifestare interesse partecipare all'elaborazione del primo Codice di condotta generale sull'IA, nonché a consultazione multilaterale dando l'opportunità a tutte le parti interessate di dire la loro sul primo Codice di condotta ai sensi della legge sull'AI.
sfondo
Su 9 dicembre 2023, il La Commissione ha accolto con favore l'accordo politico sulla legge sull’AI. Il 24 gennaio 2024 la Commissione ha varato un pacchetto di misure supportare le startup e le PMI europee nello sviluppo di un’intelligenza artificiale affidabile. Il 29 maggio 2024 la Commissione ha presentato l’Ufficio AI. Su 9 luglio 2024 il il regolamento modificato dell'impresa comune EuroHPC è entrato in vigore, consentendo così la creazione di fabbriche di intelligenza artificiale. Ciò consente di utilizzare supercomputer AI dedicati per l’addestramento di modelli GPAI (General Purpose AI).
Continua ricerca indipendente e basata sull'evidenza prodotta da il Centro comune di ricerca (JRC) è stato fondamentale nel definire le politiche dell’UE in materia di intelligenza artificiale e nel garantirne l’efficace attuazione.