12.9 C
Bruxelles
Samedi, mai 4, 2024
EuropeLoi sur l'IA de l'UE : premier règlement sur l'intelligence artificielle

Loi sur l'IA de l'UE : premier règlement sur l'intelligence artificielle

AVERTISSEMENT : Les informations et opinions reproduites dans les articles sont celles de leurs auteurs et relèvent de leur propre responsabilité. La publication dans The European Times ne signifie pas automatiquement l'approbation de l'opinion, mais le droit de l'exprimer.

DISCLAIMER TRADUCTIONS : Tous les articles de ce site sont publiés en anglais. Les versions traduites sont réalisées via un processus automatisé appelé traductions neuronales. En cas de doute, reportez-vous toujours à l'article original. Merci de votre compréhension.

L'utilisation de l'intelligence artificielle dans l'UE sera réglementée par la loi sur l'IA, la première loi globale sur l'IA au monde. Découvrez comment il vous protégera.

Dans le cadre de son stratégie digitale, l'UE veut réguler l'intelligence artificielle (IA) pour garantir de meilleures conditions de développement et d'utilisation de cette technologie innovante. L'IA peut créer de nombreux avantages, tels que de meilleurs soins de santé ; des transports plus sûrs et plus propres ; fabrication plus efficace; et une énergie moins chère et plus durable.

En avril 2021, la Commission européenne a proposé le premier EU cadre réglementaire de l'IA. Il indique que les systèmes d'IA pouvant être utilisés dans différentes applications sont analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs. Les différents niveaux de risque signifieront plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l'IA.

Ce que le Parlement veut dans la législation sur l'IA

La priorité du Parlement est de s'assurer que les systèmes d'IA utilisés dans l'UE sont sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Les systèmes d'IA devraient être supervisés par des personnes, plutôt que par l'automatisation, pour éviter des résultats néfastes.

Le Parlement souhaite également établir une définition uniforme et neutre sur le plan technologique de l'IA qui pourrait être appliquée aux futurs systèmes d'IA.

En savoir plus sur Les travaux du Parlement sur l'IA et le vision pour l'avenir de l'IA

Loi sur l'IA : des règles différentes pour différents niveaux de risque

Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l'intelligence artificielle. Bien que de nombreux systèmes d'IA présentent un risque minimal, ils doivent être évalués.


Risque inacceptable

Les systèmes d'IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent:

  • Manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets à commande vocale qui encouragent les comportements dangereux chez les enfants
  • Scoring social : classer les personnes en fonction de leur comportement, de leur statut socio-économique ou de leurs caractéristiques personnelles
  • Systèmes d'identification biométrique en temps réel et à distance, tels que la reconnaissance faciale


Certaines exceptions peuvent être autorisées : par exemple, les systèmes d'identification biométrique à distance "post" où l'identification a lieu après un délai important seront autorisés à poursuivre des crimes graves, mais uniquement après l'approbation du tribunal.

Risque élevé

Les systèmes d'IA qui affectent négativement la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories :

1) Les systèmes d'IA qui sont utilisés dans les produits relevant de la législation européenne sur la sécurité des produits. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.

2) Les systèmes d'IA relevant de huit domaines spécifiques qui devront être enregistrés dans un EU base de données:

  • Identification biométrique et catégorisation des personnes physiques
  • Gestion et exploitation des infrastructures critiques
  • Éducation et formation professionnelle
  • Emploi, gestion des travailleurs et accès au travail indépendant
  • Accès et jouissance des services privés essentiels et des services et avantages publics
  • Application de la loi
  • Gestion de la migration, de l'asile et du contrôle des frontières
  • Assistance dans l'interprétation juridique et l'application de la loi.



Tous les systèmes d'IA à haut risque seront évalués avant d'être mis sur le marché et également tout au long de leur cycle de vie.

IA générative


L'IA générative, comme ChatGPT, devrait se conformer aux exigences de transparence :

  • Divulguer que le contenu a été généré par l'IA
  • Concevoir le modèle pour l'empêcher de générer du contenu illégal
  • Publier des résumés des données protégées par le droit d'auteur utilisées pour la formation

Risque limité

Les systèmes d'IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, l'utilisateur peut alors décider s'il souhaite continuer à l'utiliser. Les utilisateurs doivent être informés lorsqu'ils interagissent avec l'IA. Cela inclut les systèmes d'IA qui génèrent ou manipulent du contenu image, audio ou vidéo, par exemple des deepfakes.

Prochaines étapes

Le Parlement devrait arrêter sa position de négociation en juin 2023, après quoi des discussions commenceront avec les pays de l'UE au sein du Conseil sur la forme finale de la loi.

L'objectif est de parvenir à un accord d'ici la fin de l'année.

    - Publicité -

    Plus de l'auteur

    - CONTENU EXCLUSIF -spot_img
    - Publicité -
    - Publicité -
    - Publicité -spot_img
    - Publicité -

    Doit lire

    Derniers articles

    - Publicité -