Législation sur l'intelligence artificielle

Législation sur l'intelligence artificielle
Données clés

Présentation
Titre Proposition de Règlement du Parlement européen et du Conseil établissant des règles harmonisée concernant l'intelligence artificielle (législation sur l'intelligence artificielle) et modifiant certains actes législatifs de l'Union
Abréviation AI Act
Référence COM/2021/206 final
Organisation internationale Commission européenne
Type Proposition de règlement de l'Union européenne
Branche Droit de l'Union européenne, droit de l'informatique
Adoption et entrée en vigueur
Signature

Lire en ligne

Proposition de législation sur l'intelligence artificielle (sur Eur-Lex)

modifier Consultez la documentation du modèle

Page d’aide sur l’homonymie

Cet article concerne un projet de loi de l'Union européenne. Pour la législation sur l'intelligence artificielle en général, voir l'article Réglementation de l'intelligence artificielle.

La législation sur l'intelligence artificielle (en anglais Artificial Intelligence Act ou AI Act) est un règlement européen initialement proposé le 21 avril 2021 par la Commission européenne[1]. Elle a pour but d'introduire un cadre légal commun et de gérer les risques liés à l'intelligence artificielle (IA), qu'elle classe en fonction du type d'application (risque minime, limité, élevé ou inacceptable)[2], avec une catégorie spéciale pour l'IA générative à usage général comme ChatGPT[3].

Cette législation interdit les applications d'IA dans des domaines considérés comme représentant un risque « inacceptable » tels que la notation sociale, n'impose pas de restriction pour le niveau de risque « minimal », et impose des obligations notamment de transparence pour les niveaux intermédiaires[4].

Elle s'étend à toute entité fournissant un produit ou un service à base d'IA (avec quelques exceptions dont le secteur militaire[5]). Comme pour le Règlement Général de Protection des données (RGPD), la législation sur l'intelligence artificielle est extraterritoriale, s'appliquant aux produits utilisés dans l'Union Européenne mais impactant indirectement les fournisseurs étrangers[2].

La proposition de loi a été révisée à la suite de la montée en popularité de l'IA générative, qui ne rentrait pas dans les domaines d'application définis et dont les capacités générales présentent des enjeux particuliers[6]. Des réglementations plus contraignantes sont finalement prévues pour les systèmes d'IA puissants ayant un impact systémique[7].

Niveaux de risque

La législation sur l'intelligence artificielle classe les systèmes d'intelligence artificielle en quatre catégories, selon leur niveau de risque pour les droits fondamentaux dans l'Union européenne et la sécurité des personnes, des groupes, des sociétés et de la civilisation[2]. Cette classification des risques de l'intelligence artificielle vise à assurer un équilibre entre la promotion de l'innovation et la protection des droits et des intérêts des citoyens européens face aux défis posés par l'intelligence artificielle[8]. Les cinq catégories de risque sont :

  1. Inacceptable : Ce sont en général ceux qui portent atteinte aux valeurs et aux droits fondamentaux de l'Union européenne, tels que la dignité humaine, la démocratie ou l'État de droit. Ces systèmes sont interdits par la législation sur l'intelligence artificielle. Il s'agit par exemple des systèmes d'intelligence artificielle qui manipulent le comportement humain, des systèmes de notation sociale. Cela inclut aussi les systèmes d'identification biométrique (reconnaissance faciale notamment) dans des zones accessibles au public, s'ils fonctionnent en temps réel et à distance[9].
  2. Élevé : Cela concerne notamment les systèmes d'intelligence artificielle utilisés dans les secteurs de la santé, de l'éducation, du recrutement, de la gestion d'infrastructures critiques, du maintien de l'ordre ou de la justice[3]. Ces systèmes sont soumis à des exigences strictes en matière de qualité, de transparence, de supervision humaine et de sécurité[10]. Ils doivent être évalués avant leur mise sur le marché, ainsi qu'au cours de leur cycle de vie[3].
  3. IA générative à usage général : Cette catégorie a été créée en 2023 à la suite de la rapide montée en popularité de systèmes d'IA polyvalents comme ChatGPT. Les systèmes d'IA à fort impact et pouvant poser des risques systémiques doivent suivre un processus approfondi d'évaluation et rapporter tout incident grave à la Commission européenne, là où les systèmes plus faibles n'ont que des obligations de transparence[3].
  4. Limité : Ces systèmes sont soumis à des obligations de transparence visant à informer les utilisateurs qu'ils interagissent avec un système d'intelligence artificielle et et à leur permettre d'exercer leurs choix. Les intelligences artificielles concernées sont par exemple celles qui permettent de générer ou manipuler des images, du son ou des vidéos (deepfakes notamment)[3].
  5. Minimal : Cela concerne par exemple les systèmes d'IA utilisés pour les jeux vidéo ou les filtres anti-spam. Ces systèmes d'IA ne seront pas soumis à des obligations, mais les fournisseurs sont incités à suivre un code de conduite pouvant notamment traiter de durabilité environnementale, d'accessibilité aux personnes handicapées[9].

Chronologie

En février 2020, la Commission européenne publie le document « Livre blanc sur l'intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance »[11]. En octobre 2020 a lieu une période de débats entre dirigeants de l'Union Européenne. Le 21 avril 2021, la législation sur l'intelligence artificielle est officiellement proposée. Le 6 décembre 2022 le Conseil européen adopte l'orientation générale, ce qui permet d'entamer les négociations avec le Parlement européen. Le 9 décembre 2023, après trois jours de « négociation-marathon », le Conseil et le Parlement ont conclu un accord[12]. Le 13 mars 2024, le projet de règlement européen est adopté par la neuvième législature du Parlement européen, par 523 voix pour et 46 contre[13].

La mise en application est progressive. L'entrée en vigueur survient 20 jours après la publication dans le journal officiel[14], ce qui est prévu en mai 2024[15]. Après l'entrée en vigueur, il y a un délai avant la mise en application, et ce délai dépend du type d'application. Le délai est de 6 mois pour l'interdiction des applications d'IA à risque « inacceptable », de 9 mois pour les codes de bonne pratique, de 12 mois pour l'IA à usage générale, de 36 mois pour certaines obligations liées aux applications d'IA à risque « élevé », et de 24 mois pour tout le reste[16],[14].

Références

  1. Alice Vitard, « Comment Bruxelles veut promouvoir l'intelligence artificielle tout en régulant les risques », L'Usine Digitale,‎ (lire en ligne, consulté le )
  2. a b et c Julien Lausson, « Minime à inacceptable : l'Europe définit quatre niveaux de risques pour l'IA », sur Numerama, (consulté le )
  3. a b c d et e (en) « EU AI Act: first regulation on artificial intelligence », sur www.europarl.europa.eu, (consulté le )
  4. Lucie Lequier, « Tout comprendre à l’IA Act, le texte européen de réglementation de l’intelligence artificielle », sur Numerama, (consulté le )
  5. Léna Corot, « L’Europe prend les devants en régulant l'intelligence artificielle », L'Usine Nouvelle,‎ (lire en ligne, consulté le )
  6. (en) Martin Coulter, « What is the EU AI Act and when will regulation come into effect? », Reuters,‎ (lire en ligne)
  7. (en) Javier Espinoza, « EU agrees landmark rules on artificial intelligence », sur www.ft.com, (consulté le )
  8. Alex McFarland, « Disséquer la loi sur l'intelligence artificielle de l'UE : implications et réaction de l'industrie », sur Unite.ai, (consulté le )
  9. a et b Guillaume Renouard, « Intelligence artificielle : l’UE prévoit des garde-fous pour les applications les plus dangereuses », sur La Tribune, (consulté le )
  10. « Proposition de cadre réglementaire sur l’intelligence artificielle », sur digital-strategy.ec.europa.eu (consulté le )
  11. « Livre blanc sur l’intelligence artificielle - Une approche européenne axée sur l’excellence et la confiance », Commission européenne,‎ (lire en ligne [PDF])
  12. « Chronologie - Intelligence artificielle », sur www.consilium.europa.eu
  13. Les eurodéputés adoptent une loi encadrant l'intelligence artificielle, une législation unique au monde, Ingrid Vergara, Le Figaro, 13 mars 2024
  14. a et b (en) Emilia David, « The EU AI Act passed — now comes the waiting », sur The Verge, (consulté le )
  15. (en) Karen Gilchrist et Ruxandra Iordache, « World’s first major act to regulate AI passed by European lawmakers », sur CNBC, (consulté le )
  16. (en) « Artificial Intelligence Act: MEPs adopt landmark law », sur Parlement Européen, (consulté le )

Voir aussi

Articles connexes

Liens externes

  • Notices d'autoritéVoir et modifier les données sur Wikidata :
    • VIAF
  • Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l'intelligence artificielle (législation sur l'intelligence artificielle) sur EUR-Lex
  • Procédure 2021/0106(COD) sur ŒIL
v · m
Concepts
Techniques
Applications
Enjeux et philosophie
Histoire et événements
Science-fiction
Règlementation
Organisations
Ouvrages
  • icône décorative Portail du droit
  • icône décorative Portail de l’Union européenne
  • icône décorative Portail des technologies