Régulation des algorithmes

La régulation des algorithmes, ou régulation algorithmique, est la création de lois, de règles et de politiques du secteur public pour la promotion et la régulation des algorithmes, en particulier dans l'intelligence artificielle et l'apprentissage automatique[1],[2].

Pour le sous-ensemble d'algorithmes d'IA, le terme régulation de l'intelligence artificielle est utilisé. Le paysage réglementaire et politique de l'intelligence artificielle (IA) est un problème émergent dans les juridictions du monde entier, y compris dans l'Union européenne[3]. La réglementation de l'IA est considérée comme nécessaire à la fois pour encourager l'IA et gérer les risques associés, mais il s'agit d'un défi[4].

Un autre sujet émergent est la réglementation des algorithmes de blockchain et il est associé à la réglementation des algorithmes d'IA[5]. De nombreux pays ont adopté des réglementations sur les échanges à haute fréquence, qui évolue en raison des progrès technologiques vers le domaine des algorithmes d'IA[6],[7].

La motivation pour la régulation des algorithmes est l'appréhension de perdre le contrôle sur les algorithmes, dont l'impact sur la vie humaine augmente. Plusieurs pays ont déjà introduit des réglementations en cas de calcul automatisé du pointage de crédit - le droit à l'explication est obligatoire pour ces algorithmes [8],[9]. Des problèmes de partialité, de transparence et d'éthique sont apparus en ce qui concerne l'utilisation d'algorithmes dans divers domaines allant de la justice pénale [10] aux soins de santé [11] beaucoup craignent que l'intelligence artificielle ne reproduise les inégalités sociales existantes selon la race, la classe, le sexe et lignes de sexualité.

Régulation de l'intelligence artificielle

Débat public

En 2016, Joy Buolamwini a fondé Algorithmic Justice League après une expérience personnelle avec un logiciel de détection faciale biaisé afin de sensibiliser aux implications sociales de l'intelligence artificielle à travers l'art et la recherche[12].

En 2017, Elon Musk a plaidé pour une régulation des algorithmes dans le contexte du risque existentiel de l'intelligence artificielle générale[13],[14],[15]. Selon NPR, le PDG de Tesla n'était "clairement pas ravi" de plaider en faveur d'un examen gouvernemental qui pourrait avoir un impact sur son propre secteur, mais estimait que les risques d'une absence totale de surveillance étaient trop élevés : "Normalement, la façon dont les réglementations sont établies est lorsqu'un de mauvaises choses se produisent, il y a un tollé public et, après de nombreuses années, une agence de réglementation est créée pour réglementer cette industrie. Cela prend une éternité. Cela, dans le passé, a été mauvais mais pas quelque chose qui représentait un risque fondamental pour l'existence de la civilisation." [13].

En réponse, certains politiciens ont exprimé leur scepticisme quant à la sagesse de réglementer une technologie qui est encore en développement[16]. Répondant à la fois à Elon Musk et aux propositions de février 2017 des législateurs de l'Union européenne visant à réglementer l'IA et la robotique, le PDG d'Intel, Brian Krzanich, a fait valoir que l'intelligence artificielle en était à ses balbutiements et qu'il était trop tôt pour réglementer la technologie[17]. Au lieu d'essayer de réglementer la technologie elle-même, certains chercheurs suggèrent plutôt de développer des normes communes comprenant des exigences pour le test et la transparence des algorithmes, éventuellement en combinaison avec une certaine forme de garantie[18]. Une suggestion a été de développer un conseil de gouvernance mondial pour réglementer le développement de l'IA[19]. En 2020, l'Union européenne a publié son projet de document de stratégie pour la promotion et la réglementation de l'IA[20].

La collusion tacite algorithmique est une pratique antitrust légalement douteuse commise au moyen d'algorithmes, que les tribunaux ne sont pas en mesure de poursuivre[21]. Ce danger concerne les scientifiques et les régulateurs de l'UE, des États-Unis et d'ailleurs[21]. La commissaire européenne et Margrethe Vestager a mentionné un exemple précoce de collusion tacite algorithmique dans son discours sur « Algorithmes et collusion » le 16 mars 2017, décrit comme suit[22] :

"Il y a quelques années, deux entreprises vendaient un manuel intitulé The Making of a Fly. L'un de ces vendeurs a utilisé un algorithme qui correspondait essentiellement au prix de son rival. Ce rival avait un algorithme qui fixait toujours un prix 27% plus élevé que le premier. Le résultat a été que les prix ont continué à monter en flèche, jusqu'à ce que finalement quelqu'un remarque ce qui se passait et ajuste le prix manuellement. À ce moment-là, le livre se vendait - ou plutôt ne se vendait pas - pour 23 millions de dollars l'exemplaire."

En 2018, les Pays-Bas ont utilisé un système algorithmique SyRI (System Risico Indicatie) pour détecter les citoyens perçus comme étant à haut risque de commettre une fraude à l'aide sociale, ce qui a discrètement signalé des milliers de personnes aux enquêteurs[23]. Cela a provoqué une protestation publique. Le tribunal de district de La Haye a fermé SyRI en se référant à l'article 8 de la Convention européenne des droits de l'homme (CEDH)[24].

En 2020, des algorithmes attribuant des notes d'examen aux étudiants au Royaume-Uni ont déclenché une protestation ouverte sous la bannière « Fuck the algorithm »[25]. Cette protestation a été couronnée de succès et les notes ont été retirées[26].

Mise en œuvre

La législation et la réglementation en matière d'IA peuvent être divisées en trois thèmes principaux, à savoir la gouvernance des systèmes de renseignement autonomes, la responsabilité et l'imputabilité des systèmes, et les questions de confidentialité et de sécurité[4]. L'élaboration de stratégies du secteur public pour la gestion et la réglementation de l'IA est de plus en plus jugée nécessaire aux niveaux local, national [27] et international[20] et dans divers domaines, de la gestion des services publics[28] à l'application de la loi[20], le secteur financier[27], la robotique[29], l'armée[30], et le droit international[31],[32]. Il y a de nombreuses inquiétudes quant au manque de visibilité et de surveillance de l'IA dans ces secteurs[33]. Dans le secteur financier, par exemple, des appels ont été lancés au Consumer Financial Protection Bureau pour qu'il examine de plus près le code source et les algorithmes lors de la vérification des données non publiques des institutions financières[34].

Aux États-Unis, le 7 janvier 2019, à la suite d'un décret exécutif sur le « Maintien du leadership américain en matière d'intelligence artificielle », le Bureau de la politique scientifique et technologique de la Maison Blanche a publié un projet de directives pour la réglementation des applications d'intelligence artificielle, qui comprend dix principes pour agences des États-Unis lorsqu'il s'agit de décider si et comment réglementer l'IA[35],[36]. En réponse, l'Institut national des normes et de la technologie a publié un document de position[37], la Commission de sécurité nationale sur l'intelligence artificielle a publié un rapport provisoire[38], et le Conseil de l'innovation de la défense a émis des recommandations sur l'utilisation éthique de l'IA[39].

En 2016, la Chine a publié une prise de position remettant en question l'adéquation du droit international existant pour faire face à l'éventualité d'armes entièrement autonomes, devenant ainsi le premier membre permanent du Conseil de sécurité de l'ONU à aborder la question [31] et conduisant à des propositions de réglementation mondiale[40]. Aux États-Unis, le pilotage de la réglementation de l'IA liée à la sécurité est assuré par la National Security Commission on Artificial Intelligence[41].

Régulation des algorithmes de blockchain

Les systèmes de blockchain fournissent des enregistrements transparents et fixes des transactions et contredisent ainsi l'objectif du RGPD européen, qui est de donner aux individus le contrôle total de leurs données privées[42],[43].

En mettant en œuvre le décret sur le développement de l'économie numérique, la Biélorussie est devenue le tout premier pays à légaliser les contrats intelligents. L'avocat biélorusse Denis Aleinikov est considéré comme l'auteur d'un concept juridique de contrat intelligent introduit par le décret[44],[45],[46]. Il existe de solides arguments selon lesquels les lois des États américains existantes constituent déjà une base solide pour l'applicabilité des contrats intelligents - l'Arizona, le Nevada, l'Ohio et le Tennessee ont modifié leurs lois spécifiquement pour permettre néanmoins l'applicabilité des contrats basés sur la blockchain[47].

Dans la culture populaire

En 1942, l'auteur Isaac Asimov aborde la régulation des algorithmes en introduisant les trois lois fictives de la robotique :

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  3. Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi[48].

La principale alternative à la réglementation est l'interdiction, et l'interdiction des algorithmes est actuellement hautement improbable. Cependant, dans l'univers Dune de Frank Herbert, les machines pensantes sont un terme collectif désignant l'intelligence artificielle, qui ont été complètement détruites et interdites après une révolte connue sous le nom de Butlerian Jihad[49] :

JIHAD, BUTLERIAN : (voir aussi Grande Révolte) — la croisade contre les ordinateurs, les machines pensantes et les robots conscients commencée en 201 av. J.-C. et conclue en 108 av. d'un esprit humain." [50]

Articles connexes

Notes et références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Regulation of algorithms » (voir la liste des auteurs).
  1. (en) Navneet Alang, « Algorithms have gotten out of control. It's time to regulate them. », The Week,‎ (lire en ligne)
  2. Martini, « FUNDAMENTALS OF A REGULATORY SYSTEM FOR ALGORITHM-BASED PROCESSES » (consulté le )
  3. Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body., Regulation of artificial intelligence in selected jurisdictions. (OCLC 1110727808)
  4. a et b Wirtz, Weyerer et Geyer, « Artificial Intelligence and the Public Sector—Applications and Challenges », International Journal of Public Administration, vol. 42, no 7,‎ , p. 596–615 (ISSN 0190-0692, DOI 10.1080/01900692.2018.1498103, lire en ligne)
  5. (en) Fotios Fitsilis, Imposing Regulation on Advanced Algorithms, Springer International Publishing, (ISBN 978-3-030-27978-3, lire en ligne)
  6. (en) Prakhar Ganesh, « High Frequency Trading (HFT) with AI : Simplified », Towards data science,‎ (lire en ligne, consulté le )
  7. (en) « Top Artificial Intelligence Algorithmic Trading Software Solutions For Serious ROI », Hackernoon,‎ (lire en ligne, consulté le )
  8. Consumer Financial Protection Bureau, §1002.9(b)(2)
  9. Edwards et Veale, « Enslaving the Algorithm: From a 'Right to an Explanation' to a 'Right to Better Decisions'? », IEEE Security & Privacy, vol. 16, no 3,‎ , p. 46–54 (DOI 10.1109/MSP.2018.2701152, lire en ligne)
  10. (en) « AI is sending people to jail—and getting it wrong », MIT Technology Review (consulté le )
  11. (en) Ledford, « Millions of black people affected by racial bias in health-care algorithms », Nature, vol. 574, no 7780,‎ , p. 608–609 (DOI 10.1038/d41586-019-03228-6, lire en ligne)
  12. (en) Bryan Lufkin, « Algorithmic justice », British Broadcasting Corporation,‎ (lire en ligne, consulté le )
  13. a et b (en) Camila Domonoske, « Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk' », National Public Radio,‎ (lire en ligne, consulté le )
  14. « Elon Musk: regulate AI to combat 'existential threat' before it's too late », The Guardian,‎ (lire en ligne, consulté le )
  15. « A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says », CNBC,‎ (lire en ligne, consulté le )
  16. (en) Samuel Gibbs, « Elon Musk: regulate AI to combat 'existential threat' before it's too late », The Guardian,‎ (lire en ligne, consulté le )
  17. (en) Arjun Kharpal, « A.I. is in its ‘infancy’ and it’s too early to regulate it, Intel CEO Brian Krzanich says », CNBC,‎ (lire en ligne, consulté le )
  18. Kaplan et Haenlein, « Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence », Business Horizons, vol. 62,‎ , p. 15–25 (DOI 10.1016/j.bushor.2018.08.004)
  19. Boyd et Wilson, « Rapid developments in Artificial Intelligence: how might the New Zealand government respond? », Policy Quarterly, vol. 13, no 4,‎ (ISSN 2324-1101, DOI 10.26686/pq.v13i4.4619)
  20. a b et c White Paper: On Artificial Intelligence – A European approach to excellence and trust, Brussels, European Commission, , 1 p. (lire en ligne)
  21. a et b (en) Ezrachi et Stucke, « Sustainable and unchallenged algorithmic tacit collusion », Northwestern Journal of Technology & Intellectual Property, vol. 17, no 2,‎ (ISSN 1549-8271)
  22. VESTAGER, « Algorithms and competition » [archive du ] [Bundeskartellamt 18th Conference on Competition], European Commission, (consulté le )
  23. (en) « Europe Limits Government by Algorithm. The US, Not So Much », Wired (consulté le )
  24. (en) Haag, « ECLI:NL:RBDHA:2020:1878, Rechtbank Den Haag, C-09-550982-HA ZA 18-388 (English) », uitspraken.rechtspraak.nl, (consulté le )
  25. (en-US) Tom Simonite, « Skewed Grading Algorithms Fuel Backlash Beyond the Classroom », Wired,‎ (lire en ligne, consulté le )
  26. (de) « Fuck the Algorithm : Jugendproteste in Großbritannien gegen maschinelle Notenvergabe erfolgreich », Netzpolitik,‎ (lire en ligne, consulté le )
  27. a et b Bredt, « Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies », Frontiers in Artificial Intelligence, vol. 2,‎ (ISSN 2624-8212, DOI 10.3389/frai.2019.00016)
  28. Wirtz et Müller, « An integrated artificial intelligence framework for public management », Public Management Review, vol. 21, no 7,‎ , p. 1076–1100 (ISSN 1471-9037, DOI 10.1080/14719037.2018.1549268)
  29. Iphofen et Kritikos, « Regulating artificial intelligence and robotics: ethics by design in a digital society », Contemporary Social Science,‎ , p. 1–15 (ISSN 2158-2041, DOI 10.1080/21582041.2018.1563803)
  30. United States. Defense Innovation Board., AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense (OCLC 1126650738)
  31. a et b (en) David Emery, « Robots with Guns: The Rise of Autonomous Weapons Systems », Snopes,‎ (lire en ligne, consulté le ).
  32. Bento, « No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law », Université Harvard (thèse),‎ (lire en ligne, consulté le )
  33. MacCarthy, « AI Needs More Regulation, Not Less », Brookings
  34. Rory Van Loo, « Technology Regulation by Default: Platforms, Privacy, and the CFPB », Georgetown Law Technology Review, vol. 2, no 1,‎ , p. 542-543 (lire en ligne)
  35. (en-US) « AI Update: White House Issues 10 Principles for Artificial Intelligence Regulation », Inside Tech Media, (consulté le )
  36. Memorandum for the Heads of Executive Departments and Agencies, Washington, D.C., White House Office of Science and Technology Policy, (lire en ligne)
  37. U.S. Leadership in AI: A Plan for Federal Engagement in Developing Technical Standards and Related Tools, National Institute of Science and Technology, (lire en ligne)
  38. NSCAI Interim Report for Congress, The National Security Commission on Artificial Intelligence, (lire en ligne)
  39. AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense, Washington, DC, Defense Innovation Board, (lire en ligne)
  40. Baum, « Countering Superintelligence Misinformation », Information, vol. 9, no 10,‎ , p. 244 (ISSN 2078-2489, DOI 10.3390/info9100244)
  41. Stefanik, « H.R.5356 – 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018 », www.congress.gov, (consulté le )
  42. « A recent report issued by the Blockchain Association of Ireland has found there are many more questions than answers when it comes to GDPR » [archive du ], siliconrepublic.com, (consulté le )
  43. (de) « Blockchain and the General Data Protection Regulation - Think Tank », www.europarl.europa.eu (consulté le )
  44. (en) « Belarus adopts crypto-currency law to woo foreign investors », Reuters,‎ (lire en ligne, consulté le )
  45. « Belarus Enacts Unique Legal Framework for Crypto Economy Stakeholders », Deloitte,
  46. Patricolo, « ICT Given Huge Boost in Belarus », Emerging Europe,
  47. (en) Levi, Lipton et Vasile, « Blockchain Laws and Regulations | 13 Legal issues surrounding the use of smart contracts | GLI », GLI - Global Legal InsightsInternational legal business solutions, (consulté le )
  48. (en) Isaac Asimov, I, Robot, New York City, The Isaac Asimov Collection, (ISBN 978-0-385-42304-5), « Runaround », p. 40 :

    « This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law. »

  49. Frank Herbert, Dune Messiah,
  50. Frank Herbert, Dune, Philadelphia, Chilton Books, (lire en ligne), « Terminology of the Imperium: JIHAD, BUTLERIAN »
  • icône décorative Portail de la politique
  • icône décorative Portail de l’informatique