Intelligence artificielle symbolique

Cet article est une ébauche concernant l’informatique théorique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

L'intelligence artificielle symbolique est le terme désignant l'ensemble des méthodes en intelligence artificielle (IA) reposant sur la logique et des représentations symboliques de haut niveau (lisibles par l'homme) des problèmes[1]. Elle s'oppose à l'autre grande approche développée au XXe siècle : l'intelligence artificielle connexionniste, mais une tendance au XXIe siècle est de fusionner ces deux approches pour aboutir à une IA neuro-symbolique bénéficiant des qualités de ces deux types d'IA, sans leurs inconvénients.

Histoire

L'IA symbolique utilise des outils tels que la programmation logique, les règles de production, les réseaux sémantiques ou les cadres.

Elle a développé des applications telles que les systèmes experts, le calcul symbolique, les démonstrateurs de théorèmes automatisés, les ontologies, le web sémantique, les systèmes de planification automatisée.

Le paradigme de l'IA symbolique a conduit à des avancées en algorithmes de recherche, langages de programmation symboliques, agents intelligents, systèmes multi-agents, Web sémantique. Il a mis en évidence les forces et les limites des connaissances formelles et des systèmes de raisonnement.


Les chercheurs des années 1960 et 1970 étaient convaincus que les approches symboliques parviendraient à terme à créer une machine dotée d’une intelligence artificielle générale, et considéraient cela comme le but ultime de leur discipline[2]. L’IA symbolique est resté le paradigme dominant de la recherche en IA du milieu des années 1950 jusqu’au milieu des années 1990[3].

Un premier boom, avec des premiers succès tels que le Logic Theorist et le programme de Arthur Samuel pour jouer aux dames, a conduit à des attentes et des promesses irréalistes. S'ensuit une chute des financements, et le premier « hiver de l'IA »[4],[5]. Un deuxième boom (1969-1986) s’est produit avec l’essor des systèmes experts, et leur promesse d'exploiter les compétences des experts qui enthousiasme les entreprises[6],[7]. Ce boom, et quelques premiers succès par exemple avec XCON à DEC, ont été suivis par une déception ultérieure[8]. Il y a eu des problèmes liés aux difficultés à acquérir les connaissances, au maintien de vastes bases de connaissances et à la fragilité des systèmes dès que l'environnement change. Un deuxième « hiver de l'IA » a suivi de 1988 à 2011[9].

Ensuite, les chercheurs et théoriciens de l'IA se sont concentrés sur la résolution des problèmes liés à la gestion de l’incertitude et à l’acquisition de connaissances[10]. L'incertitude a été abordée à l'aide de méthodes formelles telles que les modèles de Markov cachés, le raisonnement bayésien et l'apprentissage relationnel statistique[11],[12].

L'apprentissage automatique symbolique a abordé le problème de l'acquisition de connaissances avec des contributions telles que les espaces de versions, l'apprentissage PAC, l'apprentissage par arbre de décision ID3, l'apprentissage à partir de cas et la programmation logique inductive pour apprendre les relations dans les données[10].

Les réseaux de neurones, une approche sub-symbolique, ont été poursuivis dès le début de l'IA mais ont réapparu avec force en 2012. Les premiers exemples sont les travaux d'apprentissage des perceptrons de Rosenblatt, les travaux de rétropropagation de Rumelhart, Hinton et Williams[13] et les travaux sur les réseaux neuronaux convolutifs de LeCun et ses associés en 1989[14]. Cependant, les réseaux de neurones n'ont été considérés comme efficaces que vers 2012, quand les chercheurs ont commencé à exploiter les cartes graphiques pour décupler les capacités de calcul[15]. Au cours des années suivantes, l'apprentissage profond a connu un succès spectaculaire dans la vision par ordinateur, la reconnaissance vocale, la synthèse vocale, la génération d'images et de la traduction automatique.

Depuis 2020, à mesure que les difficultés inhérentes aux biais, à l'explicabilité, à l'interprétabilité et à la robustesse sont devenues plus évidentes avec les approches d'apprentissage en profondeur ; un nombre croissant de chercheurs en IA ont appelé à combiner le meilleur des approches symboliques et des réseaux neuronaux[16],[17], et à aborder les domaines avec lesquels les deux approches ont des difficultés, comme le raisonnement de bon sens[15].

Références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Symbolic artificial intelligence » (voir la liste des auteurs).
  1. (en) Marta Garnelo et Murray Shanahan, « Reconciling deep learning with symbolic artificial intelligence: representing objects and relations », Current Opinion in Behavioral Sciences, vol. 29,‎ , p. 17–23 (DOI 10.1016/j.cobeha.2018.12.010, S2CID 72336067, lire en ligne).
  2. Russell et Norvig 2021, p. 24.
  3. Kolata 1982.
  4. Kautz 2022, p. 107-109.
  5. Russell et Norvig 2021, p. 19.
  6. Russell et Norvig 2021, p. 22-23.
  7. Kautz 2022, p. 109-110.
  8. Kautz 2020, p. 109-110.
  9. Kautz 2022, p. 110.
  10. a et b Kautz 2022, p. 110-111.
  11. Russell et Norvig 2021, p. 25.
  12. Kautz 2022, p. 111.
  13. (en) David E. Rumelhart, Geoffrey E. Hinton et Ronald J. Williams, « Learning representations by back-propagating errors », Nature, vol. 323, no 6088,‎ , p. 533–536 (ISSN 1476-4687, DOI 10.1038/323533a0, Bibcode 1986Natur.323..533R, S2CID 205001834).
  14. (en) Y. LeCun, B. Boser, I. Denker et D. Henderson, « Backpropagation Applied to Handwritten Zip Code Recognition », Neural Computation, vol. 1, no 4,‎ , p. 541–551 (DOI 10.1162/neco.1989.1.4.541, S2CID 41312633).
  15. a et b Marcus et Davis 2019.
  16. (en) Francesca Rossi, « Thinking Fast and Slow in AI », AAAI (consulté le ).
  17. (en) Bart Selman, « AAAI Presidential Address: The State of AI », AAAI (consulté le ).

Bibliographie

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

  • (en) Henry Kautz, « The Third AI Summer: AAAI Robert S. Engelmore Memorial Lecture », AI Magazine, vol. 43, no 1,‎ , p. 93–104 (ISSN 2371-9621, DOI 10.1609/aimag.v43i1.19122, S2CID 248213051, lire en ligne, consulté le ). Ouvrage utilisé pour la rédaction de l'article
  • (en) G. Kolata, « How can computers get common sense? », Science, vol. 217, no 4566,‎ , p. 1237–1238 (PMID 17837639, DOI 10.1126/science.217.4566.1237, Bibcode 1982Sci...217.1237K). Ouvrage utilisé pour la rédaction de l'article
  • (en) Gary Marcus et Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust, New York, Pantheon Books, (ISBN 9781524748258, OCLC 1083223029). Ouvrage utilisé pour la rédaction de l'article
  • (en) Stuart J. Russell et Peter Norvig, Artificial Intelligence: A Modern Approach, Hoboken, Pearson, (ISBN 978-0-13-461099-3, LCCN 20190474). Ouvrage utilisé pour la rédaction de l'article
v · m
Concepts
Techniques
Applications
Enjeux et philosophie
Histoire et événements
Science-fiction
Règlementation
Organisations
Ouvrages
  • icône décorative Portail de l'informatique théorique