Future of Life Institute

Future of Life Institute
Histoire
Fondation
mars 2014
Cadre
Sigle
(en) FLIVoir et modifier les données sur Wikidata
Type
Institut de rechercheVoir et modifier les données sur Wikidata
Forme juridique
Association 501(c)(3)Voir et modifier les données sur Wikidata
Domaine d'activité
Diminution des risques existentiels, notamment de l'intelligence artificielle
Bureau européen
Bruxelles
Pays
Belgique
Coordonnées
50° 50′ 35″ N, 4° 22′ 04″ E
Organisation
Fondateurs
Jaan Tallinn, Meia Chita-Tegmark (d), Max Tegmark, Anthony Aguirre (en)Voir et modifier les données sur Wikidata
Président
Max TegmarkVoir et modifier les données sur Wikidata
Personnes clés
Meia Chita-Tegmark (d)Voir et modifier les données sur Wikidata
Site web
futureoflife.org
Carte

modifier - modifier le code - modifier WikidataDocumentation du modèle

Le Future of Life Institute (FLI, Institut pour l'avenir de la vie) est une association de volontaires basée dans la région de Boston, cherchant à diminuer les risques existentiels menaçant l’humanité, en particulier ceux provenant de l’intelligence artificielle (IA). Parmi ses fondateurs et ses conseillers, on trouve les cosmologistes Max Tegmark et Stephen Hawking, le cofondateur de Skype Jaan Tallinn et l'entrepreneur Elon Musk.

Contexte

La mission du FLI est de catalyser et de soutenir les recherches et les initiatives pour préserver la vie et développer des visions optimistes de l'avenir, en particulier des façons positives de développer et d'utiliser de nouvelles technologies[1],[2]. Le FLI est tout spécialement concerné par les risques potentiels venant du développement de l'intelligence artificielle forte[3].

L'institut fut fondé en mars 2014 par Max Tegmark (cosmologiste au MIT) et son épouse, Jaan Tallinn (cofondateur de Skype) et Anthony Aguirre (en) (physicien). Parmi les consultants de l'institut, on trouve l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek, l'entrepreneur Elon Musk, ainsi que Alan Alda et Morgan Freeman[4],[5],[6]. Le FLI recrute par ailleurs localement (politique grassroots) des volontaires et de jeunes universitaires[3].

Évènements

Le 24 mai 2014, le FLI organisa une discussion sur l'avenir de la technologie (The Future of Technology: Benefits and Risks) au MIT, modérée par Alan Alda[3],[7],[8]. Les participants étaient George Church (biologiste), Ting Wu (généticien), Andrew McAfee (en) (économiste), Frank Wilczek (physicien) et Jaan Tallinn[9],[10]. La discussion portait sur de nombreux sujets, allant de l'avenir du génie biologique à l'éthique de l'intelligence artificielle et à la Singularité[3],[11],[12].

Du 2 au 5 janvier 2015, le FLI organisa et hébergea la conférence « The Future of AI: Opportunities and Challenges » (L’avenir de l’IA : opportunités et défis), avec pour objectif d'identifier les directions de recherche les plus prometteuses pour bénéficier des avantages de l'IA[13]. Durant la conférence, l'institut fit circuler une lettre ouverte sur l'intelligence artificielle qui fut par la suite signée par Stephen Hawking, Elon Musk, et de nombreux autres experts dont une centaine de sommités du monde de l'IA[14].

Programme de recherche global

Le 15 janvier 2015, le Future of Life Institute annonça que Elon Musk donnait 10 millions de dollars pour financer un programme global de recherche sur l'intelligence artificielle[15],[16],[17], lequel, contrairement à la plupart des recherches en IA, cherche surtout à la rendre plus sûre et plus utile à la société, plutôt que simplement plus puissante[18],[19].

Lettres ouvertes

En mars 2023, le FLI a publié une lettre ouverte appelant à une pause dans le développement de systèmes d'IA plus puissants que le GPT-4[20]. De même, en 2024, Max Tegmark, président de la FLI, a publié une lettre avec Mary Robinson, présidente de l'ONG Global Elders, dans Le Monde, exhortant les dirigeants mondiaux à prendre des mesures urgentes face aux menaces existentielles[21].

Références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Future of Life Institute » (voir la liste des auteurs).
  1. (en) « Transcending Complacency on Superintelligent Machines », Huffington Post, (consulté le ).
  2. (en) « CSER News: 'A new existential risk reduction organisation has launched in Cambridge, Massachusetts' », Centre for the Study of Existential Risk, (consulté le ).
  3. a b c et d (en) « Is Artificial Intelligence a Threat? », Chronicle of Higher Education (consulté le ).
  4. (en) « But What Would the End of Humanity Mean for Me? », The Atlantic, (consulté le ).
  5. (en) « Who we are », Future of Life Institute (consulté le ).
  6. (en) « Our science-fiction apocalypse: Meet the scientists trying to predict the end of the world », Salon (consulté le ).
  7. (en) « Events », Future of Life Institute (consulté le ).
  8. (en) « Machine Intelligence Research Institute - June 2014 Newsletter » (consulté le ).
  9. (en) « FHI News: 'Future of Life Institute hosts opening event at MIT' », Future of Humanity Institute, (consulté le ).
  10. (en) « The Future of Technology: Benefits and Risks », Personal Genetics Education Project, (consulté le ).
  11. (en) « Top 23 One-liners From a Panel Discussion That Gave Me a Crazy Idea », Diana Crow Science, (consulté le ).
  12. (en) « The Future of Technology: Benefits and Risks », MIT Tech TV, (consulté le ).
  13. (en) « The Future of AI: Opportunities and Challenges », Future of Life Institute (consulté le )
  14. (en) « Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter », Future of Life Institute
  15. (en) « Elon Musk donates $10M to keep AI beneficial », Future of Life Institute, .
  16. (en) « Elon Musk donates $10M to Artificial Intelligence research », SlashGear, .
  17. (en) « Elon Musk is Donating $10M of his own Money to Artificial Intelligence Research », Fast Company, .
  18. (en) « 2015 INTERNATIONAL GRANTS COMPETITION », Future of Life Institute.
  19. (en) « New International Grants Program Jump-Starts Research to Ensure AI Remains Beneficial », Future of Life Institute.
  20. (en-US) « Pause Giant AI Experiments: An Open Letter », sur Future of Life Institute (consulté le )
  21. « Crise climatique, pandémies, armes nucléaires ou risques liés à l’IA révèlent le manque de vision de trop de leaders contemporains », Le Monde.fr,‎ (lire en ligne, consulté le )

Voir aussi

Articles dans les médias

  • (en) Artificial Intelligence a Threat?, dans The Chronicle of Higher Education, avec des interviews de Max Tegmark, Jaan Tallinn et Viktoriya Krakovna.
  • (en) An Open Letter to Everyone Tricked into Fearing Artificial Intelligence, dans Popular Science (14 janvier 2015).
  • (en) Michael del Castillo, « Startup branding doesn’t hide apocalyptic undertones of letter signed by Elon Musk », Upstart Business Journal, .
  • (en) Edd Gent, « Ex Machina movie asks: is AI research in safe hands? », Engineering & Technology, .

Articles connexes

Liens externes

  • (en) Site officielVoir et modifier les données sur Wikidata
  • Ressource relative aux organisationsVoir et modifier les données sur Wikidata :
    • Registre de transparence de l'UE
  • Notices d'autoritéVoir et modifier les données sur Wikidata :
    • VIAF
    • GND
  • (en) The Future of Technology: Benefits and Risks - MIT Tech TV
  • icône décorative Portail du Massachusetts