Dilemme de Collingridge

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article est orphelin. Moins de trois articles lui sont liés ().

Vous pouvez aider en ajoutant des liens vers [[Dilemme de Collingridge]] dans les articles relatifs au sujet.

Le dilemme de Collingridge est un dilemme méthodologique dans lequel les efforts pour influencer ou contrôler le développement de la technologie se heurtent à un double problème[1] :

  • Un problème d'information : les impacts ne peuvent pas être facilement prédits tant que la technologie n'est pas largement développée et utilisée.
  • Un problème de pouvoir : le contrôle ou le changement est difficile lorsque la technologie s'est ancrée.

Le dilemme est posé par David Collingridge dans son livre The Social Control of Technology (1980)[2]. Il est un point de référence fondamental dans les débats sur l'évaluation des technologies [3].

Dans This Explains Everything, édité par John Brockman, le critique technologique Evgeny Morozov explique l'idée de Collingridge en citant celui-ci : « Lorsque le changement est facile, sa nécessité ne peut être prévue ; lorsque le besoin de changement est apparent, le changement est devenu coûteux, difficile et chronophage[trad 1],[4]. »

Dans The Pacing Problem, the Collingridge Dilemma & Technological Determinism d'Adam Thierer, chercheur principal au Mercatus Center de l'Université George Mason, le dilemme de Collingridge est lié au problème de rythme dans la réglementation technologique. Cela fait référence à la notion selon laquelle l'innovation technologique dépasse de plus en plus la capacité des lois et des réglementations à suivre, expliquée pour la première fois dans le livre de Larry Downes The Laws of Disruption (2009), dans lequel il déclare que « la technologie change de façon exponentielle, mais les systèmes sociaux, économiques et juridiques changent progressivement[trad 2] ». Dans l'essai de Thierer, celui-ci tente de corréler ces deux concepts en disant que « le "dilemme de Collingridge" est simplement une reformulation du problème de rythme, mais avec un plus grand accent sur les moteurs sociaux derrière le problème de rythme et une solution implicite au "problème" sous la forme d'un contrôle préventif des nouvelles technologies alors qu'elles sont encore jeunes et plus maniables[trad 3],[5] ».

Une solution au dilemme de Collingridge est le « principe de précaution ». Adam Thierer le définit comme la conviction que les nouvelles innovations ne doivent pas être adoptées « jusqu'à ce que leurs développeurs puissent prouver qu'elles ne causeront aucun préjudice aux individus, groupes, entités spécifiques, normes culturelles ou diverses lois, normes ou traditions existantes[trad 4],[5]. » S'ils ne le font pas, cette innovation devrait être « interdite, réduite, modifiée, jetée ou ignorée[trad 5],[6]. » Cette définition a été critiquée par Kevin Kelly, qui pense qu'un tel principe est mal défini [5] et est biaisé contre tout ce qui est nouveau car il élève considérablement le seuil d'acceptabilité de tout ce qui est innovant. Selon le philosophe américain Max More, le principe de précaution « est très bon pour une chose : arrêter le progrès technologique... non pas parce qu'il mène dans de mauvaises directions, mais parce qu'il ne mène dans aucune direction[trad 6],[6]. » Mais la Déclaration de Rio sur l'environnement et le développement définit le principe de précaution comme suit : « Lorsqu'il existe des menaces de dommages graves ou irréversibles, l'absence de certitude scientifique complète ne doit pas être invoquée pour justifier le report de mesures rentables visant à prévenir la dégradation de l'environnement[trad 7],[7]. » Ainsi, plutôt que conçue comme n'imposant aucun changement tant que la preuve de la sécurité n'est pas produite, cette définition du principe de précaution vise à légitimer les mesures de protection, en essayant d'éviter le désir des défenseurs d'une technologie de retarder la législation jusqu'à ce que des preuves irréfutables de préjudice puissent être produites.

Quant à lui, Collingridge ne proposait pas exactement le principe de précaution, mais plutôt l'application de « essais et erreurs intelligents[trad 8] », un processus par lequel le pouvoir décisionnel reste décentralisé, avec des changements gérables, des technologies et des infrastructures conçues pour être flexibles et un processus global orienté vers un apprentissage rapide tout en maintenant les coûts potentiels aussi bas que possible[8]. Collingridge préconise de veiller à ce que l'innovation se produise de manière plus progressive afin de mieux correspondre au rythme de l'apprentissage humain et d'éviter les technologies dont la conception était antithétique à un processus intelligent d'essais et d'erreurs.

Notes et références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Collingridge dilemma » (voir la liste des auteurs).
  1. (en) « When change is easy, the need for it cannot be foreseen; when the need for change is apparent, change has become expensive, difficult, and time-consuming. »
  2. (en) « technology changes exponentially, but social, economic, and legal systems change incrementally »
  3. (en) « the 'Collingridge dilemma' is simply a restatement of the pacing problem but with greater stress on the social drivers behind the pacing problem and an implicit solution to 'the problem' in the form of preemptive control of new technologies while they are still young and more manageable. »
  4. (en) « until their developers can prove that they will not cause any harm to individuals, groups, specific entities, cultural norms, or various existing laws, norms, or traditions »
  5. (en) « prohibited, curtailed, modified, junked, or ignored »
  6. (en) « is very good for one thing — stopping technological progress...not because it leads in bad directions, but because it leads in no direction at all. »
  7. (en) « Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation »
  8. (en) « Intelligent Trial and Error »
  1. « Un célèbre dilemme », Le Devoir,‎ (lire en ligne, consulté le ).
  2. (en)The Social Control of Technology (New York: St. Martin's Press; London: Pinter) (ISBN 0-312-73168-X)
  3. (de) Böhle, « DESIDERA-TA: Nachbemerkungen zur TA'09, der 9. Österreichischen TA-Konferenz. Wien, 8. Juni 2009 », TATuP: Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis, vol. 18, no 2,‎ , p. 121–125 (ISSN 2567-8833, DOI 10.14512/tatup.18.2.121, lire en ligne)
  4. (en)"This Explains Everything" (Harper Perennial, 2013, p.255, (ISBN 0062230174))
  5. a b et c (en-US) « The Pacing Problem, the Collingridge Dilemma & Technological Determinism », Technology Liberation Front,‎ (lire en ligne, consulté le )
  6. a et b (en) Kevin Kelly, What technology wants, Viking Press,
  7. (en) Rio Declaration on Environment and Development, United Nations,
  8. (en) The Management of Scale: Big Organizations, Big Technologies, Big Mistakes, Routledge,
  • icône décorative Portail des technologies