Sesgo de normalidad

El sesgo de normalidad, parálisis de análisis o efecto avestruz es una tendencia distorsionada de las personas a creer que las cosas siempre funcionarán de la manera en que normalmente han funcionado y por lo tanto a subestimar tanto la probabilidad de un desastre como sus posibles efectos. Esto puede dar lugar a situaciones en las que las personas individualmente no se preparan adecuadamente para los desastres y en escala mayor da lugar al fracaso de los gobiernos para incluir a la población en los preparativos para desastres. Según los informes, alrededor del 70% de las personas muestran un sesgo de normalidad durante un desastre.[1]

Etapas

En 2008 se plantean patrones de respuesta, que son comunes en las personas en los desastres y muestran tres fases de respuesta: negación, deliberación y el momento decisivo. En la fase llamada "negación", se descubrió que era probable que las personas negaran que estaba ocurriendo un desastre. Toma tiempo para que el cerebro procese la información y reconozca que un desastre es una amenaza. En la fase de "deliberación", la gente tiene que decidir qué hacer. Si una persona no tiene un plan establecido, esto causa un problema grave debido a los efectos del estrés que amenaza la vida en el cuerpo (por ejemplo, visión en túnel, exclusión de audio, dilataciones del tiempo, experiencias fuera del cuerpo o habilidades motoras reducidas) limitar la capacidad de un individuo para percibir información y hacer planes. Ripley afirma que en la tercera y última fase, el "momento decisivo", una persona debe actuar con rapidez y decisión. El no hacerlo puede resultar en lesiones o la muerte. Cuanto más rápido alguien pueda superar las fases de negación y deliberación, más rápido llegará al momento decisivo y comenzará a actuar.[2]

Efectos

El "efecto avestruz" puede manifestarse en varios desastres, que van desde accidentes automovilísticos hasta eventos históricos mundiales. El estrés ralentiza el procesamiento de la información, y cuando el cerebro no puede encontrar una respuesta aceptable a una situación, se produce una fijación en una solución única predeterminada. La falta de preparación para los desastres a menudo conduce a refugios, suministros y planes de evacuación inadecuados. Por lo tanto, el sesgo de normalidad puede hacer que las personas subestimen drásticamente los efectos del desastre y asuman que todo saldrá bien. Los efectos negativos del sesgo de normalidad se pueden combatir a través de las cuatro etapas de la respuesta al desastre: preparación, advertencia, impacto y consecuencias.

El sesgo de normalidad también se ha denominado parálisis de análisis, el "efecto avestruz" [3]​ y pánico negativo.[4]​ Lo opuesto al sesgo de normalidad es la reacción exagerada, o el peor de los casos de sesgo,[5][6]​ en el que las pequeñas desviaciones de la normalidad se tratan como señales de una catástrofe inminente.

Causas

El "efecto avestruz" puede ser causado en parte por la forma en que el cerebro procesa nuevos datos. La investigación sugiere que, incluso cuando el cerebro está en calma, tarda entre 8 y 10 segundos en procesar la nueva información. El estrés ralentiza el proceso y cuando el cerebro no puede encontrar una respuesta aceptable a una situación, se fija en una solución única y predeterminada, que puede ser correcta o no. Una razón evolutiva para esta respuesta podría ser que la parálisis "hacerse el muerto" le da a un animal una oportunidad de sobrevivir a un ataque y es menos probable que los depredadores vean presas que no se mueven..[7]

Las personas que promueven escenarios apocalípticos futuros, han citado el sesgo de normalidad como una razón principal por la que otros se burlan de sus pronunciamientos. Por ejemplo, los sobrevivientes que temen que Estados Unidos pronto descienda al totalitarismo, citan el sesgo de normalidad como la razón por la cual la mayoría de los estadounidenses no comparten sus preocupaciones. Del mismo modo, los cristianos fundamentalistas usan el sesgo de normalidad para explicar por qué otros se burlan de sus creencias sobre el "Fin de los tiempos".

Sesgo cognitivo

Artículo principal: Sesgo cognitivo

Un sesgo cognitivo es un error repetitivo o básico en pensar, evaluar, recordar y otros procesos cognitivos.[8]​ Es decir, un patrón de desviación de los estándares en el juicio, por el cual las inferencias se pueden crear sin razón.[9]​ Las personas crean su propia realidad social subjetiva, a partir de sus propias percepciones,[10]​ su visión del mundo puede dictar su comportamiento.[11]​ Por lo tanto, los sesgos cognitivos a veces pueden conducir a una distorsión perceptiva, juicio impreciso, interpretación ilógica o lo que en general se llama irracionalidad.[12][13][14]

Véase también

  • Pandemia de COVID-19
  • Disonancia cognitiva

Referencias

  1. Inglis-Arkell, Esther (2 de mayo de 2013). «The frozen calm of normalcy bias». Gizmodo. Consultado el 23 de mayo de 2017.  Cites:
    • Omer, Haim; Alon, Nahman (1994). «The continuity principle: A unified approach to disaster and trauma». American Journal of Community Psychology 22 (2): 273-287. PMID 7977181. doi:10.1007/BF02506866. 
    • Matsuda, Iware (1993). «Loss of human lives induced by the Cyclone of 29–30 April, 1991 in Bangladesh». GeoJournal 31 (4): 319-325. doi:10.1007/BF00812781. Consultado el 11 de febrero de 2020. 
    • Horlick-Jones, T.; Amendola, A.; Casale, R. (1995). Natural Risk and Civil Protection. ISBN 9780419199700. 
    • Ripley, Amanda (25 de abril de 2005). «How to Get Out Alive». TIME Magazine. 
  2. Ripley, Amanda (10 de junio de 2008). The Unthinkable: Who Survives When Disaster Strikes – and Why. Potter/Ten Speed Press/Harmony. ISBN 978-0-307-44927-6. 
  3. Ince, Wyne (23 de octubre de 2017). Thoughts of Life and Time. Wyne Ince. p. 122. ISBN 978-1-973727-15-6. Consultado el 20 de diciembre de 2017. 
  4. McRaney, David (2012). You Are Not So Smart: Why You Have Too Many Friends on Facebook, Why Your Memory Is Mostly Fiction, and 46 Other Ways You're Deluding Yourself. Gotham Books. p. 54. ISBN 978-1-59240-736-1. Consultado el 20 de diciembre de 2017. 
  5. Schneier, Bruce. "Worst-case thinking makes us nuts, not safe", CNN, 12 de mayo de 2010 (retrieved April 18, 2014); reprinted in Schneier on Security, May 13, 2010 (retrieved April 18, 2014)(en inglés)
  6. Evans, Dylan. "Nightmare Scenario: The Fallacy of Worst-Case Thinking" Archivado el 27 de julio de 2015 en Wayback Machine., Risk Management, April 2, 2012 (retrieved April 18, 2014); from Risk Intelligence: How To Live With Uncertainty, by Dylan Evans, Free Press/Simon & Schuster, Inc., 2012; ISBN 9781451610901 (en inglés)
  7. Ripley, Amanda (25 de abril de 2005). «How to Get Out Alive». Time (TIME Magazine) 165 (18): 58-62. PMID 16128022. Consultado el 11 de noviembre de 2013. 
  8. Definition of Cognitive Bias. Chegg. Archivado desde el original el 9 de mayo de 2016. Consultado el 1 de septiembre de 2015. 
  9. Haselton, M. G.; Nettle, D.; Andrews, P. W. (2005). The evolution of cognitive bias. In D. M. Buss (Ed.), The Handbook of Evolutionary Psychology: Hoboken, NJ, US: John Wiley & Sons Inc. pp. 724-746. 
  10. Bless, H.; Fiedler, K.; Strack, F. (2004). Social cognition: How individuals construct social reality. Hove and New York: Psychology Press. p. 2. 
  11. Bless, H.; Fiedler, K.; Strack, F. (2004). Social cognition: How individuals construct social reality. Hove and New York: Psychology Press. 
  12. Kahneman, D.; Tversky, A. (1972). «Subjective probability: A judgment of representativeness». Cognitive Psychology 3 (3): 430-454. doi:10.1016/0010-0285(72)90016-3. 
  13. Baron, J. (2007). Pensando y decidiendo (4ª ed.). Nueva York, NY: Cambridge University Press.
  14. Ariely, D. (2008). Predeciblemente irracional: las fuerzas ocultas que dan forma a nuestras decisiones. Nueva York, Nueva York: HarperCollins.

Bibliografía

Enlaces externos

  • Esta obra contiene una traducción mínima de la introducción derivada de «Normalcy bias » de Wikipedia en inglés, concretamente de esta versión, publicada por sus editores bajo la Licencia de documentación libre de GNU y la Licencia Creative Commons Atribución-CompartirIgual 4.0 Internacional.
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q7051842
  • Wd Datos: Q7051842