LessWrong

LessWrong
Información general
Dominio https://www.lesswrong.com
Tipo Foro de Internet
Registro Opcional, pero es requerido para aportar contenido.
Idiomas disponibles Inglés
En español No
Estado actual Activo
Gestión
Propietario Eliezer Yudkowsky
Lanzamiento 1 de febrero de 2009.
Estadísticas
Ranking Alexa 69211 (2017)
Plataforma Javascript y CSS (con React y GraphQL
[editar datos en Wikidata]

LessWrong (también escrito Less Wrong) es un blog y foro comunitario centrado en el debate sobre sesgos cognitivos, filosofía, psicología, economía, racionalidad e inteligencia artificial, entre otros temas.[1][2]

Propósito

LessWrong promueve cambios en el estilo de vida que, en opinión de su comunidad, conducen a una mayor racionalidad y superación personal. Los artículos suelen centrarse en evitar los sesgos relacionados con la toma de decisiones y la evaluación de pruebas. Una sugerencia es el uso del teorema de Bayes como herramienta para la toma de decisiones.[2]​ También se hace hincapié en las barreras psicológicas que impiden una buena toma de decisiones, como el condicionamiento del miedo y los sesgos cognitivos estudiados por el psicólogo Daniel Kahneman.[3]

LessWrong también se ocupa del transhumanismo, las amenazas existenciales y la singularidad. El New York Observer señaló que "a pesar de describirse a sí mismo como un foro sobre 'el arte de la racionalidad humana', el grupo neoyorquino Less Wrong ... está obsesionado con una rama del futurismo que parecería más propia de un multicine en 3D que de un seminario de posgrado: la terrible amenaza existencial —o, con un poco de suerte, promesa utópica— conocida como la Singularidad tecnológica... Denominarse a sí mismos como 'racionalistas', como ha hecho el grupo Less Wrong, hace que sea mucho más difícil descartarlos como una 'secta del día del juicio final'.".[4]

Historia

Eliezer Yudkowsky en la Universidad de Stanford en 2006

LessWrong se desarrolló a partir de Overcoming Bias, un blog anterior del grupo centrado en la racionalidad humana, que comenzó en noviembre de 2006, con el teórico de la inteligencia artificial Eliezer Yudkowsky y el economista Robin Hanson como principales colaboradores. En febrero de 2009, los artículos de Yudkowsky se utilizaron como material inicial para crear el blog comunitario LessWrong, y Overcoming Bias se convirtió en el blog personal de Hanson.[5]​ En 2013, una parte significativa de la comunidad racionalista cambió su enfoque hacia Slate Star Codex, de Scott Alexander.[6]

LessWrong y el movimiento que lo rodea son los temas del libro de 2019 The AI Does Not Hate You (La inteligencia artificial no te odia) , escrito por el ex corresponsal científico de BuzzFeed Tom Chivers.[7][8][9]

Basilisco de Roko

Artículo principal: Basilisco de Roko

En julio de 2010, Roko, colaborador de LessWrong, publicó un experimento mental en el que un futuro sistema de IA, por lo demás benévolo, torturaba a las personas que habían oído hablar de la IA antes de que existiera y no habían trabajado incansablemente para que existiera, con el fin de incentivar dicho trabajo. Utilizando la teoría de la "decisión atemporal" de Yudkowsky, el post afirmaba que hacerlo sería beneficioso para la IA aunque no pudiera afectar causalmente a las personas en el presente. Esta idea llegó a conocerse como "el basilisco de Roko", basándose en la idea de Roko de que el mero hecho de conocer la idea daría al hipotético sistema de IA mayores incentivos para emplear el chantaje. Yudkowsky borró los mensajes de Roko sobre el tema, diciendo que publicarlo era "estúpido", ya que la difusión de información que puede ser perjudicial incluso para ser consciente de ella es en sí misma un acto perjudicial, y que la idea, aunque críticamente defectuosa, representaba un espacio de pensamiento que podría contener "un pensamiento genuinamente peligroso", algo considerado un peligro informativo. El debate sobre el basilisco de Roko estuvo prohibido en LessWrong durante varios años porque Yudkowsky había afirmado que provocaba crisis nerviosas a algunos lectores.[4][10][11]​ La prohibición se levantó en octubre de 2015.[12]

David Auerbach escribió en Slate "la combinación de ambiciones mesiánicas, estar convencido de tu propia infalibilidad y mucho dinero en efectivo nunca sale bien, independientemente de la ideología, y no espero que Yudkowsky y sus secuaces sean una excepción". Me preocupa menos el basilisco de Roko que la gente que cree haber trascendido la moral convencional".[11]

El basilisco de Roko fue referenciado en el vídeo musical de la música canadiense Grimes para su canción de 2015 "Flesh Without Blood" a través de un personaje llamado "Rococo Basilisk" que fue descrito por Grimes como "condenado a ser eternamente torturado por una inteligencia artificial, pero también es algo así como María Antonieta". Tras pensar en este juego de palabras y descubrir que Grimes ya lo había hecho, Elon Musk se puso en contacto con Grimes, lo que les llevó a salir juntos.[13][14]​ El concepto también se mencionó en un episodio de Silicon Valley titulado "Reconocimiento facial".[15]

El basilisco se ha comparado con la apuesta de Pascal.[16]

Neoreacción

El movimiento neorreaccionario surgió en LessWrong,[17][18]​ atraído por los debates sobre eugenesia y Psicología Evolutiva.[19]​ Yudkowsky ha rechazado enérgicamente la neorreacción.[18][20][21]​ En una encuesta entre los usuarios de LessWrong en 2016, 28 de 3060 encuestados, o el 0,92%, se identificaron como "neoreaccionarios".[22]

Altruismo eficaz

LessWrong desempeñó un papel importante en el desarrollo del movimiento del altruismo eficaz (AE),[23]​ y las dos comunidades están estrechamente entrelazadas:[24]: 227  En una encuesta entre los usuarios de LessWrong en 2016, 664 de 3.060 encuestados, o el 21,7%, se identificaron como "altruistas eficaces". Una encuesta separada de altruistas eficaces en 2014 reveló que el 31% de los encuestados había oído hablar por primera vez de AE a través de LessWrong, aunque ese número había caído al 8,2% en 2020. Dos de los primeros defensores del altruismo efectivo, Toby Ord y William MacAskill, conocieron al filósofo transhumanista Nick Bostrom en la Universidad de Oxford. Las investigaciones de Bostrom influyeron en muchos altruistas eficaces para trabajar en la reducción del riesgo existencial.[24]

Véase también

Referencias

  1. «Less Wrong FAQ» (en inglés). Archivado desde el original el 30 de abril de 2019. 
  2. a b Miller, James (28 de julio de 2011). «You Can Learn How To Become More Rational». Business Insider (en inglés). Archivado desde el original el 10 de agosto de 2018. Consultado el 25 de marzo de 2014. 
  3. Burkeman, Oliver (9 de marzo de 2012). «This column will change your life: asked a tricky question? Answer an easier one». The Guardian (en inglés). Archivado desde el original el 26 de marzo de 2014. Consultado el 25 de marzo de 2014. 
  4. a b Tiku, Nitasha (25 de julio de 2012). «Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set». The New York Observer (en inglés). Archivado desde el original el 12 de abril de 2019. Consultado el 12 de abril de 2019. 
  5. «Where did Less Wrong come from? (LessWrong FAQ)» (en inglés). Archivado desde el original el 30 de abril de 2019. Consultado el 25 de marzo de 2014. 
  6. Lewis-Kraus, Gideon (9 de julio de 2020). «Slate Star Codex and Silicon Valley's War Against the Media». The New Yorker (en inglés estadounidense). Archivado desde el original el 10 de julio de 2020. Consultado el 4 de agosto de 2020. 
  7. Cowdrey, Katherine (21 de setiembre de 2017). «W&N wins Buzzfeed science reporter's debut after auction». The Bookseller (en inglés). Archivado desde el original el 27 de noviembre de 2018. Consultado el 21 de septiembre de 2017. 
  8. Chivers, Tom (2019). The AI Does Not Hate You (en inglés). Weidenfeld & Nicolson. ISBN 978-1474608770. 
  9. Marriott, James (31 de mayo de 2019). «The AI Does Not Hate You by Tom Chivers review — why the nerds are nervous». The Times (en inglés). ISSN 0140-0460. Archivado desde el original el 23 de abril de 2020. Consultado el 3 de mayo de 2020. 
  10. Love, Dylan (6 de agosto de 2014). «WARNING: Just Reading About This Thought Experiment Could Ruin Your Life». Business Insider (en inglés). Archivado desde el original el 18 de noviembre de 2018. Consultado el 6 de diciembre de 2014. 
  11. a b Auerbach, David (17 de julio de 2014). «The Most Terrifying Thought Experiment of All Time». Slate (revista) (en inglés). Archivado desde el original el 25 de octubre de 2018. Consultado el 18 de julio de 2014. 
  12. RobbBB (5 de octubre de 2015). «A few misconceptions surrounding Roko's basilisk». LessWrong (en inglés). Archivado desde el original el 15 de marzo de 2018. Consultado el 10 de abril de 2016. «La prohibición del basilisco de Roko ya no está en vigor.» 
  13. Paez, Danny (5 de agosto de 2018). «Elon Musk and Grimes: "Rococo Basilisk" Links the Two on Twitter». Inverse (sitio web) (en inglés). Archivado desde el original el 24 de julio de 2020. Consultado el 24 de julio de 2020. 
  14. Oberhaus, Daniel (8 de mayo de 2018). «Explaining Roko's Basilisk, the Thought Experiment That Brought Elon Musk and Grimes Together». Vice (revista) (en inglés). Archivado desde el original el 25 de julio de 2020. Consultado el 24 de julio de 2020. 
  15. Burch, Sean (23 de abril de 2018). «'Silicon Valley' Fact Check: That Thought Experiment Is Real and Horrifying». TheWrap (en inglés). Archivado desde el original el 12 de noviembre de 2020. Consultado el 12 de noviembre de 2020. 
  16. Paul-Choudhury, Sumit (2 de agosto de 2019). «Tomorrow's Gods: What is the future of religion?». BBC. Archivado desde el original el 1 de setiembre de 2020. Consultado el 28 de agosto de 2020. 
  17. Riggio, Adam (23 de setiembre de 2016). «The Violence of Pure Reason: Neoreaction: A Basilisk». Social Epistemology Review and Reply Collective 5 (9): 34-41. ISSN 2471-9560. Archivado desde el original el 5 de octubre de 2016. Consultado el 5 de octubre de 2016. «El embrión del movimiento vivía en las páginas comunitarias del blog de Yudkowsky LessWrong, un sitio web dedicado a refinar la racionalidad humana.» 
  18. a b Siemons, Mark (14 de abril de 2017). «Neoreaktion im Silicon Valley: Wenn Maschinen denken» (en alemán). p. Frankfurter Allgemeine Zeitung. ISSN 0174-4909. Archivado desde el original el 13 de junio de 2022. Consultado el 23 de marzo de 2019. 
  19. Keep, Elmo (22 de junio de 2016). «The Strange and Conflicting World Views of Silicon Valley Billionaire Peter Thiel». Fusion (en inglés). Archivado desde el original el 13 de febrero de 2017. Consultado el 5 de octubre de 2016. «Gracias a los debates de LessWrong sobre eugenesia y psicología evolutiva, ha atraído a algunos lectores y comentaristas afiliados a la alt-right y la neoreacción, esa amplia cohorte de trolls neofascistas, nacionalistas blancos y misóginos.» 
  20. Riggio, Adam (23 de setiembre de 2016). «The Violence of Pure Reason: Neoreaction: A Basilisk». Social Epistemology Review and Reply Collective (en inglés) 5 (9): 34-41. ISSN 2471-9560. Archivado desde el original el 5 de octubre de 2016. Consultado el 5 de octubre de 2016. «Land y Yarvin son abiertamente aliados del nuevo movimiento reaccionario, mientras que Yudkowsky cuenta con muchos reaccionarios entre su base de seguidores a pesar de encontrar repugnante su política racista.» 
  21. Eliezer Yudkowsky (8 de abril de 2016). «Untitled». Optimize Literally Everything (blog) (en inglés). Archivado desde el original el 26 de mayo de 2019. Consultado el 7 de octubre de 2016. 
  22. Hermansson, Patrik; Lawrence, David; Mulhall, Joe; Murdoch, Simon (2020). «The Dark Enlightenment: Neoreaction and Silicon Valley». The International Alt-Right. Fascism for the 21st Century? (en inglés). Abingdon-on-Thames, Inglaterra, Reino Unido: Routledge. ISBN 9781138363861. Archivado desde el original el 13 de junio de 2022. Consultado el 2 de octubre de 2020. 
  23. de Lazari-Radek, Katarzyna; Singer, Peter (27 de septiembre de 2017). Utilitarianism: A Very Short Introduction (en inglés). Oxford University Press. p. 110. ISBN 9780198728795. 
  24. a b Chivers, Tom (2019). «Chapter 38: The Effective Altruists». The AI Does Not Hate You (en inglés). Weidenfeld & Nicolson. ISBN 978-1474608770. 

Enlaces externos

  • Sitio web oficial (en inglés)
  • Ingres (14 de mayo de 2016). "2016 Survey Results" (PDF) (resultados de la encuesta de 2016, en inglés). Recuperado el 9 de abril de 2017. — una encuesta de LessWrong sobre opiniones de subculturas.