LessWrong (también escrito Less Wrong ) es un blog y foro comunitariocentrado en la discusión de sesgos cognitivos , filosofía , psicología , economía , racionalidad e inteligencia artificial , entre otros temas. [1] [2]
LessWrong promueve cambios en el estilo de vida que su comunidad cree que conducen a una mayor racionalidad y superación personal . Los posts más conocidos de LessWrong son "The Sequences", una serie de ensayos que pretenden describir cómo evitar los modos de fallo típicos del razonamiento humano con el objetivo de mejorar la toma de decisiones y la evaluación de la evidencia. [3] [4] Una sugerencia es el uso del teorema de Bayes como herramienta para la toma de decisiones. [2] También se presta atención a las barreras psicológicas que impiden una buena toma de decisiones, incluido el condicionamiento del miedo y los sesgos cognitivos que han sido estudiados por el psicólogo Daniel Kahneman . [5]
LessWrong también se preocupa por la inteligencia artificial, el transhumanismo , las amenazas existenciales y la singularidad . El New York Observer señaló en 2019 que "A pesar de describirse a sí mismo como un foro sobre 'el arte de la racionalidad humana', el grupo New York Less Wrong ... está obsesionado con una rama del futurismo que parecería más a gusto en un multiplex 3D. que un seminario de posgrado: la terrible amenaza existencial (o, con un poco de suerte, promesa utópica) conocida como la Singularidad tecnológica ... Calificarse a sí mismos como 'racionalistas', como lo ha hecho el equipo de Less Wrong, hace que sea mucho más difícil descartarlos como un ' culto apocalíptico '." [6]
LessWrong se desarrolló a partir de Overcoming Bias , un blog grupal anterior centrado en la racionalidad humana, que comenzó en noviembre de 2006, con el investigador de inteligencia artificial Eliezer Yudkowsky y el economista Robin Hanson como principales contribuyentes. En febrero de 2009, las publicaciones de Yudkowsky se utilizaron como material inicial para crear el blog comunitario LessWrong , y Overcoming Bias se convirtió en el blog personal de Hanson. [7] En 2013, una parte significativa de la comunidad racionalista cambió su enfoque hacia el Slate Star Codex de Scott Alexander . [3]
Las discusiones sobre IA dentro de LessWrong incluyen la alineación de la IA , la seguridad de la IA , [8] y la conciencia de la máquina . [ cita necesaria ] Los artículos publicados en LessWrong sobre IA han sido citados en los medios de comunicación. [8] [9] LessWrong y el trabajo del movimiento que lo rodea sobre la IA son los temas del libro de 2019 The AI Does Not Hate You , escrito por el ex corresponsal científico de BuzzFeed, Tom Chivers. [10] [11] [12]
LessWrong jugó un papel importante en el desarrollo del movimiento de altruismo efectivo (EA), [13] y las dos comunidades están estrechamente entrelazadas. [14] : 227 En una encuesta de usuarios de LessWrong en 2016, 664 de 3.060 encuestados, o el 21,7%, se identificaron como "altruistas eficaces". Una encuesta separada de altruistas efectivos en 2014 reveló que el 31% de los encuestados había oído hablar por primera vez de EA a través de LessWrong , [14] aunque ese número había caído al 8,2% en 2020. [15]
En julio de 2010, Roko, colaborador de LessWrong, publicó un experimento mental en el sitio en el que un futuro sistema de IA, por lo demás benévolo, tortura a personas que habían oído hablar de la IA antes de que existiera y no trabajaron incansablemente para hacerla existir, con el fin de incentivarla. trabajar. Esta idea llegó a ser conocida como " basilisco de Roko ", basándose en la idea de Roko de que el simple hecho de escuchar sobre la idea le daría al hipotético sistema de IA un incentivo para intentar tal chantaje . [16] [17] [6]
La sección de comentarios de Overcoming Bias atrajo a prominentes neorreaccionarios como Curtis Yarvin (seudónimo Mencius Moldbug), el fundador del movimiento neorreaccionario, [18] y Hanson publicó su versión de un debate contra Moldbug sobre la futarquía . [19] Después de que LessWrong se separó de Overcoming Bias , también atrajo a algunos individuos afiliados a neoreaction con discusiones sobre eugenesia y psicología evolutiva . [20] Sin embargo, Yudkowsky ha rechazado firmemente la neorreacción. [21] [22] En una encuesta entre usuarios de LessWrong en 2016, 28 de 3060 encuestados (0,92%) se identificaron como "neorreaccionarios". [23]
LessWrong se ha asociado con varios contribuyentes influyentes. El fundador Eliezer Yudkowsky creó la plataforma para promover la racionalidad y crear conciencia sobre los riesgos potenciales asociados con la inteligencia artificial. [24] Scott Alexander se convirtió en uno de los escritores más populares del sitio antes de comenzar su propio blog, Slate Star Codex, contribuyendo con debates sobre la seguridad y la racionalidad de la IA. [24]
Otros usuarios notables de LessWrong incluyen a Paul Christiano , Wei Dai y Zvi Mowshowitz . Una selección de publicaciones de estos y otros colaboradores, seleccionadas a través de un proceso de revisión comunitaria, [25] se publicaron como parte de las colecciones de ensayos "Un mapa que refleja el territorio" [26] y "Los motores de la cognición". [27] [25] [28]
Desde finales de la década de 1990, esas preocupaciones se han vuelto más específicas y se han fusionado en torno al libro
Superintelligence: Paths, Dangers, Strategies
de Nick Bostrom de 2014 y el blog LessWrong de Eliezer Yudkowsky.
Uno de los sitios donde [Moldbug] comenzó como comentarista fue en Overcoming Bias, es decir, donde Yudkowsky escribía antes de LessWrong.
Gracias a las discusiones de LessWrong sobre eugenesia y psicología evolutiva, ha atraído a algunos lectores y comentaristas afiliados a la extrema derecha y la neorreacción, esa amplia cohorte de trolls neofascistas, nacionalistas blancos y misóginos.
Land y Yarvin son abiertamente aliados del nuevo movimiento reaccionario, mientras que Yudkowsky cuenta con muchos reaccionarios entre su base de seguidores a pesar de encontrar repugnantes sus políticas racistas.
Yudkowsky ayudó a crear el Instituto de la Singularidad (ahora llamado Instituto de Investigación de Inteligencia Artificial) para ayudar a la humanidad a lograr una Singularidad amigable. (Divulgación: he contribuido al Singularity Institute.) Luego, Yudkowsky fundó el blog comunitario http://LessWrong.com, que busca promover el arte de la racionalidad, elevar el nivel de cordura y, en parte, convencer a las personas de que consideren , donaciones caritativas racionales, algunas de las cuales, esperaba Yudkowsky (con razón), irían a parar a su organización.
Los usuarios escribieron reseñas de las mejores publicaciones de 2018 y las votaron utilizando el sistema de votación cuadrática, popularizado por Glen Weyl y Vitalik Buterin. De De las más de 2000 publicaciones publicadas ese año, la Revisión redujo las 44 publicaciones más interesantes y valiosas.
{{cite journal}}
: Mantenimiento CS1: DOI inactivo a partir de julio de 2024 ( enlace )