stringtranslate.com

Menos incorrecto

LessWrong (también escrito Less Wrong ) es un blog y foro comunitariocentrado en la discusión de sesgos cognitivos , filosofía , psicología , economía , racionalidad e inteligencia artificial , entre otros temas. [1] [2]

Objetivo

LessWrong promueve cambios en el estilo de vida que su comunidad cree que conducen a una mayor racionalidad y superación personal . Los posts más conocidos de LessWrong son "The Sequences", una serie de ensayos que pretenden describir cómo evitar los modos de fallo típicos del razonamiento humano con el objetivo de mejorar la toma de decisiones y la evaluación de la evidencia. [3] [4] Una sugerencia es el uso del teorema de Bayes como herramienta para la toma de decisiones. [2] También se presta atención a las barreras psicológicas que impiden una buena toma de decisiones, incluido el condicionamiento del miedo y los sesgos cognitivos que han sido estudiados por el psicólogo Daniel Kahneman . [5]

LessWrong también se preocupa por la inteligencia artificial, el transhumanismo , las amenazas existenciales y la singularidad . El New York Observer señaló en 2019 que "A pesar de describirse a sí mismo como un foro sobre 'el arte de la racionalidad humana', el grupo New York Less Wrong  ... está obsesionado con una rama del futurismo que parecería más a gusto en un multiplex 3D. que un seminario de posgrado: la terrible amenaza existencial (o, con un poco de suerte, promesa utópica) conocida como la Singularidad tecnológica  ... Calificarse a sí mismos como 'racionalistas', como lo ha hecho el equipo de Less Wrong, hace que sea mucho más difícil descartarlos como un ' culto apocalíptico '." [6]

Historia

Eliezer Yudkowsky en la Universidad de Stanford en 2006

LessWrong se desarrolló a partir de Overcoming Bias , un blog grupal anterior centrado en la racionalidad humana, que comenzó en noviembre de 2006, con el investigador de inteligencia artificial Eliezer Yudkowsky y el economista Robin Hanson como principales contribuyentes. En febrero de 2009, las publicaciones de Yudkowsky se utilizaron como material inicial para crear el blog comunitario LessWrong , y Overcoming Bias se convirtió en el blog personal de Hanson. [7] En 2013, una parte significativa de la comunidad racionalista cambió su enfoque hacia el Slate Star Codex de Scott Alexander . [3]

Inteligencia artificial

Las discusiones sobre IA dentro de LessWrong incluyen la alineación de la IA , la seguridad de la IA , [8] y la conciencia de la máquina . [ cita necesaria ] Los artículos publicados en LessWrong sobre IA han sido citados en los medios de comunicación. [8] [9] LessWrong y el trabajo del movimiento que lo rodea sobre la IA son los temas del libro de 2019 The AI ​​Does Not Hate You , escrito por el ex corresponsal científico de BuzzFeed, Tom Chivers. [10] [11] [12]

Altruismo efectivo

LessWrong jugó un papel importante en el desarrollo del movimiento de altruismo efectivo (EA), [13] y las dos comunidades están estrechamente entrelazadas. [14] : 227  En una encuesta de usuarios de LessWrong en 2016, 664 de 3.060 encuestados, o el 21,7%, se identificaron como "altruistas eficaces". Una encuesta separada de altruistas efectivos en 2014 reveló que el 31% de los encuestados había oído hablar por primera vez de EA a través de LessWrong , [14] aunque ese número había caído al 8,2% en 2020. [15]

Basilisco de Roko

En julio de 2010, Roko, colaborador de LessWrong, publicó un experimento mental en el sitio en el que un futuro sistema de IA, por lo demás benévolo, tortura a personas que habían oído hablar de la IA antes de que existiera y no trabajaron incansablemente para hacerla existir, con el fin de incentivarla. trabajar. Esta idea llegó a ser conocida como " basilisco de Roko ", basándose en la idea de Roko de que el simple hecho de escuchar sobre la idea le daría al hipotético sistema de IA un incentivo para intentar tal chantaje . [16] [17] [6]

Neorreacción

La sección de comentarios de Overcoming Bias atrajo a prominentes neorreaccionarios como Curtis Yarvin (seudónimo Mencius Moldbug), el fundador del movimiento neorreaccionario, [18] y Hanson publicó su versión de un debate contra Moldbug sobre la futarquía . [19] Después de que LessWrong se separó de Overcoming Bias , también atrajo a algunos individuos afiliados a neoreaction con discusiones sobre eugenesia y psicología evolutiva . [20] Sin embargo, Yudkowsky ha rechazado firmemente la neorreacción. [21] [22] En una encuesta entre usuarios de LessWrong en 2016, 28 de 3060 encuestados (0,92%) se identificaron como "neorreaccionarios". [23]

Usuarios notables

LessWrong se ha asociado con varios contribuyentes influyentes. El fundador Eliezer Yudkowsky creó la plataforma para promover la racionalidad y crear conciencia sobre los riesgos potenciales asociados con la inteligencia artificial. [24] Scott Alexander se convirtió en uno de los escritores más populares del sitio antes de comenzar su propio blog, Slate Star Codex, contribuyendo con debates sobre la seguridad y la racionalidad de la IA. [24]

Otros usuarios notables de LessWrong incluyen a Paul Christiano , Wei Dai y Zvi Mowshowitz . Una selección de publicaciones de estos y otros colaboradores, seleccionadas a través de un proceso de revisión comunitaria, [25] se publicaron como parte de las colecciones de ensayos "Un mapa que refleja el territorio" [26] y "Los motores de la cognición". [27] [25] [28]

Referencias

  1. ^ "Preguntas frecuentes menos incorrectas". Menos incorrecto. Archivado desde el original el 30 de abril de 2019 . Consultado el 25 de marzo de 2014 .
  2. ^ ab Miller, James (28 de julio de 2011). "Puedes aprender a ser más racional". Business Insider . Archivado desde el original el 10 de agosto de 2018 . Consultado el 25 de marzo de 2014 .
  3. ^ ab Lewis-Kraus, Gideon (9 de julio de 2020). "Slate Star Codex y la guerra de Silicon Valley contra los medios". El neoyorquino . Archivado desde el original el 10 de julio de 2020 . Consultado el 4 de agosto de 2020 .
  4. ^ "Secuencias destacadas". Menos incorrecto. Archivado desde el original el 6 de julio de 2024 . Consultado el 12 de julio de 2024 .
  5. ^ Burkeman, Oliver (9 de marzo de 2012). "Esta columna cambiará tu vida: ¿te hicieron una pregunta difícil? Responde una más fácil". El guardián . Archivado desde el original el 26 de marzo de 2014 . Consultado el 25 de marzo de 2014 .
  6. ^ ab Tiku, Nitasha (25 de julio de 2012). "Fe, esperanza y singularidad: entrar en Matrix con el conjunto futurista de Nueva York". Observador . Archivado desde el original el 12 de abril de 2019 . Consultado el 12 de abril de 2019 .
  7. ^ "¿De dónde vino Less Wrong? (Preguntas frecuentes sobre LessWrong)". Archivado desde el original el 30 de abril de 2019 . Consultado el 25 de marzo de 2014 .
  8. ^ ab Chivers, Tom (22 de noviembre de 2023). "Lo que hemos aprendido sobre el apocalipsis de los robots a partir de la debacle de OpenAI". Semafor . Archivado desde el original el 3 de marzo de 2024 . Consultado el 14 de julio de 2024 . Desde finales de la década de 1990, esas preocupaciones se han vuelto más específicas y se han fusionado en torno al libro Superintelligence: Paths, Dangers, Strategies de Nick Bostrom de 2014 y el blog LessWrong de Eliezer Yudkowsky.
  9. ^ Newport, Cal (15 de marzo de 2024). "¿Puede una IA hacer planes?". El neoyorquino . ISSN  0028-792X . Consultado el 14 de julio de 2024 .
  10. ^ Cowdrey, Katherine (21 de septiembre de 2017). "W&N gana el debut del reportero científico de Buzzfeed después de la subasta". El librero . Archivado desde el original el 27 de noviembre de 2018 . Consultado el 21 de septiembre de 2017 .
  11. ^ Chivers, Tom (2019). La IA no te odia . Weidenfeld y Nicolson. ISBN 978-1474608770.
  12. ^ Marriott, James (31 de mayo de 2019). "La revisión de AI Does Not Hate You de Tom Chivers: por qué los nerds están nerviosos". Los tiempos . ISSN  0140-0460. Archivado desde el original el 23 de abril de 2020 . Consultado el 3 de mayo de 2020 .
  13. ^ de Lazari-Radek, Katarzyna; Cantante, Peter (27 de septiembre de 2017). Utilitarismo: una introducción muy breve . Prensa de la Universidad de Oxford. pag. 110.ISBN 9780198728795.
  14. ^ ab Chivers, Tom (2019). "Capítulo 38: Los altruistas eficaces". La IA no te odia . Weidenfeld y Nicolson. ISBN 978-1474608770.
  15. ^ Moss, David (20 de mayo de 2021). "EA Survey 2020: Cómo se involucra la gente en EA". Foro Altruismo Efectivo . Archivado desde el original el 28 de julio de 2021 . Consultado el 28 de julio de 2021 .
  16. ^ Con amor, Dylan (6 de agosto de 2014). "ADVERTENCIA: El solo hecho de leer sobre este experimento mental podría arruinar su vida". Business Insider . Archivado desde el original el 18 de noviembre de 2018 . Consultado el 6 de diciembre de 2014 .
  17. ^ Auerbach, David (17 de julio de 2014). "El experimento mental más aterrador de todos los tiempos". Pizarra . Archivado desde el original el 25 de octubre de 2018 . Consultado el 18 de julio de 2014 .
  18. ^ Sandifer, Elizabeth (2018). Neoreaction a Basilisk: ensayos sobre y alrededor de la derecha alternativa (2ª ed.). Prensa Eruditarum. Uno de los sitios donde [Moldbug] comenzó como comentarista fue en Overcoming Bias, es decir, donde Yudkowsky escribía antes de LessWrong.
  19. ^ Hanson, Robin. "Mi debate sobre Moldbug". Superar el sesgo . Archivado desde el original el 24 de enero de 2010 . Consultado el 13 de julio de 2024 .
  20. ^ Mantener, Elmo (22 de junio de 2016). "Las visiones del mundo extrañas y conflictivas del multimillonario de Silicon Valley, Peter Thiel". Fusión . Archivado desde el original el 13 de febrero de 2017 . Consultado el 5 de octubre de 2016 . Gracias a las discusiones de LessWrong sobre eugenesia y psicología evolutiva, ha atraído a algunos lectores y comentaristas afiliados a la extrema derecha y la neorreacción, esa amplia cohorte de trolls neofascistas, nacionalistas blancos y misóginos.
  21. ^ Riggio, Adam (23 de septiembre de 2016). "La violencia de la razón pura: neorreacción: un basilisco". Colectivo de Revisión y Respuesta de Epistemología Social . 5 (9): 34–41. ISSN  2471-9560. Archivado desde el original el 5 de octubre de 2016 . Consultado el 5 de octubre de 2016 . Land y Yarvin son abiertamente aliados del nuevo movimiento reaccionario, mientras que Yudkowsky cuenta con muchos reaccionarios entre su base de seguidores a pesar de encontrar repugnantes sus políticas racistas.
  22. ^ Eliezer Yudkowsky (8 de abril de 2016). "Intitulado". Optimice literalmente todo (blog) . Archivado desde el original el 26 de mayo de 2019 . Consultado el 7 de octubre de 2016 .
  23. ^ Hermansson, Patrik; Lorenzo, David; Mulhall, Joe; Murdoch, Simón (2020). "La Ilustración Oscura: Neorreacción y Silicon Valley". La extrema derecha internacional. ¿Fascismo para el siglo XXI? . Abingdon-on-Thames, Inglaterra, Reino Unido: Routledge. ISBN 9781138363861. Archivado desde el original el 13 de junio de 2022 . Consultado el 2 de octubre de 2020 .
  24. ^ ab Miller, JD (2017). "Reflexiones sobre el viaje de la singularidad". En Callaghan, V.; Molinero, J.; Yampolskiy, R.; Armstrong, S. (eds.). La Singularidad Tecnológica . La colección Fronteras. Berlín, Heidelberg: Springer. págs. 225-226. ISBN 978-3-662-54033-6. Yudkowsky ayudó a crear el Instituto de la Singularidad (ahora llamado Instituto de Investigación de Inteligencia Artificial) para ayudar a la humanidad a lograr una Singularidad amigable. (Divulgación: he contribuido al Singularity Institute.) Luego, Yudkowsky fundó el blog comunitario http://LessWrong.com, que busca promover el arte de la racionalidad, elevar el nivel de cordura y, en parte, convencer a las personas de que consideren , donaciones caritativas racionales, algunas de las cuales, esperaba Yudkowsky (con razón), irían a parar a su organización.
  25. ^ ab Gasarch, William (2022). "Reseña de "Un mapa que refleja el territorio: ensayos de la comunidad LessWrong"". ACM SIGACT News . 53 (1): 13–24. doi :10.1145/3532737.3532741. Los usuarios escribieron reseñas de las mejores publicaciones de 2018 y las votaron utilizando el sistema de votación cuadrática, popularizado por Glen Weyl y Vitalik Buterin. De De las más de 2000 publicaciones publicadas ese año, la Revisión redujo las 44 publicaciones más interesantes y valiosas.
  26. ^ Lagerros, J.; ritmo, B.; MenosWrong.com (2020). Un mapa que refleja el territorio: ensayos de la comunidad LessWrong. Centro de Racionalidad Aplicada. ISBN 9781736128503.
  27. ^ Ritmo, B.; Menos incorrecto (2021). Los motores de la cognición: ensayos de la comunidad LessWrong. Centro de Racionalidad Aplicada. ISBN 9781736128510.
  28. ^ Gasarch, William (2022). "Revisión de" Los motores de la cognición: ensayos de la comunidad menos equivocada "". Noticias ACM SIGACT . 53 (3): 6–16. doi :10.1145/3561066.3561064 (inactivo el 28 de julio de 2024).{{cite journal}}: Mantenimiento CS1: DOI inactivo a partir de julio de 2024 ( enlace )