stringtranslate.com

Eliezer Yudkowsky

Eliezer S. Yudkowsky ( nacido el 11 de septiembre de 1979 ) es un investigador de inteligencia artificial estadounidense [2] [3] [4] [5] y escritor sobre teoría de decisiones y ética, mejor conocido por popularizar ideas relacionadas con la inteligencia artificial amigable. [6] [7] Es el fundador y miembro investigador del Machine Intelligence Research Institute ( MIRI ) , una organización privada sin fines de lucro con sede en Berkeley , California . [ 8 ] Su trabajo sobre la perspectiva de una explosión descontrolada de inteligencia influyó en el libro de 2014 del filósofo Nick Bostrom Superintelligence: Paths, Dangers, Strategies . [9]

Trabajar en seguridad de inteligencia artificial

Aprendizaje por objetivos e incentivos en sistemas de software

Las opiniones de Yudkowsky sobre los desafíos de seguridad que plantean las generaciones futuras de sistemas de IA se analizan en el libro de texto de pregrado Artificial Intelligence: A Modern Approach de Stuart Russell y Peter Norvig . Al señalar la dificultad de especificar formalmente objetivos de propósito general a mano, Russell y Norvig citan la propuesta de Yudkowsky de que los sistemas autónomos y adaptativos se diseñen para aprender el comportamiento correcto con el tiempo:

Yudkowsky (2008) [10] explica con más detalle cómo diseñar una IA amigable . Afirma que la amabilidad (el deseo de no dañar a los humanos) debe diseñarse desde el principio, pero que los diseñadores deben reconocer que sus propios diseños pueden tener fallas y que el robot aprenderá y evolucionará con el tiempo. Por lo tanto, el desafío es de diseño de mecanismos: diseñar un mecanismo para que la IA evolucione bajo un sistema de controles y contrapesos, y dar a los sistemas funciones de utilidad que sigan siendo amigables frente a tales cambios. [6]

En respuesta a la preocupación por la convergencia instrumental , de que los sistemas autónomos de toma de decisiones con objetivos mal diseñados tendrían incentivos predeterminados para maltratar a los humanos, Yudkowsky y otros investigadores de MIRI han recomendado que se trabaje para especificar agentes de software que converjan en comportamientos predeterminados seguros incluso cuando sus objetivos estén mal especificados. [11] [7]

Previsión de capacidades

En el escenario de explosión de inteligencia planteado por IJ Good , los sistemas de IA que se mejoran recursivamente pasan rápidamente de una inteligencia general subhumana a una superinteligencia . El libro de Nick Bostrom de 2014 Superinteligencia: caminos, peligros, estrategias esboza el argumento de Good en detalle, al tiempo que cita a Yudkowsky sobre el riesgo de que la antropomorfización de los sistemas avanzados de IA haga que la gente no comprenda la naturaleza de una explosión de inteligencia. "La IA podría dar un salto aparentemente brusco en inteligencia puramente como resultado del antropomorfismo, la tendencia humana a pensar en el 'idiota del pueblo' y en 'Einstein' como los extremos de la escala de inteligencia, en lugar de puntos casi indistinguibles en la escala de las mentes en general". [6] [10] [12]

Eliezer debatiendo sobre el destino en Manifest 2023

En Inteligencia artificial: un enfoque moderno , Russell y Norvig plantean la objeción de que existen límites conocidos a la resolución inteligente de problemas a partir de la teoría de la complejidad computacional ; si hay límites fuertes a la eficiencia con la que los algoritmos pueden resolver diversas tareas, una explosión de inteligencia puede no ser posible. [6]

Tiempoartículo de opinión

En un artículo de opinión de 2023 para la revista Time , Yudkowsky analizó el riesgo de la inteligencia artificial y propuso medidas que podrían adoptarse para limitarlo, incluida una detención total del desarrollo de la IA [13] [14] o incluso "destruir un centro de datos no autorizado mediante un ataque aéreo". [5] El artículo ayudó a introducir el debate sobre la alineación de la IA en la corriente principal, lo que llevó a un periodista a hacerle una pregunta al presidente Joe Biden sobre la seguridad de la IA en una conferencia de prensa. [2]

Escritura racional

Entre 2006 y 2009, Yudkowsky y Robin Hanson fueron los principales colaboradores de Overcoming Bias , un blog de ciencias sociales y cognitivas patrocinado por el Future of Humanity Institute de la Universidad de Oxford. En febrero de 2009, Yudkowsky fundó LessWrong , un "blog comunitario dedicado a refinar el arte de la racionalidad humana". [15] [16] Desde entonces, Overcoming Bias funciona como el blog personal de Hanson.

Más de 300 publicaciones de blog de Yudkowsky sobre filosofía y ciencia (escritas originalmente en LessWrong y Overcoming Bias ) fueron publicadas como un libro electrónico, Rationality: From AI to Zombies , por MIRI en 2015. [17] MIRI también ha publicado Inadequate Equilibria , el libro electrónico de Yudkowsky de 2017 sobre ineficiencias sociales. [18]

Yudkowsky también ha escrito varias obras de ficción. Su novela de fanfiction Harry Potter y los métodos de la racionalidad utiliza elementos de la trama de la serie Harry Potter de J. K. Rowling para ilustrar temas de ciencia y racionalidad. [15] [19] The New Yorker describió Harry Potter y los métodos de la racionalidad como una nueva versión del original de Rowling "en un intento de explicar la magia de Harry a través del método científico". [20]

Vida personal

Yudkowsky es autodidacta [21] y no asistió a la escuela secundaria ni a la universidad. [22] Fue criado como judío ortodoxo moderno , pero no se identifica religiosamente como judío. [23] [24]

Publicaciones académicas

Véase también

Notas

  1. ^ O Salomón

Referencias

  1. ^ "Eliezer Yudkowsky sobre “Tres grandes escuelas de singularidad”" en YouTube . 16 de febrero de 2012. Marca de tiempo 1:18.
  2. ^ ab Silver, Nate (10 de abril de 2023). "¿Cuán preocupados están los estadounidenses por los peligros de la IA?". FiveThirtyEight . Archivado desde el original el 17 de abril de 2023. Consultado el 17 de abril de 2023 .
  3. ^ Ocampo, Rodolfo (4 de abril de 2023). "Solía ​​trabajar en Google y ahora soy investigador de IA. He aquí por qué es prudente ralentizar el desarrollo de la IA". The Conversation . Archivado desde el original el 11 de abril de 2023. Consultado el 19 de junio de 2023 .
  4. ^ Gault, Matthew (31 de marzo de 2023). «Un teórico de la IA dice que la guerra nuclear es preferible al desarrollo de una IA avanzada». Vice . Archivado desde el original el 15 de mayo de 2023. Consultado el 19 de junio de 2023 .
  5. ^ ab Hutson, Matthew (16 de mayo de 2023). "¿Podemos detener la IA desbocada?". The New Yorker . ISSN  0028-792X. Archivado desde el original el 19 de mayo de 2023. Consultado el 19 de mayo de 2023. Eliezer Yudkowsky, investigador del Machine Intelligence Research Institute, en el Área de la Bahía, ha comparado las recomendaciones de seguridad de la IA con un sistema de alarma contra incendios. Un experimento clásico descubrió que, cuando una niebla humeante comenzó a llenar una habitación que contenía varias personas, la mayoría no lo informó. Vieron que otros permanecían estoicos y restaron importancia al peligro. Una alarma oficial puede indicar que es legítimo tomar medidas. Pero, en la IA, no hay nadie con la autoridad clara para hacer sonar tal alarma, y ​​la gente siempre estará en desacuerdo sobre qué avances cuentan como evidencia de una conflagración. "No habrá ninguna alarma contra incendios que no sea una IAG en funcionamiento real", ha escrito Yudkowsky. Incluso si todos están de acuerdo sobre la amenaza, ninguna empresa o país querrá detenerse por su cuenta, por miedo a ser superado por sus competidores... Eso puede requerir abandonar la IA de golpe antes de que sintamos que es hora de parar, en lugar de acercarnos cada vez más al borde, tentando al destino. Pero cerrarlo todo exigiría medidas draconianas, tal vez incluso medidas tan extremas como las propugnadas por Yudkowsky, quien recientemente escribió, en un editorial para Time , que deberíamos "estar dispuestos a destruir un centro de datos rebelde mediante un ataque aéreo", incluso a riesgo de provocar "un intercambio nuclear total".
  6. ^ abcd Russell, Stuart ; Norvig, Peter (2009). Inteligencia artificial: un enfoque moderno . Prentice Hall. ISBN 978-0-13-604259-4.
  7. ^ ab Leighton, Jonathan (2011). La batalla por la compasión: ética en un universo apático . Algora. ISBN 978-0-87586-870-7.
  8. ^ Kurzweil, Ray (2005). La singularidad está cerca . Nueva York: Viking Penguin. ISBN 978-0-670-03384-3.
  9. ^ Ford, Paul (11 de febrero de 2015). «Nuestro miedo a la inteligencia artificial». MIT Technology Review . Archivado desde el original el 30 de marzo de 2019. Consultado el 9 de abril de 2019 .
  10. ^ ab Yudkowsky, Eliezer (2008). "La inteligencia artificial como factor positivo y negativo en el riesgo global" (PDF) . En Bostrom, Nick ; Ćirković, Milán (eds.). Riesgos catastróficos globales . Oxford University Press. ISBN 978-0199606504. Archivado (PDF) del original el 2 de marzo de 2013 . Consultado el 16 de octubre de 2015 .
  11. ^ Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibilidad". Talleres de la AAAI: Talleres en la 29.ª Conferencia AAAI sobre Inteligencia Artificial, Austin, TX, 25 y 26 de enero de 2015. Publicaciones de la AAAI. Archivado desde el original el 15 de enero de 2016. Consultado el 16 de octubre de 2015 .
  12. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Oxford University Press. ISBN 978-0199678112.
  13. ^ Moss, Sebastian (30 de marzo de 2023). ""Esté dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo": un destacado investigador de alineación de IA escribe un artículo en el que pide la prohibición de los grandes clústeres de GPU". Dinámica del centro de datos . Archivado desde el original el 17 de abril de 2023. Consultado el 17 de abril de 2023 .
  14. ^ Ferguson, Niall (9 de abril de 2023). «Los extraterrestres han aterrizado y los hemos creado». Bloomberg . Archivado desde el original el 9 de abril de 2023. Consultado el 17 de abril de 2023 .
  15. ^ de Miller, James (2012). Singularity Rising . BenBella Books, Inc. ISBN 978-1936661657.
  16. ^ Miller, James (28 de julio de 2011). «Puedes aprender a ser más racional». Business Insider . Archivado desde el original el 10 de agosto de 2018. Consultado el 25 de marzo de 2014 .
  17. ^ Miller, James D. "Rifts in Rationality – New Rambler Review". newramblerreview.com . Archivado desde el original el 28 de julio de 2018. Consultado el 28 de julio de 2018 .
  18. ^ Machine Intelligence Research Institute . «Equilibrios inadecuados: dónde y cómo se estancan las civilizaciones». Archivado desde el original el 21 de septiembre de 2020. Consultado el 13 de mayo de 2020 .
  19. ^ Snyder, Daniel D. (18 de julio de 2011). «'Harry Potter' y la clave de la inmortalidad». The Atlantic . Archivado desde el original el 23 de diciembre de 2015. Consultado el 13 de junio de 2022 .
  20. ^ Packer, George (2011). «Sin muerte, sin impuestos: el futurismo libertario de un multimillonario de Silicon Valley». The New Yorker . p. 54. Archivado desde el original el 14 de diciembre de 2016 . Consultado el 12 de octubre de 2015 .
  21. ^ Matthews, Dylan; Pinkerton, Byrd (19 de junio de 2019). "Fue cofundador de Skype. Ahora está gastando su fortuna en detener la peligrosa IA". Vox . Archivado desde el original el 6 de marzo de 2020. Consultado el 22 de marzo de 2020 .
  22. ^ Saperstein, Gregory (9 de agosto de 2012). «5 minutos con un visionario: Eliezer Yudkowsky». CNBC . Archivado desde el original el 1 de agosto de 2017. Consultado el 9 de septiembre de 2017 .
  23. ^ Elia-Shalev, Asaf (1 de diciembre de 2022). "Las sinagogas se están uniendo a una iniciativa de 'altruismo efectivo'. ¿El escándalo Sam Bankman-Fried las detendrá?". Agencia Telegráfica Judía . Consultado el 4 de diciembre de 2023 .
  24. ^ Yudkowsky, Eliezer (4 de octubre de 2007). «Cómo evitar los verdaderos puntos débiles de tu creencia». LessWrong . Archivado desde el original el 2 de mayo de 2021. Consultado el 30 de abril de 2021 .

Enlaces externos