stringtranslate.com

Eliezer Yudkowsky

Eliezer S. Yudkowsky ( / ˌ ɛ l i ˈ ɛ z ər ˌ j ʌ d ˈ k s k i / EH -lee- EH -zər YUD - KOW -skee ; [1] nacido el 11 de septiembre de 1979) es un estadounidense investigador de inteligencia artificial [2] [3] [4] [5] y escritor sobre teoría y ética de la decisión , mejor conocido por popularizar ideas relacionadas con la inteligencia artificial amigable , [6] [7] incluida la idea de que podría no haber una " alarma de incendio" para la IA. [5] Es el fundador y miembro de investigación del Machine Intelligence Research Institute (MIRI), una organización de investigación privada sin fines de lucro con sede en Berkeley, California . [8] Su trabajo sobre la perspectiva de una explosión descontrolada de inteligencia influyó en el libro Superintelligence: Paths, Dangers, Strategies del filósofo Nick Bostrom de 2014 . [9]

Trabajar en seguridad de inteligencia artificial.

Aprendizaje de objetivos e incentivos en sistemas de software.

Las opiniones de Yudkowsky sobre los desafíos de seguridad que plantean las generaciones futuras de sistemas de IA se analizan en el libro de texto universitario de Stuart Russell y Peter Norvig, Artificial Intelligence: A Modern Approach . Al observar la dificultad de especificar formalmente a mano objetivos de propósito general, Russell y Norvig citan la propuesta de Yudkowsky de que se diseñen sistemas autónomos y adaptativos para aprender el comportamiento correcto a lo largo del tiempo:

Yudkowsky (2008) [10] entra en más detalles sobre cómo diseñar una IA amigable . Afirma que la amistad (el deseo de no dañar a los humanos) debe diseñarse desde el principio, pero que los diseñadores deben reconocer que sus propios diseños pueden tener fallas y que el robot aprenderá y evolucionará con el tiempo. Por lo tanto, el desafío es de diseño de mecanismos: diseñar un mecanismo para hacer evolucionar la IA bajo un sistema de controles y equilibrios, y darle a los sistemas funciones de utilidad que sigan siendo amigables frente a tales cambios. [6]

En respuesta a la preocupación por la convergencia instrumental , de que los sistemas autónomos de toma de decisiones con objetivos mal diseñados tendrían incentivos predeterminados para maltratar a los humanos, Yudkowsky y otros investigadores del MIRI han recomendado que se trabaje para especificar agentes de software que converjan en comportamientos predeterminados seguros incluso cuando sus los objetivos están mal especificados. [11] [7]

Previsión de capacidades

En el escenario de explosión de inteligencia planteado por IJ Good , los sistemas de IA que se mejoran recursivamente a sí mismos pasan rápidamente de una inteligencia general infrahumana a una inteligencia superinteligente . El libro de Nick Bostrom de 2014, Superintelligence: Paths, Dangers, Strategies , esboza el argumento de Good en detalle, al tiempo que cita a Yudkowsky sobre el riesgo de que la antropomorfización de los sistemas avanzados de IA haga que la gente malinterprete la naturaleza de una explosión de inteligencia. "La IA podría dar un salto aparentemente brusco en la inteligencia simplemente como resultado del antropomorfismo, la tendencia humana a pensar en el 'idiota del pueblo' y el 'Einstein' como los extremos de la escala de inteligencia, en lugar de puntos casi indistinguibles en la escala de las mentes. -en general." [6] [10] [12]

Eliezer debate sobre el destino en el Manifiesto 2023

En Inteligencia artificial: un enfoque moderno , Russell y Norvig plantean la objeción de que existen límites conocidos para la resolución inteligente de problemas desde la teoría de la complejidad computacional ; Si existen límites estrictos sobre la eficiencia con la que los algoritmos pueden resolver diversas tareas, es posible que no sea posible una explosión de inteligencia. [6]

Artículo de opinión del tiempo

En un artículo de opinión de 2023 para la revista Time , Yudkowsky analizó el riesgo de la inteligencia artificial y propuso medidas que podrían tomarse para limitarlo, incluida una interrupción total del desarrollo de la IA, [13] [14] o incluso "destruir ] un centro de datos deshonesto por ataque aéreo". [5] El artículo ayudó a introducir el debate sobre la alineación de la IA con la corriente principal, lo que llevó a un periodista a hacerle al presidente Joe Biden una pregunta sobre la seguridad de la IA en una conferencia de prensa. [2]

Escritura de racionalidad

Entre 2006 y 2009, Yudkowsky y Robin Hanson fueron los principales contribuyentes a Overcoming Bias , un blog de ciencias sociales y cognitivas patrocinado por el Instituto del Futuro de la Humanidad de la Universidad de Oxford. En febrero de 2009, Yudkowsky fundó LessWrong , un "blog comunitario dedicado a refinar el arte de la racionalidad humana". [15] [16] Desde entonces, Overcoming Bias ha funcionado como el blog personal de Hanson.

Más de 300 publicaciones de blog de Yudkowsky sobre filosofía y ciencia (escritas originalmente en LessWrong y Overcoming Bias ) fueron publicadas como un libro electrónico, Rationality: From AI to Zombies , por MIRI en 2015. [17] MIRI también publicó Inadequate Equilibria , el libro electrónico de Yudkowsky de 2017. sobre las ineficiencias sociales. [18]

Yudkowsky también ha escrito varias obras de ficción. Su novela de fanfiction Harry Potter y los métodos de la racionalidad utiliza elementos de la trama de la serie Harry Potter de JK Rowling para ilustrar temas científicos. [15] [19] The New Yorker describió Harry Potter y los métodos de la racionalidad como una versión del original de Rowling "en un intento de explicar la hechicería de Harry a través del método científico". [20]

Vida personal

Yudkowsky es autodidacta [21] y no asistió a la escuela secundaria ni a la universidad. [22] Fue criado como un judío ortodoxo moderno , pero no se identifica religiosamente como judío. [23] [24]

Publicaciones académicas

Ver también

Notas

  1. ^ O Salomón

Referencias

  1. ^ "Eliezer Yudkowsky sobre las "Tres escuelas principales de singularidad"" en YouTube . 16 de febrero de 2012. Marca de tiempo 1:18.
  2. ^ ab Silver, Nate (10 de abril de 2023). "¿Qué tan preocupados están los estadounidenses por los peligros de la IA?". Cinco Treinta Ocho . Archivado desde el original el 17 de abril de 2023 . Consultado el 17 de abril de 2023 .
  3. Ocampo, Rodolfo (4 de abril de 2023). "Solía ​​trabajar en Google y ahora soy investigador de IA. He aquí por qué es aconsejable frenar el desarrollo de la IA". La conversación . Archivado desde el original el 11 de abril de 2023 . Consultado el 19 de junio de 2023 .
  4. ^ Gault, Matthew (31 de marzo de 2023). "El teórico de la IA dice que la guerra nuclear es preferible al desarrollo de IA avanzada". Vicio . Archivado desde el original el 15 de mayo de 2023 . Consultado el 19 de junio de 2023 .
  5. ^ abc Hutson, Matthew (16 de mayo de 2023). "¿Podemos detener la IA desbocada?". El neoyorquino . ISSN  0028-792X. Archivado desde el original el 19 de mayo de 2023 . Consultado el 19 de mayo de 2023 . Eliezer Yudkowsky, investigador del Instituto de Investigación de Inteligencia Artificial, en el Área de la Bahía, ha comparado las recomendaciones de seguridad de la IA con un sistema de alarma contra incendios. Un experimento clásico descubrió que, cuando una niebla de humo comenzaba a llenar una habitación que contenía varias personas, la mayoría no lo reportaba. Vieron que otros permanecían estoicos y restaban importancia al peligro. Una alarma oficial puede indicar que es legítimo tomar medidas. Pero, en la IA, no hay nadie con la autoridad clara para hacer sonar tal alarma, y ​​la gente siempre estará en desacuerdo sobre qué avances cuentan como evidencia de una conflagración. "No habrá ninguna alarma de incendio que no sea un AGI en funcionamiento", escribió Yudkowsky. Incluso si todos están de acuerdo sobre la amenaza, ninguna empresa o país querrá detenerse por sí solo, por miedo a ser superado por sus competidores. ... Eso puede requerir abandonar la IA de golpe antes de que sintamos que es hora de detenernos, en lugar de acercarnos cada vez más al límite, tentando al destino. Pero cerrarlo todo requeriría medidas draconianas, tal vez incluso medidas tan extremas como las propugnadas por Yudkowsky, quien recientemente escribió, en un editorial para Time, que deberíamos "estar dispuestos a destruir un centro de datos corrupto mediante un ataque aéreo", incluso en el mismo momento. riesgo de provocar "un intercambio nuclear total".
  6. ^ abcd Russell, Estuardo ; Norvig, Peter (2009). Inteligencia artificial: un enfoque moderno . Prentice Hall. ISBN 978-0-13-604259-4.
  7. ^ ab Leighton, Jonathan (2011). La batalla por la compasión: la ética en un universo apático . Algora. ISBN 978-0-87586-870-7.
  8. ^ Kurzweil, Ray (2005). La singularidad está cerca . Nueva York: pingüino vikingo. ISBN 978-0-670-03384-3.
  9. ^ Ford, Paul (11 de febrero de 2015). "Nuestro miedo a la inteligencia artificial". Revisión de tecnología del MIT . Archivado desde el original el 30 de marzo de 2019 . Consultado el 9 de abril de 2019 .
  10. ^ ab Yudkowsky, Eliezer (2008). «La inteligencia artificial como factor positivo y negativo del riesgo global» (PDF) . En Bostrom, Nick ; Ćirković, Milán (eds.). Riesgos catastróficos globales . Prensa de la Universidad de Oxford. ISBN 978-0199606504. Archivado (PDF) desde el original el 2 de marzo de 2013 . Consultado el 16 de octubre de 2015 .
  11. ^ Se eleva, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibilidad". Talleres AAAI: Talleres en la Vigésima Novena Conferencia AAAI sobre Inteligencia Artificial, Austin, TX, 25 y 26 de enero de 2015 . Publicaciones AAAI. Archivado desde el original el 15 de enero de 2016 . Consultado el 16 de octubre de 2015 .
  12. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Prensa de la Universidad de Oxford. ISBN 978-0199678112.
  13. ^ Moss, Sebastian (30 de marzo de 2023). ""Esté dispuesto a destruir un centro de datos fraudulento mediante un ataque aéreo ": un investigador líder en alineación de IA escribe un artículo de Time que pide la prohibición de grandes grupos de GPU". Dinámica del centro de datos . Archivado desde el original el 17 de abril de 2023 . Consultado el 17 de abril de 2023 .
  14. ^ Ferguson, Niall (9 de abril de 2023). "Los extraterrestres han aterrizado y nosotros los creamos". Bloomberg . Archivado desde el original el 9 de abril de 2023 . Consultado el 17 de abril de 2023 .
  15. ^ ab Miller, James (2012). "Singularidad en aumento" . BenBella Books, Inc. ISBN 978-1936661657.
  16. ^ Miller, James (28 de julio de 2011). "Puedes aprender a ser más racional". Business Insider . Archivado desde el original el 10 de agosto de 2018 . Consultado el 25 de marzo de 2014 .
  17. ^ Miller, James D. "Furias en la racionalidad - Nueva revisión de Rambler". newramblerreview.com . Archivado desde el original el 28 de julio de 2018 . Consultado el 28 de julio de 2018 .
  18. ^ Instituto de Investigación de Inteligencia Artificial . "Equilibrios inadecuados: dónde y cómo se estancan las civilizaciones". Archivado desde el original el 21 de septiembre de 2020 . Consultado el 13 de mayo de 2020 .
  19. ^ Snyder, Daniel D. (18 de julio de 2011). "'Harry Potter' y la clave de la inmortalidad". El Atlántico . Archivado desde el original el 23 de diciembre de 2015 . Consultado el 13 de junio de 2022 .
  20. ^ Empacador, George (2011). "Sin muerte, sin impuestos: el futurismo libertario de un multimillonario de Silicon Valley". El neoyorquino . pag. 54. Archivado desde el original el 14 de diciembre de 2016 . Consultado el 12 de octubre de 2015 .
  21. ^ Matthews, Dylan; Pinkerton, Byrd (19 de junio de 2019). "Él cofundó Skype. Ahora está gastando su fortuna en detener la peligrosa IA". Vox . Archivado desde el original el 6 de marzo de 2020 . Consultado el 22 de marzo de 2020 .
  22. ^ Saperstein, Gregory (9 de agosto de 2012). "Cinco minutos con un visionario: Eliezer Yudkowsky". CNBC . Archivado desde el original el 1 de agosto de 2017 . Consultado el 9 de septiembre de 2017 .
  23. ^ Elia-Shalev, Asaf (1 de diciembre de 2022). "Las sinagogas se están sumando a una iniciativa de 'altruismo eficaz'. ¿Las detendrá el escándalo de Sam Bankman-Fried?". Agencia Telegráfica Judía . Consultado el 4 de diciembre de 2023 .
  24. ^ Yudkowsky, Eliezer (4 de octubre de 2007). "Evitar los verdaderos puntos débiles de tus creencias". Menos incorrecto . Archivado desde el original el 2 de mayo de 2021 . Consultado el 30 de abril de 2021 .

enlaces externos