En 2000, Eliezer Yudkowsky fundó el Singularity Institute for Artificial Intelligence con financiación de Brian y Sabine Atkins, con el propósito de acelerar el desarrollo de la inteligencia artificial (IA). [1] [2] [3] Sin embargo, Yudkowsky comenzó a preocuparse de que los sistemas de IA desarrollados en el futuro pudieran volverse superinteligentes y representar riesgos para la humanidad, [1] y en 2005 el instituto se mudó a Silicon Valley y comenzó a centrarse en formas para identificar y gestionar esos riesgos, que en ese momento eran en gran medida ignorados por los científicos en el campo. [2]
A partir de 2006, el Instituto organizó la Cumbre de Singularidad para discutir el futuro de la IA, incluidos sus riesgos, inicialmente en cooperación con la Universidad de Stanford y con financiación de Peter Thiel . El San Francisco Chronicle describió la primera conferencia como una "fiesta de presentación en el Área de la Bahía de la filosofía inspirada en la tecnología llamada transhumanismo". [4] [5] En 2011, sus oficinas eran cuatro apartamentos en el centro de Berkeley. [6] En diciembre de 2012, el instituto vendió su nombre, dominio web y Singularity Summit a Singularity University , [7] y al mes siguiente tomó el nombre de "Machine Intelligence Research Institute". [8]
En 2014 y 2015, creció el interés público y científico en los riesgos de la IA, aumentando las donaciones para financiar la investigación en MIRI y organizaciones similares. [3] [9] : 327
En 2019, Open Philanthropy recomendó una subvención de apoyo general de aproximadamente 2,1 millones de dólares durante dos años a MIRI. [10] En abril de 2020, Open Philanthropy complementó esto con una subvención de 7,7 millones de dólares durante dos años. [11] [12]
Nate Soares presenta una descripción general del problema de alineación de la IA en Google en 2016
El enfoque de MIRI para identificar y gestionar los riesgos de la IA, dirigido por Yudkowsky, aborda principalmente cómo diseñar una IA amigable, abarcando tanto el diseño inicial de los sistemas de IA como la creación de mecanismos para garantizar que los sistemas de IA en evolución sigan siendo amigables. [3] [14] [15]
Los investigadores del MIRI abogan por un trabajo de seguridad temprano como medida de precaución. [16] Sin embargo, los investigadores del MIRI han expresado escepticismo sobre las opiniones de defensores de la singularidad como Ray Kurzweil de que la superinteligencia está "a la vuelta de la esquina". [14] MIRI ha financiado trabajos de previsión a través de una iniciativa llamada AI Impacts, que estudia casos históricos de cambio tecnológico discontinuo y ha desarrollado nuevas medidas del poder computacional relativo de los humanos y el hardware de las computadoras. [17]
MIRI se alinea con los principios y objetivos del movimiento de altruismo eficaz . [18]
Obras del personal de MIRI
Graves, Matthew (8 de noviembre de 2017). "Por qué deberíamos preocuparnos por la superinteligencia artificial". Escéptico . La sociedad de los escépticos . Consultado el 28 de julio de 2018 .
LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer ; Bárász, Mihály; Cristiano, Pablo; Herreshoff, Marcello (2014). "Programa de equilibrio en el dilema del prisionero mediante el teorema de Löb". Interacción multiagente sin coordinación previa: artículos del taller AAAI-14 . Publicaciones AAAI.
Soares, Nate; Levinstein, Benjamín A. (2017). "Engañando a la muerte en Damasco" (PDF) . Taller Formal de Epistemología (POCOS) . Consultado el 28 de julio de 2018 .
Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer ; Armstrong, Estuardo (2015). "Corrigibilidad". Talleres AAAI: Talleres en la Vigésima Novena Conferencia AAAI sobre Inteligencia Artificial, Austin, TX, 25 y 26 de enero de 2015 . Publicaciones AAAI.
Soares, Nate; Fallenstein, Benja (2015). "Alinear la superinteligencia con los intereses humanos: una agenda de investigación técnica" (PDF) . En Miller, James; Yampolskiy, romano; Armstrong, Estuardo; et al. (eds.). La singularidad tecnológica: gestionar el viaje . Saltador.
Yudkowsky, Eliezer (2008). «La inteligencia artificial como factor positivo y negativo del riesgo global» (PDF) . En Bostrom, Nick ; Ćirković, Milán (eds.). Riesgos catastróficos globales . Prensa de la Universidad de Oxford. ISBN 978-0199606504.
Taylor, Jessica (2016). "Cuantilizadores: una alternativa más segura a los maximizadores para una optimización limitada". Talleres en la Trigésima Conferencia AAAI sobre Inteligencia Artificial .
Yudkowsky, Eliezer (2011). "Sistemas de valor complejos en una IA amigable" (PDF) . Inteligencia general artificial: Cuarta Conferencia Internacional, AGI 2011, Mountain View, CA, EE. UU., 3 al 6 de agosto de 2011 . Berlín: Springer.
^ ab "MIRI: Inteligencia artificial: el peligro de las buenas intenciones - Future of Life Institute". Instituto Futuro de la Vida . 11 de octubre de 2015. Archivado desde el original el 28 de agosto de 2018 . Consultado el 28 de agosto de 2018 .
^ ab Khatchadourian, Raffi. "La invención del fin del mundo". El neoyorquino . Archivado desde el original el 29 de abril de 2019 . Consultado el 28 de agosto de 2018 .
^ abc Waters, Richard (31 de octubre de 2014). "Inteligencia artificial: máquina contra hombre". Tiempos financieros . Archivado desde el original el 27 de agosto de 2018 . Consultado el 27 de agosto de 2018 .
^ Abate, Tom (2006). "¿Más inteligente que tú?". Crónica de San Francisco . Archivado desde el original el 11 de febrero de 2011 . Consultado el 12 de octubre de 2015 .
^ Abate, Tom (2007). "La reunión pública reexaminará el futuro de la inteligencia artificial". Crónica de San Francisco . Archivado desde el original el 14 de enero de 2016 . Consultado el 12 de octubre de 2015 .
^ Kaste, Martín (11 de enero de 2011). "La singularidad: ¿el último invento de la humanidad?". Considerando todas las cosas, NPR . Archivado desde el original el 28 de agosto de 2018 . Consultado el 28 de agosto de 2018 .
^ "Comunicado de prensa: Singularity University adquiere Singularity Summitt". Universidad de la Singularidad . 9 de diciembre de 2012. Archivado desde el original el 27 de abril de 2019 . Consultado el 28 de agosto de 2018 .
^ "Comunicado de prensa: ahora somos el" Instituto de Investigación de Inteligencia de Máquinas "(MIRI) - Instituto de Investigación de Inteligencia de Máquinas". Instituto de Investigación de Inteligencia Artificial . 30 de enero de 2013. Archivado desde el original el 23 de septiembre de 2018 . Consultado el 28 de agosto de 2018 .
^ "Instituto de investigación de inteligencia artificial: soporte general (2019)". Proyecto Filantropía Abierta . 2019-03-29. Archivado desde el original el 8 de octubre de 2019 . Consultado el 8 de octubre de 2019 .
^ "Instituto de investigación de inteligencia artificial: soporte general (2020)". Proyecto de Filantropía Abierta. 10 de marzo de 2020. Archivado desde el original el 13 de abril de 2020.
^ Bensinger, Rob (27 de abril de 2020). "¡La subvención más grande de MIRI hasta la fecha!". MIRI. Archivado desde el original el 27 de abril de 2020 . Consultado el 27 de abril de 2020 .
^ Maheshwari, Suyash (13 de mayo de 2021). "El creador de Ethereum, Vitalik Buterin, dona 1.500 millones de dólares en criptomonedas al Fondo de ayuda COVID de la India y otras organizaciones benéficas". MSN . Archivado desde el original el 24 de agosto de 2021 . Consultado el 23 de enero de 2023 .
^ ab LaFrance, Adrienne (2015). "Construyendo robots con mejor moral que los humanos". El Atlántico . Archivado desde el original el 19 de agosto de 2015 . Consultado el 12 de octubre de 2015 .
^ Sathian, Sanjena (4 de enero de 2016). "Los filósofos más importantes de nuestro tiempo residen en Silicon Valley". OZY . Archivado desde el original el 29 de julio de 2018 . Consultado el 28 de julio de 2018 .
^ Hsu, Jeremy (2015). "Asegurarse de que el rápido aumento de la IA no sea una sorpresa". Descubrir . Archivado desde el original el 12 de octubre de 2015 . Consultado el 12 de octubre de 2015 .
^ "IA y altruismo eficaz". Instituto de Investigación de Inteligencia Artificial . 2015-08-28. Archivado desde el original el 8 de octubre de 2019 . Consultado el 8 de octubre de 2019 .
Otras lecturas
Russell, Estuardo; Dewey, Daniel; Tegmark, Max (invierno de 2015). "Prioridades de investigación para una inteligencia artificial sólida y beneficiosa". Revista AI . 36 (4): 6. arXiv : 1602.03506 . Código Bib : 2016arXiv160203506R. doi :10.1609/aimag.v36i4.2577.