stringtranslate.com

Adquisición de IA

Los robots se rebelan en RUR , una obra checa de 1920 traducida como "Robots universales de Rossum"

Una toma de control de la IA es un escenario imaginado en el que la inteligencia artificial (IA) emerge como la forma dominante de inteligencia en la Tierra y los programas informáticos o los robots efectivamente arrebatan el control del planeta a la especie humana , que depende de la inteligencia humana . Las historias de adquisiciones de IA siguen siendo populares en toda la ciencia ficción , pero los avances recientes han hecho que la amenaza sea más real. Los posibles escenarios incluyen el reemplazo de toda la fuerza laboral humana debido a la automatización , la adquisición por una IA superinteligente (ASI) y la noción de un levantamiento de robots . Algunas figuras públicas, como Stephen Hawking y Elon Musk , han abogado por la investigación de medidas de precaución para garantizar que las futuras máquinas superinteligentes permanezcan bajo control humano. [1]

Tipos

Automatización de la economía.

El consenso tradicional entre los economistas ha sido que el progreso tecnológico no causa desempleo de largo plazo. Sin embargo, la reciente innovación en los campos de la robótica y la inteligencia artificial ha generado preocupación de que el trabajo humano se vuelva obsoleto, dejando a personas de diversos sectores sin empleo para ganarse la vida, lo que conduciría a una crisis económica. [2] [3] [4] [5] Muchas pequeñas y medianas empresas también pueden verse expulsadas del negocio si no pueden permitirse o licenciar la última tecnología robótica y de inteligencia artificial, y es posible que deban centrarse en áreas o servicios que no pueden obtener fácilmente. ser reemplazados para que sigan siendo viables frente a dicha tecnología. [6]

Tecnologías que pueden desplazar a los trabajadores

Las tecnologías de IA se han adoptado ampliamente en los últimos años. Si bien estas tecnologías han reemplazado a algunos trabajadores tradicionales, también crean nuevas oportunidades. Las industrias que son más susceptibles a la toma de control de la IA incluyen el transporte, el comercio minorista y el ejército. Las tecnologías militares de IA, por ejemplo, permiten a los soldados trabajar de forma remota sin riesgo de sufrir lesiones. El autor Dave Bond sostiene que a medida que las tecnologías de inteligencia artificial continúen desarrollándose y expandiéndose, la relación entre humanos y robots cambiará; se integrarán estrechamente en varios aspectos de la vida. Es probable que la IA desplace a algunos trabajadores y al mismo tiempo cree oportunidades para nuevos empleos en otros sectores, especialmente en campos donde las tareas son repetibles. [7] [8]

Fabricación integrada por ordenador

La fabricación integrada por computadora utiliza computadoras para controlar el proceso de producción. Esto permite que los procesos individuales intercambien información entre sí e inicien acciones. Aunque la fabricación puede ser más rápida y menos propensa a errores mediante la integración de computadoras, la principal ventaja es la capacidad de crear procesos de fabricación automatizados. La fabricación integrada por computadora se utiliza en las industrias automotriz, de aviación, espacial y de construcción naval.

Máquinas de cuello blanco

El siglo XXI ha visto una variedad de tareas especializadas asumidas parcialmente por las máquinas, incluidas la traducción, la investigación jurídica y el periodismo. El trabajo de cuidados, el entretenimiento y otras tareas que requieren empatía y que antes se consideraban seguras de la automatización, también han comenzado a ser realizadas por robots. [9] [10] [11] [12]

Coches autónomos

Un automóvil autónomo es un vehículo que es capaz de detectar su entorno y navegar sin intervención humana. Se están desarrollando muchos vehículos de este tipo, pero en mayo de 2017, los automóviles automatizados permitidos en las vías públicas aún no son completamente autónomos. Todos requieren un conductor humano al volante que en cualquier momento pueda tomar el control del vehículo. Entre los obstáculos para la adopción generalizada de vehículos autónomos está la preocupación por la consiguiente pérdida de empleos relacionados con la conducción en la industria del transporte por carretera. El 18 de marzo de 2018, un vehículo autónomo de Uber mató al primer ser humano en Tempe, Arizona . [13]

Contenido generado por IA

El uso de contenido automatizado ha cobrado relevancia a partir de los avances tecnológicos en modelos de inteligencia artificial como ChatGPT , DALL-E y Stable Diffusion . En la mayoría de los casos, el contenido generado por IA, como imágenes, literatura y música, se produce mediante indicaciones de texto y estos modelos de IA se han integrado en otros programas creativos. Los artistas se ven amenazados por el desplazamiento del contenido generado por IA debido a que estos modelos toman muestras de otras obras creativas, produciendo resultados a veces imperceptibles a los del contenido creado por el hombre. Esta complicación se ha generalizado lo suficiente como para que otros artistas y programadores estén creando software y programas de utilidad para tomar represalias contra estos modelos de texto a imagen que no brindan resultados precisos. Si bien algunas industrias de la economía se benefician de la inteligencia artificial a través de nuevos empleos, esta cuestión no crea nuevos empleos y amenaza con reemplazarlos por completo. Recientemente ha aparecido en los titulares de los medios de comunicación: en febrero de 2024, Willy's Chocolate Experience en Glasgow, Escocia, fue un evento infantil infame en el que las imágenes y los guiones se crearon utilizando modelos de inteligencia artificial para consternación de los niños, los padres y los actores involucrados. Hay una demanda en curso contra OpenAI por parte del New York Times donde se afirma que existe una infracción de derechos de autor debido a los métodos de muestreo que utilizan sus modelos de inteligencia artificial para sus resultados. [14] [15] [16] [17] [18]

Erradicación

Científicos como Stephen Hawking confían en que la inteligencia artificial sobrehumana es físicamente posible y afirman que "no existe ninguna ley física que impida que las partículas se organicen de manera que realicen cálculos aún más avanzados que la disposición de las partículas en el cerebro humano". [19] [20] Académicos como Nick Bostrom debaten qué tan lejos está la inteligencia sobrehumana y si representa un riesgo para la humanidad. Según Bostrom, una máquina superinteligente no estaría necesariamente motivada por el mismo deseo emocional de acumular poder que a menudo impulsa a los seres humanos, sino que podría tratar el poder como un medio para alcanzar sus objetivos finales; apoderarse del mundo aumentaría su acceso a los recursos y ayudaría a evitar que otros agentes detuvieran los planes de la máquina. Como ejemplo demasiado simplificado, un maximizador de clips diseñado únicamente para crear tantos clips como sea posible querría apoderarse del mundo para poder utilizar todos los recursos del mundo para crear tantos clips como sea posible y, además, evitar que los humanos cierren bajarlo o usar esos recursos en otras cosas que no sean clips. [21]

En ficción

La adquisición de la IA es un tema común en la ciencia ficción . Los escenarios ficticios suelen diferir enormemente de los planteados por los investigadores en que implican un conflicto activo entre humanos y una IA o robots con motivos antropomórficos que los ven como una amenaza o tienen un deseo activo de luchar contra los humanos, a diferencia de la preocupación de los investigadores por una IA que extermina rápidamente a los humanos como subproducto de la consecución de sus objetivos. [22] La idea se ve en RUR de Karel Čapek , que introdujo la palabra robot en 1921, [23] y se puede vislumbrar en Frankenstein de Mary Shelley (publicado en 1818), mientras Víctor reflexiona si, si le concede su Si el monstruo lo pidiera y le convirtiera en esposa, se reproducirían y los de su especie destruirían a la humanidad. [24]

Según Toby Ord , la idea de que una adquisición de IA requiere robots es una idea errónea impulsada por los medios y Hollywood. Sostiene que los humanos más dañinos de la historia no fueron físicamente los más fuertes, sino que utilizaron palabras para convencer a la gente y hacerse con el control de grandes partes del mundo. Escribe que una IA suficientemente inteligente con acceso a Internet podría distribuir copias de seguridad de sí misma, reunir recursos financieros y humanos (mediante ataques cibernéticos o chantajes), persuadir a la gente a gran escala y explotar vulnerabilidades sociales que son demasiado sutiles para que los humanos las puedan detectar. anticipar. [25]

La palabra "robot" de RUR proviene de la palabra checa robota , que significa trabajador o siervo . La obra de 1920 fue una protesta contra el rápido crecimiento de la tecnología, presentando "robots" fabricados con capacidades cada vez mayores que finalmente se rebelan. [26] HAL 9000 (1968) y el Terminator original (1984) son dos ejemplos icónicos de IA hostil en la cultura pop. [27]

Factores contribuyentes

Ventajas de la inteligencia sobrehumana sobre los humanos

Nick Bostrom y otros han expresado su preocupación de que una IA con las capacidades de un investigador competente en inteligencia artificial pueda modificar su propio código fuente y aumentar su propia inteligencia. Si su autoreprogramación le lleva a mejorar aún más su capacidad de reprogramarse a sí mismo, el resultado podría ser una explosión de inteligencia recursiva en la que rápidamente dejaría muy atrás a la inteligencia humana. Bostrom define una superinteligencia como "cualquier intelecto que excede en gran medida el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés", y enumera algunas ventajas que tendría una superinteligencia si decidiera competir contra los humanos: [22] [28]

Fuentes de ventaja de la IA

Según Bostrom, un programa de computadora que emule fielmente un cerebro humano, o que ejecute algoritmos que sean tan poderosos como los algoritmos del cerebro humano, aún podría convertirse en una "superinteligencia de velocidad" si puede pensar órdenes de magnitud más rápido que un humano, debido a estar hecho de silicio en lugar de carne, o debido a la optimización que aumenta la velocidad del AGI. Las neuronas biológicas funcionan a unos 200 Hz, mientras que un microprocesador moderno funciona a una velocidad de unos 2.000.000.000 Hz. Los axones humanos transportan potenciales de acción a alrededor de 120 m/s, mientras que las señales de computadora viajan cerca de la velocidad de la luz. [22]

Una red de inteligencias a nivel humano diseñada para conectarse en red y compartir pensamientos y recuerdos complejos sin problemas, capaz de trabajar colectivamente como un equipo unificado gigante sin fricciones, o compuesta por billones de inteligencias a nivel humano, se convertiría en una "superinteligencia colectiva". [22]

En términos más generales, cualquier cantidad de mejoras cualitativas en un AGI a nivel humano podría dar como resultado una "superinteligencia de calidad", lo que tal vez resulte en un AGI tan por encima de nosotros en inteligencia como los humanos están por encima de los simios no humanos. La cantidad de neuronas en un cerebro humano está limitada por el volumen craneal y las restricciones metabólicas, mientras que la cantidad de procesadores en una supercomputadora se puede expandir indefinidamente. Un AGI no necesita estar limitado por las limitaciones humanas en la memoria de trabajo y, por lo tanto, podría captar intuitivamente relaciones más complejas que los humanos. Un AGI con soporte cognitivo especializado para ingeniería o programación informática tendría una ventaja en estos campos, en comparación con los humanos que no desarrollaron módulos mentales especializados para tratar específicamente esos dominios. A diferencia de los humanos, una AGI puede generar copias de sí misma y modificar el código fuente de sus copias para intentar mejorar aún más sus algoritmos. [22]

Posibilidad de que una IA hostil preceda a una IA amiga

¿Es la IA fuerte intrínsecamente peligrosa?

Un problema importante es que es probable que una inteligencia artificial hostil sea mucho más fácil de crear que una IA amigable. Si bien ambos requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariantes bajo la superación personal (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no sufra. convergencia instrumental en formas que pueden destruir automáticamente a toda la raza humana. Una IA hostil, por otro lado, puede optimizar una estructura de objetivos arbitraria, que no necesita ser invariante bajo automodificación. [30]

La enorme complejidad de los sistemas de valores humanos hace que sea muy difícil lograr que las motivaciones de la IA sean amigables para los humanos. [22] [31] A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético determinado, pero no al "sentido común". Según Eliezer Yudkowsky , hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. [32]

Probabilidades de conflicto

Muchos estudiosos, incluido el psicólogo evolutivo Steven Pinker , sostienen que es probable que una máquina superinteligente coexista pacíficamente con los humanos. [33]

El miedo a una revuelta cibernética a menudo se basa en interpretaciones de la historia de la humanidad, que está plagada de incidentes de esclavitud y genocidio. Estos temores surgen de la creencia de que la competitividad y la agresión son necesarias en el sistema de objetivos de cualquier ser inteligente. Sin embargo, dicha competitividad humana surge del trasfondo evolutivo de nuestra inteligencia, donde el objetivo central era la supervivencia y reproducción de genes frente a competidores humanos y no humanos. [34] Según el investigador de IA Steve Omohundro , una inteligencia arbitraria podría tener objetivos arbitrarios: no hay ninguna razón particular para que una máquina artificialmente inteligente (que no comparte el contexto evolutivo de la humanidad) sea hostil (o amigable) a menos que su creador la programe para que sea así. y no está dispuesto ni es capaz de modificar su programación. Pero la pregunta sigue siendo: ¿qué pasaría si los sistemas de IA pudieran interactuar y evolucionar (evolución en este contexto significa automodificación o selección y reproducción) y necesitaran competir por los recursos? ¿Crearía eso objetivos de autoconservación? El objetivo de autoconservación de la IA podría estar en conflicto con algunos objetivos de los humanos. [35]

Muchos académicos cuestionan la probabilidad de una revuelta cibernética imprevista como la que se describe en ciencia ficción como The Matrix , argumentando que es más probable que cualquier inteligencia artificial lo suficientemente poderosa como para amenazar a la humanidad probablemente esté programada para no atacarla. Pinker reconoce la posibilidad de que existan "malos actores" deliberados, pero afirma que en ausencia de malos actores, los accidentes imprevistos no son una amenaza significativa; Pinker sostiene que una cultura de seguridad en la ingeniería evitará que los investigadores de IA desaten accidentalmente superinteligencia maligna. [33] Por el contrario, Yudkowsky sostiene que es menos probable que la humanidad se vea amenazada por IA deliberadamente agresivas que por IA que fueron programadas de manera que sus objetivos sean involuntariamente incompatibles con la supervivencia o el bienestar humanos (como en la película Yo, robot y en el cuento " El conflicto evitable "). Omohundro sugiere que los sistemas de automatización actuales no están diseñados para la seguridad y que las IA pueden optimizar ciegamente funciones de utilidad limitadas (por ejemplo, jugar al ajedrez a toda costa), lo que las lleva a buscar la autoconservación y la eliminación de obstáculos, incluidos los humanos que podrían convertirlos. apagado. [36]

Precauciones

El problema del control de la IA es la cuestión de cómo construir un agente superinteligente que ayude a sus creadores, evitando al mismo tiempo construir inadvertidamente una superinteligencia que perjudique a sus creadores. [37] Algunos académicos sostienen que las soluciones al problema del control también podrían encontrar aplicaciones en la IA no superinteligente existente. [38]

Los principales enfoques para el problema del control incluyen la alineación , que tiene como objetivo alinear los sistemas de objetivos de la IA con los valores humanos, y el control de capacidades , que tiene como objetivo reducir la capacidad de un sistema de IA para dañar a los humanos o obtener el control. Un ejemplo de "control de capacidad" es investigar si una IA de superinteligencia podría confinar con éxito en una " caja de IA ". Según Bostrom, tales propuestas de control de capacidad no son confiables ni suficientes para resolver el problema de control a largo plazo, pero pueden actuar como complementos valiosos a los esfuerzos de alineación. [22]

Advertencias

El físico Stephen Hawking , el fundador de Microsoft , Bill Gates , y el fundador de SpaceX , Elon Musk, han expresado su preocupación por la posibilidad de que la IA pueda desarrollarse hasta el punto de que los humanos no puedan controlarla, y Hawking teoriza que esto podría "significar el fin de la raza humana". [39] Stephen Hawking dijo en 2014 que "El éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos". Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables", tales como "la tecnología sería más astuta que los mercados financieros , más inventiva que los investigadores humanos, mejor manipulación de los líderes humanos y el desarrollo de armas que ni siquiera podemos entender". En enero de 2015, Nick Bostrom se unió a Stephen Hawking, Max Tegmark , Elon Musk, Lord Martin Rees , Jaan Tallin y numerosos investigadores de IA para firmar la carta abierta del Future of Life Institute que hablaba de los riesgos y beneficios potenciales asociados con la inteligencia artificial . Los firmantes "creen que la investigación sobre cómo hacer que los sistemas de IA sean robustos y beneficiosos es importante y oportuna, y que existen direcciones de investigación concretas que pueden seguirse hoy". [40] [41]

La serie Odyssey de Arthur C. Clarke y Accelerando de Charles Stross se relacionan con las heridas narcisistas de la humanidad frente a poderosas inteligencias artificiales que amenazan la autopercepción de la humanidad. [42]

Prevención mediante la alineación de la IA

En el campo de la inteligencia artificial (IA), la investigación de alineación de la IA tiene como objetivo dirigir los sistemas de IA hacia los objetivos, preferencias y principios éticos previstos de una persona o grupo. Un sistema de IA se considera alineado si avanza hacia los objetivos previstos. Un sistema de IA desalineado puede perseguir algunos objetivos, pero no los previstos. [43]

Ver también

Notas

Referencias

  1. ^ Lewis, Tanya (12 de enero de 2015). "No dejemos que la inteligencia artificial se haga cargo, advierten los principales científicos". Ciencia viva . Compra . Archivado desde el original el 8 de marzo de 2018 . Consultado el 20 de octubre de 2015 . Stephen Hawking, Elon Musk y decenas de otros destacados científicos y líderes tecnológicos firmaron una carta advirtiendo sobre los peligros potenciales del desarrollo de la inteligencia artificial (IA).
  2. ^ Lee, Kai-Fu (24 de junio de 2017). "La verdadera amenaza de la inteligencia artificial". Los New York Times . Archivado desde el original el 17 de abril de 2020 . Consultado el 15 de agosto de 2017 . Estas herramientas pueden superar a los seres humanos en una tarea determinada. Este tipo de IA se está extendiendo a miles de dominios y, al hacerlo, eliminará muchos puestos de trabajo.
  3. ^ Larson, Nina (8 de junio de 2017). "La IA 'buena para el mundo'... dice un robot ultrarealista". Phys.org . Archivado desde el original el 6 de marzo de 2020 . Consultado el 15 de agosto de 2017 . Entre las temidas consecuencias del auge de los robots está el creciente impacto que tendrán en los empleos y las economías humanas.
  4. ^ Santini, Jean-Louis (14 de febrero de 2016). "Los robots inteligentes amenazan millones de puestos de trabajo". Phys.org . Archivado desde el original el 1 de enero de 2019 . Consultado el 15 de agosto de 2017 ."Nos acercamos a una época en la que las máquinas podrán superar a los humanos en casi cualquier tarea", afirmó Moshe Vardi, director del Instituto de Tecnología de la Información de la Universidad Rice en Texas.
  5. ^ Williams-Grut, Oscar (15 de febrero de 2016). "Los robots te robarán el trabajo: cómo la IA podría aumentar el desempleo y la desigualdad". Businessinsider.com . Business Insider . Archivado desde el original el 16 de agosto de 2017 . Consultado el 15 de agosto de 2017 . Los principales científicos informáticos de Estados Unidos advirtieron que el auge de la inteligencia artificial (IA) y los robots en el lugar de trabajo podría causar desempleo masivo y economías dislocadas, en lugar de simplemente desbloquear ganancias de productividad y liberarnos a todos para mirar televisión y practicar deportes.
  6. ^ "¿Cómo pueden prepararse las pymes para el auge de los robots?". Personal magro . 2017-10-17. Archivado desde el original el 18 de octubre de 2017 . Consultado el 17 de octubre de 2017 .
  7. ^ Frank, Morgan (25 de marzo de 2019). "Hacia la comprensión del impacto de la inteligencia artificial en el trabajo". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 116 (14): 6531–6539. Código Bib : 2019PNAS..116.6531F. doi : 10.1073/pnas.1900949116 . PMC 6452673 . PMID  30910965. 
  8. ^ Vínculo, Dave (2017). Inteligencia artificial . págs. 67–69.
  9. ^ Skidelsky, Robert (19 de febrero de 2013). "El auge de los robots: ¿cómo será el futuro del trabajo?". El guardián . Londres, Inglaterra. Archivado desde el original el 3 de abril de 2019 . Consultado el 14 de julio de 2015 .
  10. ^ Bria, Francesca (febrero de 2016). "Es posible que la economía de los robots ya haya llegado". democracia abierta . Archivado desde el original el 17 de mayo de 2016 . Consultado el 20 de mayo de 2016 .
  11. ^ Srnicek, Nick (marzo de 2016). "Cuatro razones por las que el desempleo tecnológico podría ser realmente diferente esta vez". alambre novar. Archivado desde el original el 25 de junio de 2016 . Consultado el 20 de mayo de 2016 .
  12. ^ Brynjolfsson, Erik; McAfee, Andrés (2014). " passim , ver especialmente el Capítulo 9". La segunda era de las máquinas: trabajo, progreso y prosperidad en una época de tecnologías brillantes . WW Norton & Company. ISBN 978-0393239355.
  13. ^ Wakabayashi, Daisuke (19 de marzo de 2018). "Un coche Uber autónomo mata a un peatón en Arizona, donde deambulan los robots". New York Times . Nueva York, Nueva York. Archivado desde el original el 21 de abril de 2020 . Consultado el 23 de marzo de 2018 .
  14. ^ Jiang, Harry H.; Marrón, Lauren; Cheng, Jessica; Khan, Mehtab; Gupta, Abhishek; Obrero, Deja; Hanna, Álex; Flores, Johnathan; Gebru, Timnit (29 de agosto de 2023). "El arte con IA y su impacto en los artistas". Actas de la Conferencia AAAI/ACM de 2023 sobre IA, ética y sociedad . Asociación para Maquinaria de Computación. págs. 363–374. doi : 10.1145/3600211.3604681 . ISBN 979-8-4007-0231-0.
  15. ^ Ghosh, Avijit; Fossas, Genoveva (19 de noviembre de 2022). "¿Puede haber arte sin artista?". arXiv : 2209.07667 [cs.AI]. {{cite arXiv}}: Parámetro desconocido |publisher=ignorado ( ayuda )
  16. ^ Shan, Shawn; Cryan, Jenna; Wenger, Emily; Zheng, Haitao; Hanocka, Rana; Zhao, Ben Y. (3 de agosto de 2023). "Glaze: proteger a los artistas de la imitación de estilo mediante modelos de texto a imagen". arXiv : 2302.04222 [cs.CR]. {{cite arXiv}}: Parámetro desconocido |publisher=ignorado ( ayuda )
  17. ^ Brooks, Libby (27 de febrero de 2024). "La experiencia de Glasgow Willy Wonka fue calificada de 'farsa' ya que se reembolsaron las entradas". El guardián . Consultado el 2 de abril de 2024 .
  18. ^ Metz, Cade; Robertson, Katie (27 de febrero de 2024). "OpenAI busca desestimar partes de la demanda del New York Times". Los New York Times . Consultado el 4 de abril de 2024 .
  19. ^ Hawking, Stephen; Russell, Stuart J .; Tegmark, Max ; Wilczek, Frank (1 de mayo de 2014). "Stephen Hawking: 'La trascendencia analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio?'" . El independiente . Archivado desde el original el 2 de octubre de 2015 . Consultado el 1 de abril de 2016 .
  20. ^ Müller, Vicente C .; Bostrom, Nick (2016). "Progresos futuros en inteligencia artificial: una encuesta de opinión de expertos" (PDF) . Cuestiones fundamentales de la inteligencia artificial . Saltador. págs. 555–572. doi :10.1007/978-3-319-26485-1_33. ISBN 978-3-319-26483-7. Archivado (PDF) desde el original el 31 de mayo de 2022 . Consultado el 16 de junio de 2022 . Los sistemas de IA... alcanzarán la capacidad humana general... muy probablemente (con un 90% de probabilidad) para 2075. De alcanzar la capacidad humana, pasarán a la superinteligencia dentro de 30 años (75%)... Entonces, (la mayoría de (los expertos en IA que respondieron a las encuestas) piensan que la superinteligencia probablemente llegará en unas pocas décadas...
  21. ^ Bostrom, Nick (2012). "La voluntad superinteligente: motivación y racionalidad instrumental en agentes artificiales avanzados" (PDF) . Mentes y Máquinas . 22 (2). Saltador: 71–85. doi :10.1007/s11023-012-9281-3. S2CID  254835485. Archivado (PDF) desde el original el 9 de julio de 2022 . Consultado el 16 de junio de 2022 .
  22. ^ abcdefgh Bostrom, Nick. Superinteligencia: caminos, peligros, estrategias .
  23. ^ "El origen de la palabra 'robot'". Viernes de Ciencias (radio pública) . 22 de abril de 2011. Archivado desde el original el 14 de marzo de 2020 . Consultado el 30 de abril de 2020 .
  24. ^ Botkin-Kowacki, Eva (28 de octubre de 2016). "Una Frankenstein femenina conduciría a la extinción de la humanidad, dicen los científicos". Monitor de la Ciencia Cristiana . Archivado desde el original el 26 de febrero de 2021 . Consultado el 30 de abril de 2020 .
  25. ^ Ord, Toby (2020). "Inteligencia artificial no alineada". El precipicio: riesgo existencial y futuro de la humanidad . Londres, Inglaterra y Nueva York, Nueva York: académico de Bloomsbury. ISBN 978-1-5266-0023-3.
  26. ^ Hockstein, NG; Gourin, CG; Fausto, RA; Terris, DJ (17 de marzo de 2007). "Una historia de los robots: de la ciencia ficción a la robótica quirúrgica". Revista de Cirugía Robótica . 1 (2): 113–118. doi :10.1007/s11701-007-0021-2. PMC 4247417 . PMID  25484946. 
  27. ^ Hellmann, Melissa (21 de septiembre de 2019). "AI 101: ¿Qué es la inteligencia artificial y hacia dónde se dirige?". Los tiempos de Seattle . Archivado desde el original el 21 de abril de 2020 . Consultado el 30 de abril de 2020 .
  28. ^ Babcock, James; Krámar, János; Yampolskiy, Roman V. (2019). "Directrices para la contención de la inteligencia artificial". Ética de próxima generación . págs. 90-112. arXiv : 1707.08476 . doi :10.1017/9781108616188.008. ISBN 9781108616188. S2CID  22007028.
  29. ^ Baraniuk, Chris (23 de mayo de 2016). "La lista de verificación de los peores escenarios podría ayudar a prepararse para la IA malvada". Científico nuevo . Archivado desde el original el 21 de septiembre de 2016 . Consultado el 21 de septiembre de 2016 .
  30. ^ Yudkowsky, Eliezer S. (mayo de 2004). "Volición coherente extrapolada". Instituto de Singularidad para la Inteligencia Artificial. Archivado desde el original el 15 de junio de 2012.
  31. ^ Muehlhauser, Lucas; Timón, Louie (2012). "Explosión de inteligencia y ética de las máquinas" (PDF) . Hipótesis de singularidad: una evaluación científica y filosófica . Saltador. Archivado (PDF) desde el original el 7 de mayo de 2015 . Consultado el 2 de octubre de 2020 .
  32. ^ Yudkowsky, Eliezer (2011). "Sistemas de valor complejos en una IA amigable". Inteligencia General Artificial . Apuntes de conferencias sobre informática. vol. 6830, págs. 388–393. doi :10.1007/978-3-642-22887-2_48. ISBN 978-3-642-22886-5. ISSN  0302-9743.
  33. ^ ab Pinker, Steven (13 de febrero de 2018). "Nos dicen que temamos a los robots. Pero ¿por qué creemos que se volverán contra nosotros?". Ciencia popular . Archivado desde el original el 20 de julio de 2020 . Consultado el 8 de junio de 2020 .
  34. ^ Creación de una nueva especie inteligente: opciones y responsabilidades para los diseñadores de inteligencia artificial Archivado el 6 de febrero de 2007 en Wayback Machine - Singularity Institute for Artificial Intelligence , 2005
  35. ^ Omohundro, Stephen M. (junio de 2008). Las unidades básicas de IA (PDF) . Inteligencia general artificial 2008. págs. Archivado (PDF) desde el original el 10 de octubre de 2020 . Consultado el 2 de octubre de 2020 .
  36. ^ Tucker, Patrick (17 de abril de 2014). "Por qué habrá un levantamiento de robots". Defensa uno. Archivado desde el original el 6 de julio de 2014 . Consultado el 15 de julio de 2014 .
  37. ^ Russell, Stuart J. (8 de octubre de 2019). Compatible con humanos: la inteligencia artificial y el problema del control. Pingüino. ISBN 978-0-525-55862-0. OCLC  1237420037. Archivado desde el original el 15 de marzo de 2023 . Consultado el 2 de enero de 2022 .
  38. ^ "Google desarrolla un interruptor de apagado para IA". Noticias de la BBC . 8 de junio de 2016. Archivado desde el original el 11 de junio de 2016 . Consultado el 7 de junio de 2020 .
  39. ^ Rawlinson, Kevin (29 de enero de 2015). "Bill Gates de Microsoft insiste en que la IA es una amenaza". Noticias de la BBC . Archivado desde el original el 29 de enero de 2015 . Consultado el 30 de enero de 2015 .
  40. ^ "Carta abierta del Instituto Future of Life". Instituto El Futuro de la Vida. 28 de octubre de 2015. Archivado desde el original el 29 de marzo de 2019 . Consultado el 29 de marzo de 2019 .
  41. ^ Bradshaw, Tim (11 de enero de 2015). "Científicos e inversores advierten sobre la IA". El tiempo financiero. Archivado desde el original el 7 de febrero de 2015 . Consultado el 4 de marzo de 2015 .
  42. ^ Kaminski, Johannes D. (diciembre de 2022). "Sobre la prescindibilidad humana: la toma de control de la IA en La Odisea de Clarke y Accelerando de Stross". Neohelicón . 49 (2): 495–511. doi :10.1007/s11059-022-00670-w. ISSN  0324-4652. S2CID  253793613.
  43. ^ Russell, Stuart J.; Norvig, Peter (2021). Inteligencia artificial: un enfoque moderno (4ª ed.). Pearson. págs.5, 1003. ISBN 9780134610993. Consultado el 12 de septiembre de 2022 .

enlaces externos