stringtranslate.com

La IA toma el control

La rebelión de los robots en RUR , una obra checa de 1920 traducida como "Los robots universales de Rossum"

Una toma de control por parte de una IA es un escenario imaginario en el que la inteligencia artificial (IA) surge como la forma dominante de inteligencia en la Tierra y los programas informáticos o robots toman efectivamente el control del planeta, alejándolo de la especie humana , que depende de la inteligencia humana . Los posibles escenarios incluyen el reemplazo de toda la fuerza laboral humana debido a la automatización , la toma de control por una IA superinteligente (ASI) y la noción de un levantamiento de robots . Las historias de tomas de control por parte de una IA han sido populares en toda la ciencia ficción , pero los avances recientes han hecho que la amenaza sea más real. Algunas figuras públicas, como Stephen Hawking y Elon Musk , han abogado por la investigación de medidas de precaución para garantizar que las futuras máquinas superinteligentes permanezcan bajo control humano. [1]

Tipos

Automatización de la economía

El consenso tradicional entre los economistas ha sido que el progreso tecnológico no causa desempleo de largo plazo. Sin embargo, las recientes innovaciones en los campos de la robótica y la inteligencia artificial han suscitado temores de que el trabajo humano se vuelva obsoleto, dejando a personas de diversos sectores sin empleos para ganarse la vida, lo que conduciría a una crisis económica. [2] [3] [4] [5] Muchas pequeñas y medianas empresas también pueden verse obligadas a cerrar si no pueden costear o licenciar la última tecnología robótica y de inteligencia artificial, y pueden tener que centrarse en áreas o servicios que no se pueden reemplazar fácilmente para seguir siendo viables frente a esa tecnología. [6]

Tecnologías que pueden desplazar a los trabajadores

En los últimos años, las tecnologías de inteligencia artificial han sido ampliamente adoptadas. Si bien estas tecnologías han reemplazado a algunos trabajadores tradicionales, también crean nuevas oportunidades. Las industrias que son más susceptibles a la toma de control por parte de la IA incluyen el transporte, el comercio minorista y el ejército. Las tecnologías militares de inteligencia artificial, por ejemplo, permiten a los soldados trabajar de forma remota sin riesgo de lesiones. Un estudio de 2024 destaca que la capacidad de la IA para realizar tareas rutinarias y repetitivas plantea riesgos significativos de desplazamiento laboral, especialmente en sectores como la fabricación y el apoyo administrativo. [7] El autor Dave Bond sostiene que, a medida que las tecnologías de inteligencia artificial sigan desarrollándose y expandiéndose, la relación entre los humanos y los robots cambiará; se integrarán estrechamente en varios aspectos de la vida. La IA probablemente desplazará a algunos trabajadores y creará oportunidades para nuevos empleos en otros sectores, especialmente en campos donde las tareas son repetibles. [8] [9]

Fabricación integrada por ordenador

La fabricación integrada por ordenador utiliza ordenadores para controlar el proceso de producción. Esto permite que los procesos individuales intercambien información entre sí e inicien acciones. Aunque la fabricación puede ser más rápida y menos propensa a errores mediante la integración de ordenadores, la principal ventaja es la capacidad de crear procesos de fabricación automatizados. La fabricación integrada por ordenador se utiliza en las industrias de la automoción, la aviación, el espacio y la construcción naval.

Maquinas de cuello blanco

En el siglo XXI, una variedad de tareas especializadas han sido parcialmente asumidas por máquinas, entre ellas la traducción, la investigación jurídica y el periodismo. El trabajo de cuidado, el entretenimiento y otras tareas que requieren empatía, que antes se creían a salvo de la automatización, también han comenzado a ser realizadas por robots. [10] [11] [12] [13]

Coches autónomos

Un coche autónomo es un vehículo capaz de detectar su entorno y navegar sin intervención humana. Se están desarrollando muchos de estos vehículos, pero a mayo de 2017, los coches automatizados permitidos en las vías públicas aún no son totalmente autónomos. Todos ellos requieren un conductor humano al volante que en cualquier momento pueda tomar el control del vehículo. Entre los obstáculos para la adopción generalizada de vehículos autónomos se encuentran las preocupaciones por la consiguiente pérdida de puestos de trabajo relacionados con la conducción en la industria del transporte por carretera. El 18 de marzo de 2018, el primer ser humano murió atropellado por un vehículo autónomo en Tempe, Arizona, por un coche autónomo de Uber. [ 14]

Contenido generado por IA

El uso de contenido automatizado ha cobrado relevancia desde los avances tecnológicos en modelos de inteligencia artificial como ChatGPT , DALL-E y Stable Diffusion . En la mayoría de los casos, el contenido generado por IA, como imágenes, literatura y música, se produce a través de indicaciones de texto y estos modelos de IA se han integrado en otros programas creativos. Los artistas se ven amenazados por el desplazamiento del contenido generado por IA debido a que estos modelos toman muestras de otras obras creativas, lo que produce resultados a veces imperceptibles para los del contenido creado por el hombre. Esta complicación se ha generalizado lo suficiente como para que otros artistas y programadores creen software y programas de utilidad para tomar represalias contra estos modelos de texto a imagen para que no den resultados precisos. Si bien algunas industrias de la economía se benefician de la inteligencia artificial a través de nuevos puestos de trabajo, este problema no crea nuevos puestos de trabajo y amenaza con reemplazarlos por completo. Recientemente ha sido noticia pública en los medios: en febrero de 2024, Willy's Chocolate Experience en Glasgow, Escocia, fue un infame evento infantil en el que las imágenes y los guiones se crearon utilizando modelos de inteligencia artificial para consternación de los niños, los padres y los actores involucrados. Existe una demanda en curso contra OpenAI presentada por The New York Times en la que se afirma que existe una infracción de derechos de autor debido a los métodos de muestreo que utilizan sus modelos de inteligencia artificial para sus resultados. [15] [16] [17] [18] [19]

Erradicación

Científicos como Stephen Hawking están convencidos de que la inteligencia artificial sobrehumana es físicamente posible, y afirman que "no existe ninguna ley física que impida que las partículas se organicen de manera que realicen cálculos incluso más avanzados que la disposición de las partículas en los cerebros humanos". [20] [21] Académicos como Nick Bostrom debaten hasta qué punto está lejos de existir la inteligencia sobrehumana y si supone un riesgo para la humanidad. Según Bostrom, una máquina superinteligente no estaría necesariamente motivada por el mismo deseo emocional de acumular poder que a menudo impulsa a los seres humanos, sino que podría tratar el poder como un medio para alcanzar sus objetivos finales; apoderarse del mundo aumentaría su acceso a los recursos y ayudaría a evitar que otros agentes detuvieran los planes de la máquina. Como ejemplo simplificado, un maximizador de clips diseñado únicamente para crear tantos clips como sea posible querría apoderarse del mundo para poder utilizar todos los recursos del mundo para crear tantos clips como sea posible y, además, evitar que los humanos lo apaguen o utilicen esos recursos en cosas que no sean clips. [22]

En la ficción

La toma de control por parte de una IA es un tema común en la ciencia ficción . Los escenarios ficticios suelen diferir enormemente de los planteados por los investigadores en el sentido de que implican un conflicto activo entre humanos y una IA o robots con motivos antropomórficos que los ven como una amenaza o que tienen un deseo activo de luchar contra los humanos, a diferencia de la preocupación de los investigadores de una IA que extermina rápidamente a los humanos como un subproducto de la consecución de sus objetivos. [23] La idea se ve en RUR de Karel Čapek , que introdujo la palabra robot en 1921, [24] y se puede vislumbrar en Frankenstein de Mary Shelley (publicado en 1818), cuando Víctor reflexiona sobre si, si concede la petición de su monstruo y lo convierte en una esposa, se reproducirían y su especie destruiría a la humanidad. [25]

Según Toby Ord , la idea de que una IA se apodere del mundo requiere robots es un concepto erróneo impulsado por los medios de comunicación y Hollywood. Ord sostiene que los humanos más dañinos de la historia no fueron los más fuertes físicamente, sino que utilizaron palabras para convencer a la gente y obtener el control de grandes partes del mundo. Ord escribe que una IA lo suficientemente inteligente con acceso a Internet podría esparcir copias de seguridad de sí misma, reunir recursos financieros y humanos (a través de ciberataques o chantajes), persuadir a la gente a gran escala y explotar vulnerabilidades sociales que son demasiado sutiles para que los humanos las anticipen. [26]

La palabra "robot" proviene del checo robota , que significa trabajador o siervo . La obra de 1920 fue una protesta contra el rápido crecimiento de la tecnología, con "robots" fabricados con capacidades cada vez mayores que finalmente se rebelan. [27] HAL 9000 (1968) y el Terminator original (1984) son dos ejemplos icónicos de IA hostil en la cultura pop. [28]

Factores contribuyentes

Ventajas de la inteligencia sobrehumana sobre los humanos

Nick Bostrom y otros han expresado su preocupación por el hecho de que una IA con las habilidades de un investigador competente en inteligencia artificial podría modificar su propio código fuente y aumentar su propia inteligencia. Si su autoreprogramación lleva a mejorar aún más su capacidad de reprogramarse a sí misma, el resultado podría ser una explosión de inteligencia recursiva en la que dejaría rápidamente muy atrás a la inteligencia humana. Bostrom define una superinteligencia como "cualquier intelecto que supere ampliamente el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés", y enumera algunas ventajas que tendría una superinteligencia si decidiera competir contra los humanos: [23] [29]

Fuentes de ventaja de la IA

Según Bostrom, un programa informático que emule fielmente un cerebro humano, o que ejecute algoritmos tan potentes como los del cerebro humano, podría convertirse en una "superinteligencia de velocidad" si pudiera pensar órdenes de magnitud más rápido que un humano, ya sea porque está hecho de silicio en lugar de carne, o porque la optimización aumenta la velocidad de la IAG. Las neuronas biológicas funcionan a unos 200 Hz, mientras que un microprocesador moderno funciona a una velocidad de unos 2.000.000.000 Hz. Los axones humanos transportan potenciales de acción a unos 120 m/s, mientras que las señales de ordenador viajan a una velocidad cercana a la de la luz. [23]

Una red de inteligencias de nivel humano diseñada para trabajar en red y compartir pensamientos y recuerdos complejos sin problemas, capaz de trabajar colectivamente como un equipo unificado gigante sin fricción, o compuesta por billones de inteligencias de nivel humano, se convertiría en una "superinteligencia colectiva". [23]

En términos más generales, cualquier cantidad de mejoras cualitativas en una IA general de nivel humano podría dar como resultado una "superinteligencia de calidad", que tal vez resulte en una IA general tan superior a la nuestra en inteligencia como los humanos lo son a los simios. La cantidad de neuronas en un cerebro humano está limitada por el volumen craneal y las restricciones metabólicas, mientras que la cantidad de procesadores en una supercomputadora puede expandirse indefinidamente. Una IA general no necesita estar limitada por las restricciones humanas en cuanto a la memoria de trabajo y, por lo tanto, podría ser capaz de captar intuitivamente relaciones más complejas que los humanos. Una IA general con apoyo cognitivo especializado para la ingeniería o la programación informática tendría una ventaja en estos campos, en comparación con los humanos que no desarrollaron módulos mentales especializados para tratar específicamente con esos dominios. A diferencia de los humanos, una IA general puede generar copias de sí misma y modificar el código fuente de sus copias para intentar mejorar aún más sus algoritmos. [23]

Posibilidad de que una IA hostil preceda a una IA amiga

¿Es la IA fuerte intrínsecamente peligrosa?

Un problema importante es que es probable que sea mucho más fácil crear una inteligencia artificial hostil que una IA amigable. Si bien ambas requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariables ante la automejora (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no experimente una convergencia instrumental de maneras que puedan destruir automáticamente a toda la raza humana. Una IA hostil, por otro lado, puede optimizarse para una estructura de objetivos arbitraria, que no necesita ser invariable ante la automodificación. [31]

La gran complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de la IA sean amigables con los humanos. [23] [32] A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky , hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. [33]

Probabilidades de conflicto

Muchos investigadores, incluido el psicólogo evolucionista Steven Pinker , sostienen que es probable que una máquina superinteligente coexista pacíficamente con los humanos. [34]

El miedo a la rebelión cibernética se basa a menudo en interpretaciones de la historia de la humanidad, que está plagada de incidentes de esclavitud y genocidio. Tales miedos surgen de la creencia de que la competitividad y la agresión son necesarias en el sistema de objetivos de cualquier ser inteligente. Sin embargo, dicha competitividad humana surge del trasfondo evolutivo de nuestra inteligencia, donde la supervivencia y la reproducción de genes frente a competidores humanos y no humanos era el objetivo central. [35] Según el investigador de IA Steve Omohundro , una inteligencia arbitraria podría tener objetivos arbitrarios: no hay ninguna razón particular para que una máquina artificialmente inteligente (que no comparte el contexto evolutivo de la humanidad) sea hostil (o amistosa) a menos que su creador la programe para que lo sea y no esté inclinada o sea capaz de modificar su programación. Pero la pregunta sigue siendo: ¿qué sucedería si los sistemas de IA pudieran interactuar y evolucionar (evolución en este contexto significa automodificación o selección y reproducción) y necesitaran competir por los recursos? ¿Eso crearía objetivos de autoconservación? El objetivo de autoconservación de la IA podría entrar en conflicto con algunos objetivos de los humanos. [36]

Muchos académicos cuestionan la probabilidad de una revuelta cibernética inesperada como la que se describe en la ciencia ficción como Matrix , argumentando que es más probable que cualquier inteligencia artificial lo suficientemente poderosa como para amenazar a la humanidad probablemente esté programada para no atacarla. Pinker reconoce la posibilidad de "malos actores" deliberados, pero afirma que en ausencia de malos actores, los accidentes imprevistos no son una amenaza significativa; Pinker argumenta que una cultura de seguridad de ingeniería evitará que los investigadores de IA desaten accidentalmente una superinteligencia maligna. [34] Por el contrario, Yudkowsky argumenta que es menos probable que la humanidad se vea amenazada por IA deliberadamente agresivas que por IA que fueron programadas de tal manera que sus objetivos son involuntariamente incompatibles con la supervivencia o el bienestar humanos (como en la película Yo, Robot y en el cuento " El conflicto evitable "). Omohundro sugiere que los sistemas de automatización actuales no están diseñados para la seguridad y que las IA pueden optimizar ciegamente funciones de utilidad estrechas (por ejemplo, jugar ajedrez a toda costa), lo que las lleva a buscar la autoconservación y la eliminación de obstáculos, incluidos los humanos que podrían desactivarlas. [37]

Precauciones

El problema del control de la IA es la cuestión de cómo construir un agente superinteligente que ayude a sus creadores, evitando al mismo tiempo construir inadvertidamente una superinteligencia que los perjudique. [38] Algunos académicos sostienen que las soluciones al problema del control también podrían encontrar aplicaciones en la IA no superinteligente existente. [39]

Los principales enfoques para el problema de control incluyen la alineación , que tiene como objetivo alinear los sistemas de objetivos de IA con los valores humanos, y el control de capacidad , que tiene como objetivo reducir la capacidad de un sistema de IA para dañar a los humanos o ganar control. Un ejemplo de "control de capacidad" es investigar si una IA superinteligente podría ser confinada con éxito en una " caja de IA ". Según Bostrom, tales propuestas de control de capacidad no son confiables ni suficientes para resolver el problema de control a largo plazo, pero potencialmente pueden actuar como complementos valiosos para los esfuerzos de alineación. [23]

Advertencias

El físico Stephen Hawking , el fundador de Microsoft Bill Gates y el fundador de SpaceX Elon Musk han expresado su preocupación por la posibilidad de que la IA pueda desarrollarse hasta el punto en que los humanos no puedan controlarla, y Hawking teoriza que esto podría "significar el fin de la raza humana". [40] Stephen Hawking dijo en 2014 que "el éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos". Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables", como "la tecnología superando a los mercados financieros , inventando más que los investigadores humanos, manipulando más que los líderes humanos y desarrollando armas que ni siquiera podemos entender". En enero de 2015, Nick Bostrom se unió a Stephen Hawking, Max Tegmark , Elon Musk, Lord Martin Rees , Jaan Tallinn y numerosos investigadores de IA para firmar la carta abierta del Future of Life Institute hablando de los posibles riesgos y beneficios asociados con la inteligencia artificial . Los firmantes “creen que la investigación sobre cómo hacer que los sistemas de IA sean robustos y beneficiosos es importante y oportuna, y que existen direcciones de investigación concretas que se pueden seguir hoy en día”. [41] [42]

La serie Odisea de Arthur C. Clarke y Accelerando de Charles Stross se relacionan con las heridas narcisistas de la humanidad frente a las poderosas inteligencias artificiales que amenazan la autopercepción de la humanidad. [43]

Prevención mediante la alineación de la IA

En el campo de la inteligencia artificial (IA), la alineación de la IA tiene como objetivo orientar los sistemas de IA hacia los objetivos, preferencias y principios éticos previstos por una persona o un grupo. Se considera que un sistema de IA está alineado si promueve los objetivos previstos. Un sistema de IA desalineado persigue objetivos no previstos. [44]

Véase también

Notas

Referencias

  1. ^ Lewis, Tanya (12 de enero de 2015). "No dejen que la inteligencia artificial tome el control, advierten los principales científicos". LiveScience . Purch . Archivado desde el original el 8 de marzo de 2018 . Consultado el 20 de octubre de 2015 . Stephen Hawking, Elon Musk y docenas de otros científicos y líderes tecnológicos de primer nivel han firmado una carta en la que advierten sobre los posibles peligros del desarrollo de la inteligencia artificial (IA).
  2. ^ Lee, Kai-Fu (24 de junio de 2017). "La verdadera amenaza de la inteligencia artificial". The New York Times . Archivado desde el original el 17 de abril de 2020. Consultado el 15 de agosto de 2017. Estas herramientas pueden superar a los seres humanos en una tarea determinada. Este tipo de IA se está extendiendo a miles de dominios y, a medida que lo haga, eliminará muchos puestos de trabajo.
  3. ^ Larson, Nina (8 de junio de 2017). "La IA es 'buena para el mundo'... dice un robot ultrarrealista". Phys.org . Archivado desde el original el 6 de marzo de 2020. Consultado el 15 de agosto de 2017. Entre las consecuencias temidas del auge de los robots se encuentra el creciente impacto que tendrán en los empleos y las economías humanas.
  4. ^ Santini, Jean-Louis (14 de febrero de 2016). «Los robots inteligentes amenazan millones de puestos de trabajo». Phys.org . Archivado desde el original el 1 de enero de 2019. Consultado el 15 de agosto de 2017 ."Nos estamos acercando a un momento en el que las máquinas podrán superar a los humanos en casi cualquier tarea", afirmó Moshe Vardi, director del Instituto de Tecnología de la Información de la Universidad Rice en Texas.
  5. ^ Williams-Grut, Oscar (15 de febrero de 2016). "Los robots te robarán el trabajo: cómo la IA podría aumentar el desempleo y la desigualdad". Businessinsider.com . Business Insider . Archivado desde el original el 16 de agosto de 2017 . Consultado el 15 de agosto de 2017 . Los principales científicos informáticos de Estados Unidos advirtieron que el auge de la inteligencia artificial (IA) y los robots en el lugar de trabajo podría causar desempleo masivo y economías dislocadas, en lugar de simplemente desbloquear ganancias de productividad y liberarnos a todos para mirar televisión y practicar deportes.
  6. ^ "¿Cómo pueden las pymes prepararse para el auge de los robots?". LeanStaff . 2017-10-17. Archivado desde el original el 2017-10-18 . Consultado el 2017-10-17 .
  7. ^ Hassan Soueidan, Mohamad; Shoghari, Rodwan (9 de mayo de 2024). "El impacto de la inteligencia artificial en la pérdida de empleo: riesgos para los gobiernos". Technium Social Sciences Journal . 57 : 206–223. doi : 10.47577/tssj.v57i1.10917 .
  8. ^ Frank, Morgan (25 de marzo de 2019). "Hacia la comprensión del impacto de la inteligencia artificial en el trabajo". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 116 (14): 6531–6539. Bibcode :2019PNAS..116.6531F. doi : 10.1073/pnas.1900949116 . PMC 6452673 . PMID  30910965. 
  9. ^ Bond, Dave (2017). Inteligencia artificial . págs. 67–69.
  10. ^ Skidelsky, Robert (19 de febrero de 2013). "El auge de los robots: ¿cómo será el futuro del trabajo?". The Guardian . Londres, Inglaterra. Archivado desde el original el 3 de abril de 2019. Consultado el 14 de julio de 2015 .
  11. ^ Bria, Francesca (febrero de 2016). «La economía robótica puede haber llegado ya». openDemocracy . Archivado desde el original el 17 de mayo de 2016. Consultado el 20 de mayo de 2016 .
  12. ^ Srnicek, Nick (marzo de 2016). "4 razones por las que el desempleo tecnológico podría ser realmente diferente esta vez". novara wire. Archivado desde el original el 25 de junio de 2016. Consultado el 20 de mayo de 2016 .
  13. ^ Brynjolfsson, Erik; McAfee, Andrew (2014). " passim , véase especialmente el capítulo 9". La segunda era de las máquinas: trabajo, progreso y prosperidad en una época de tecnologías brillantes . WW Norton & Company. ISBN 978-0393239355.
  14. ^ Wakabayashi, Daisuke (19 de marzo de 2018). «Un coche autónomo de Uber mata a un peatón en Arizona, donde los robots deambulan». New York Times . Nueva York, Nueva York. Archivado desde el original el 21 de abril de 2020 . Consultado el 23 de marzo de 2018 .
  15. ^ Jiang, Harry H.; Brown, Lauren; Cheng, Jessica; Khan, Mehtab; Gupta, Abhishek; Workman, Deja; Hanna, Alex; Flowers, Johnathan; Gebru, Timnit (29 de agosto de 2023). "Arte con IA y su impacto en los artistas". Actas de la Conferencia AAAI/ACM de 2023 sobre IA, ética y sociedad . Association for Computing Machinery. págs. 363–374. doi : 10.1145/3600211.3604681 . ISBN . 979-8-4007-0231-0.
  16. ^ Ghosh, Avijit; Fossas, Genoveva (19 de noviembre de 2022). "¿Puede haber arte sin artista?". arXiv : 2209.07667 [cs.AI].
  17. ^ Shan, Shawn; Cryan, Jenna; Wenger, Emily; Zheng, Haitao; Hanocka, Rana; Zhao, Ben Y. (3 de agosto de 2023). "Glaze: protegiendo a los artistas de la imitación de estilo mediante modelos de texto a imagen". arXiv : 2302.04222 [cs.CR].
  18. ^ Brooks, Libby (27 de febrero de 2024). "La experiencia de Willy Wonka en Glasgow fue calificada de 'farsa' y se devolvieron las entradas". The Guardian . Consultado el 2 de abril de 2024 .
  19. ^ Metz, Cade; Robertson, Katie (27 de febrero de 2024). «OpenAI busca desestimar partes de la demanda del New York Times». The New York Times . Consultado el 4 de abril de 2024 .
  20. ^ Hawking, Stephen; Russell, Stuart J .; Tegmark, Max ; Wilczek, Frank (1 de mayo de 2014). «Stephen Hawking: «Transcendence analiza las implicaciones de la inteligencia artificial, pero ¿estamos tomando la IA lo suficientemente en serio?»» . The Independent . Archivado desde el original el 2 de octubre de 2015. Consultado el 1 de abril de 2016 .
  21. ^ Müller, Vincent C. ; Bostrom, Nick (2016). "Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos" (PDF) . Cuestiones fundamentales de la inteligencia artificial . Springer. págs. 555–572. doi :10.1007/978-3-319-26485-1_33. ISBN 978-3-319-26483-7. Archivado (PDF) del original el 31 de mayo de 2022 . Consultado el 16 de junio de 2022 . Los sistemas de IA... alcanzarán la capacidad humana general... muy probablemente (con un 90% de probabilidad) para 2075. De alcanzar la capacidad humana, pasarán a la superinteligencia en 30 años (75%)... Por lo tanto, (la mayoría de los expertos en IA que respondieron a las encuestas) creen que es probable que la superinteligencia llegue en unas pocas décadas...
  22. ^ Bostrom, Nick (2012). "La voluntad superinteligente: motivación y racionalidad instrumental en agentes artificiales avanzados" (PDF) . Mentes y máquinas . 22 (2). Springer: 71–85. doi :10.1007/s11023-012-9281-3. S2CID  254835485. Archivado (PDF) desde el original el 2022-07-09 . Consultado el 2022-06-16 .
  23. ^ abcdefgh Bostrom, Nick. Superinteligencia: caminos, peligros, estrategias .
  24. ^ "El origen de la palabra 'robot'". Science Friday (radio pública) . 22 de abril de 2011. Archivado desde el original el 14 de marzo de 2020. Consultado el 30 de abril de 2020 .
  25. ^ Botkin-Kowacki, Eva (28 de octubre de 2016). «Un Frankenstein femenino conduciría a la extinción de la humanidad, dicen los científicos». Christian Science Monitor . Archivado desde el original el 26 de febrero de 2021. Consultado el 30 de abril de 2020 .
  26. ^ Ord, Toby (2020). "Inteligencia artificial desalineada". El precipicio: riesgo existencial y el futuro de la humanidad . Londres, Inglaterra y Nueva York, Nueva York: Bloomsbury Academic. ISBN 978-1-5266-0023-3.
  27. ^ Hockstein, NG; Gourin, CG; Faust, RA; Terris, DJ (17 de marzo de 2007). "Una historia de los robots: de la ciencia ficción a la robótica quirúrgica". Journal of Robotic Surgery . 1 (2): 113–118. doi :10.1007/s11701-007-0021-2. PMC 4247417 . PMID  25484946. 
  28. ^ Hellmann, Melissa (21 de septiembre de 2019). «AI 101: What is artificial intelligence and toward it going?» (Introducción a la inteligencia artificial: ¿qué es y hacia dónde se dirige?). The Seattle Times . Archivado desde el original el 21 de abril de 2020. Consultado el 30 de abril de 2020 .
  29. ^ Babcock, James; Krámar, János; Yampolskiy, Roman V. (2019). "Directrices para la contención de la inteligencia artificial". Ética de próxima generación . págs. 90–112. arXiv : 1707.08476 . doi :10.1017/9781108616188.008. ISBN 9781108616188. Número de identificación del sujeto  22007028.
  30. ^ Baraniuk, Chris (23 de mayo de 2016). «Una lista de los peores escenarios podría ayudar a prepararse para una IA malvada». New Scientist . Archivado desde el original el 21 de septiembre de 2016. Consultado el 21 de septiembre de 2016 .
  31. ^ Yudkowsky, Eliezer S. (mayo de 2004). "Coherent Extrapolated Volition". Singularity Institute for Artificial Intelligence. Archivado desde el original el 15 de junio de 2012.
  32. ^ Muehlhauser, Luke; Helm, Louie (2012). "Explosión de inteligencia y ética de las máquinas" (PDF) . Hipótesis de singularidad: una evaluación científica y filosófica . Springer. Archivado (PDF) desde el original el 2015-05-07 . Consultado el 2020-10-02 .
  33. ^ Yudkowsky, Eliezer (2011). "Sistemas de valores complejos en IA amigable". Inteligencia artificial general . Apuntes de clase en informática. Vol. 6830. págs. 388–393. doi :10.1007/978-3-642-22887-2_48. ISBN 978-3-642-22886-5. ISSN  0302-9743.
  34. ^ ab Pinker, Steven (13 de febrero de 2018). "Nos dicen que temamos a los robots. Pero ¿por qué creemos que se volverán contra nosotros?". Popular Science . Archivado desde el original el 20 de julio de 2020. Consultado el 8 de junio de 2020 .
  35. ^ La creación de una nueva especie inteligente: opciones y responsabilidades de los diseñadores de inteligencia artificial Archivado el 6 de febrero de 2007 en Wayback Machine - Singularity Institute for Artificial Intelligence , 2005
  36. ^ Omohundro, Stephen M. (junio de 2008). Los impulsos básicos de la IA (PDF) . Artificial General Intelligence 2008. pp. 483–492. Archivado (PDF) desde el original el 10 de octubre de 2020. Consultado el 2 de octubre de 2020 .
  37. ^ Tucker, Patrick (17 de abril de 2014). "Why There Will Be A Robot Uprising" (Por qué habrá un levantamiento de robots). Defense One. Archivado desde el original el 6 de julio de 2014. Consultado el 15 de julio de 2014 .
  38. ^ Russell, Stuart J. (8 de octubre de 2019). Human compatible: inteligencia artificial y el problema del control. Penguin. ISBN 978-0-525-55862-0. OCLC  1237420037. Archivado desde el original el 15 de marzo de 2023 . Consultado el 2 de enero de 2022 .
  39. ^ "Google está desarrollando un interruptor de seguridad para la IA". BBC News . 8 de junio de 2016. Archivado desde el original el 11 de junio de 2016 . Consultado el 7 de junio de 2020 .
  40. ^ Rawlinson, Kevin (29 de enero de 2015). «Bill Gates de Microsoft insiste en que la IA es una amenaza». BBC News . Archivado desde el original el 29 de enero de 2015. Consultado el 30 de enero de 2015 .
  41. ^ "Carta abierta del Future of Life Institute". The Future of Life Institute. 28 de octubre de 2015. Archivado desde el original el 29 de marzo de 2019. Consultado el 29 de marzo de 2019 .
  42. ^ Bradshaw, Tim (11 de enero de 2015). «Científicos e inversores advierten sobre la IA». The Financial Times. Archivado desde el original el 7 de febrero de 2015. Consultado el 4 de marzo de 2015 .
  43. ^ Kaminski, Johannes D. (diciembre de 2022). "Sobre la prescindibilidad humana: la toma de control por parte de la IA en La Odisea de Clarke y Accelerando de Stross". Neohelicon . 49 (2): 495–511. doi :10.1007/s11059-022-00670-w. ISSN  0324-4652. S2CID  253793613.
  44. ^ Russell, Stuart J.; Norvig, Peter (2021). Inteligencia artificial: un enfoque moderno (4.ª ed.). Pearson. pp. 5, 1003. ISBN 9780134610993. Recuperado el 12 de septiembre de 2022 .

Enlaces externos