Una toma de control por parte de la IA es un escenario imaginario en el que la inteligencia artificial (IA) surge como la forma dominante de inteligencia en la Tierra y los programas informáticos o robots toman efectivamente el control del planeta, alejándolo de la especie humana , que depende de la inteligencia humana . Los posibles escenarios incluyen el reemplazo de toda la fuerza laboral humana debido a la automatización , la toma de control por parte de una IA superinteligente (ASI) y la noción de un levantamiento de robots . Las historias de tomas de control por parte de la IA han sido populares en toda la ciencia ficción , pero los avances recientes han hecho que la amenaza sea más real. Algunas figuras públicas, como Stephen Hawking y Elon Musk , han abogado por la investigación de medidas de precaución para garantizar que las futuras máquinas superinteligentes permanezcan bajo control humano. [1]
El consenso tradicional entre los economistas ha sido que el progreso tecnológico no causa desempleo de largo plazo. Sin embargo, las recientes innovaciones en los campos de la robótica y la inteligencia artificial han suscitado temores de que el trabajo humano se vuelva obsoleto, dejando a personas de diversos sectores sin empleos para ganarse la vida, lo que conduciría a una crisis económica. [2] [3] [4] [5] Muchas pequeñas y medianas empresas también pueden verse obligadas a cerrar si no pueden costear o licenciar la última tecnología robótica y de inteligencia artificial, y pueden tener que centrarse en áreas o servicios que no se pueden reemplazar fácilmente para seguir siendo viables frente a esa tecnología. [6]
En los últimos años, las tecnologías de inteligencia artificial han sido ampliamente adoptadas. Si bien estas tecnologías han reemplazado a algunos trabajadores tradicionales, también crean nuevas oportunidades. Las industrias que son más susceptibles a la toma de control por parte de la IA incluyen el transporte, el comercio minorista y el ejército. Las tecnologías militares de inteligencia artificial, por ejemplo, permiten a los soldados trabajar de forma remota sin riesgo de lesiones. Un estudio de 2024 destaca que la capacidad de la IA para realizar tareas rutinarias y repetitivas plantea riesgos significativos de desplazamiento laboral, especialmente en sectores como la fabricación y el apoyo administrativo. [7] El autor Dave Bond sostiene que, a medida que las tecnologías de inteligencia artificial sigan desarrollándose y expandiéndose, la relación entre los humanos y los robots cambiará; se integrarán estrechamente en varios aspectos de la vida. La IA probablemente desplazará a algunos trabajadores y creará oportunidades para nuevos empleos en otros sectores, especialmente en campos donde las tareas son repetibles. [8] [9]
La fabricación integrada por ordenador utiliza ordenadores para controlar el proceso de producción. Esto permite que los procesos individuales intercambien información entre sí e inicien acciones. Aunque la fabricación puede ser más rápida y menos propensa a errores mediante la integración de ordenadores, la principal ventaja es la capacidad de crear procesos de fabricación automatizados. La fabricación integrada por ordenador se utiliza en las industrias de la automoción, la aviación, el espacio y la construcción naval.
En el siglo XXI, una variedad de tareas especializadas han sido parcialmente asumidas por máquinas, entre ellas la traducción, la investigación jurídica y el periodismo. El trabajo de cuidado, el entretenimiento y otras tareas que requieren empatía, que antes se creían a salvo de la automatización, también han comenzado a ser realizadas por robots. [10] [11] [12] [13]
Un coche autónomo es un vehículo capaz de detectar su entorno y navegar sin intervención humana. Se están desarrollando muchos de estos vehículos, pero a mayo de 2017, los coches automatizados permitidos en las vías públicas aún no son totalmente autónomos. Todos ellos requieren un conductor humano al volante que en cualquier momento pueda tomar el control del vehículo. Entre los obstáculos para la adopción generalizada de vehículos autónomos se encuentran las preocupaciones por la consiguiente pérdida de puestos de trabajo relacionados con la conducción en la industria del transporte por carretera. El 18 de marzo de 2018, el primer ser humano murió atropellado por un vehículo autónomo en Tempe, Arizona, por un coche autónomo de Uber. [ 14]
El uso de contenido automatizado ha cobrado relevancia desde los avances tecnológicos en modelos de inteligencia artificial como ChatGPT , DALL-E y Stable Diffusion . En la mayoría de los casos, el contenido generado por IA, como imágenes, literatura y música, se produce a través de indicaciones de texto y estos modelos de IA se han integrado en otros programas creativos. Los artistas se ven amenazados por el desplazamiento del contenido generado por IA debido a que estos modelos toman muestras de otras obras creativas, lo que produce resultados a veces imperceptibles para los del contenido creado por el hombre. Esta complicación se ha generalizado lo suficiente como para que otros artistas y programadores creen software y programas de utilidad para tomar represalias contra estos modelos de texto a imagen para que no den resultados precisos. Si bien algunas industrias de la economía se benefician de la inteligencia artificial a través de nuevos puestos de trabajo, este problema no crea nuevos puestos de trabajo y amenaza con reemplazarlos por completo. Recientemente ha sido noticia pública en los medios: en febrero de 2024, Willy's Chocolate Experience en Glasgow, Escocia, fue un infame evento infantil en el que las imágenes y los guiones se crearon utilizando modelos de inteligencia artificial para consternación de los niños, los padres y los actores involucrados. Existe una demanda en curso contra OpenAI presentada por The New York Times en la que se afirma que existe una infracción de derechos de autor debido a los métodos de muestreo que utilizan sus modelos de inteligencia artificial para sus resultados. [15] [16] [17] [18] [19]
Científicos como Stephen Hawking están convencidos de que la inteligencia artificial sobrehumana es físicamente posible, y afirman que "no existe ninguna ley física que impida que las partículas se organicen de manera que realicen cálculos incluso más avanzados que la disposición de las partículas en los cerebros humanos". [20] [21] Académicos como Nick Bostrom debaten hasta qué punto está lejos de existir la inteligencia sobrehumana y si supone un riesgo para la humanidad. Según Bostrom, una máquina superinteligente no estaría necesariamente motivada por el mismo deseo emocional de acumular poder que a menudo impulsa a los seres humanos, sino que podría tratar el poder como un medio para alcanzar sus objetivos finales; apoderarse del mundo aumentaría su acceso a los recursos y ayudaría a evitar que otros agentes detuvieran los planes de la máquina. Como ejemplo simplificado, un maximizador de clips diseñado únicamente para crear tantos clips como sea posible querría apoderarse del mundo para poder utilizar todos los recursos del mundo para crear tantos clips como sea posible y, además, evitar que los humanos lo apaguen o utilicen esos recursos en cosas que no sean clips. [22]
La toma de control por parte de una IA es un tema común en la ciencia ficción . Los escenarios ficticios suelen diferir enormemente de los planteados por los investigadores en el sentido de que implican un conflicto activo entre humanos y una IA o robots con motivos antropomórficos que los ven como una amenaza o que tienen un deseo activo de luchar contra los humanos, a diferencia de la preocupación de los investigadores de una IA que extermina rápidamente a los humanos como un subproducto de la consecución de sus objetivos. [23] La idea se ve en RUR de Karel Čapek , que introdujo la palabra robot en 1921, [24] y se puede vislumbrar en Frankenstein de Mary Shelley (publicado en 1818), cuando Víctor reflexiona sobre si, si concede la petición de su monstruo y lo convierte en una esposa, se reproducirían y su especie destruiría a la humanidad. [25]
Según Toby Ord , la idea de que una IA se apodere del mundo requiere robots es un concepto erróneo impulsado por los medios de comunicación y Hollywood. Ord sostiene que los humanos más dañinos de la historia no fueron los más fuertes físicamente, sino que utilizaron palabras para convencer a la gente y obtener el control de grandes partes del mundo. Ord escribe que una IA lo suficientemente inteligente con acceso a Internet podría esparcir copias de seguridad de sí misma, reunir recursos financieros y humanos (a través de ciberataques o chantajes), persuadir a la gente a gran escala y explotar vulnerabilidades sociales que son demasiado sutiles para que los humanos las anticipen. [26]
La palabra "robot" proviene del checo robota , que significa trabajador o siervo . La obra de 1920 fue una protesta contra el rápido crecimiento de la tecnología, con "robots" fabricados con capacidades cada vez mayores que finalmente se rebelan. [27] HAL 9000 (1968) y el Terminator original (1984) son dos ejemplos icónicos de IA hostil en la cultura pop. [28]
Nick Bostrom y otros han expresado su preocupación por el hecho de que una IA con las habilidades de un investigador competente en inteligencia artificial podría modificar su propio código fuente y aumentar su propia inteligencia. Si su autoreprogramación lleva a mejorar aún más su capacidad de reprogramarse a sí misma, el resultado podría ser una explosión de inteligencia recursiva en la que dejaría rápidamente muy atrás a la inteligencia humana. Bostrom define una superinteligencia como "cualquier intelecto que supere ampliamente el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés", y enumera algunas ventajas que tendría una superinteligencia si decidiera competir contra los humanos: [23] [29]
Según Bostrom, un programa informático que emule fielmente un cerebro humano, o que ejecute algoritmos tan potentes como los del cerebro humano, podría convertirse en una "superinteligencia de velocidad" si pudiera pensar órdenes de magnitud más rápido que un humano, ya sea porque está hecho de silicio en lugar de carne, o porque la optimización aumenta la velocidad de la IAG. Las neuronas biológicas funcionan a unos 200 Hz, mientras que un microprocesador moderno funciona a una velocidad de unos 2.000.000.000 Hz. Los axones humanos transportan potenciales de acción a unos 120 m/s, mientras que las señales de ordenador viajan a una velocidad cercana a la de la luz. [23]
Una red de inteligencias de nivel humano diseñada para trabajar en red y compartir pensamientos y recuerdos complejos sin problemas, capaz de trabajar colectivamente como un equipo unificado gigante sin fricción, o compuesta por billones de inteligencias de nivel humano, se convertiría en una "superinteligencia colectiva". [23]
En términos más generales, cualquier cantidad de mejoras cualitativas en una IA general de nivel humano podría dar como resultado una "superinteligencia de calidad", que tal vez resulte en una IA general tan superior a la nuestra en inteligencia como los humanos lo son a los simios. La cantidad de neuronas en un cerebro humano está limitada por el volumen craneal y las restricciones metabólicas, mientras que la cantidad de procesadores en una supercomputadora puede expandirse indefinidamente. Una IA general no necesita estar limitada por las restricciones humanas en cuanto a la memoria de trabajo y, por lo tanto, podría ser capaz de captar intuitivamente relaciones más complejas que los humanos. Una IA general con apoyo cognitivo especializado para la ingeniería o la programación informática tendría una ventaja en estos campos, en comparación con los humanos que no desarrollaron módulos mentales especializados para tratar específicamente con esos dominios. A diferencia de los humanos, una IA general puede generar copias de sí misma y modificar el código fuente de sus copias para intentar mejorar aún más sus algoritmos. [23]
Un problema importante es que es probable que sea mucho más fácil crear una inteligencia artificial hostil que una IA amigable. Si bien ambas requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariables ante la automejora (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no experimente una convergencia instrumental de maneras que puedan destruir automáticamente a toda la raza humana. Una IA hostil, por otro lado, puede optimizarse para una estructura de objetivos arbitraria, que no necesita ser invariable ante la automodificación. [31]
La gran complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de la IA sean amigables con los humanos. [23] [32] A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky , hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. [33]
Muchos investigadores, incluido el psicólogo evolucionista Steven Pinker , sostienen que es probable que una máquina superinteligente coexista pacíficamente con los humanos. [34]
El miedo a la rebelión cibernética se basa a menudo en interpretaciones de la historia de la humanidad, que está plagada de incidentes de esclavitud y genocidio. Tales miedos surgen de la creencia de que la competitividad y la agresión son necesarias en el sistema de objetivos de cualquier ser inteligente. Sin embargo, dicha competitividad humana surge del trasfondo evolutivo de nuestra inteligencia, donde la supervivencia y la reproducción de genes frente a competidores humanos y no humanos era el objetivo central. [35] Según el investigador de IA Steve Omohundro , una inteligencia arbitraria podría tener objetivos arbitrarios: no hay ninguna razón particular para que una máquina artificialmente inteligente (que no comparte el contexto evolutivo de la humanidad) sea hostil (o amistosa) a menos que su creador la programe para que lo sea y no esté inclinada o sea capaz de modificar su programación. Pero la pregunta sigue siendo: ¿qué sucedería si los sistemas de IA pudieran interactuar y evolucionar (evolución en este contexto significa automodificación o selección y reproducción) y necesitaran competir por los recursos? ¿Eso crearía objetivos de autoconservación? El objetivo de autoconservación de la IA podría entrar en conflicto con algunos objetivos de los humanos. [36]
Muchos académicos cuestionan la probabilidad de una revuelta cibernética inesperada como la que se describe en la ciencia ficción como Matrix , argumentando que es más probable que cualquier inteligencia artificial lo suficientemente poderosa como para amenazar a la humanidad probablemente esté programada para no atacarla. Pinker reconoce la posibilidad de "malos actores" deliberados, pero afirma que en ausencia de malos actores, los accidentes imprevistos no son una amenaza significativa; Pinker argumenta que una cultura de seguridad de ingeniería evitará que los investigadores de IA desaten accidentalmente una superinteligencia maligna. [34] Por el contrario, Yudkowsky argumenta que es menos probable que la humanidad se vea amenazada por IA deliberadamente agresivas que por IA que fueron programadas de tal manera que sus objetivos son involuntariamente incompatibles con la supervivencia o el bienestar humanos (como en la película Yo, Robot y en el cuento " El conflicto evitable "). Omohundro sugiere que los sistemas de automatización actuales no están diseñados para la seguridad y que las IA pueden optimizar ciegamente funciones de utilidad estrechas (por ejemplo, jugar ajedrez a toda costa), lo que las lleva a buscar la autoconservación y la eliminación de obstáculos, incluidos los humanos que podrían desactivarlas. [37]
El problema del control de la IA es la cuestión de cómo construir un agente superinteligente que ayude a sus creadores, evitando al mismo tiempo construir inadvertidamente una superinteligencia que los perjudique. [38] Algunos académicos sostienen que las soluciones al problema del control también podrían encontrar aplicaciones en la IA no superinteligente existente. [39]
Los principales enfoques para el problema de control incluyen la alineación , que tiene como objetivo alinear los sistemas de objetivos de IA con los valores humanos, y el control de capacidad , que tiene como objetivo reducir la capacidad de un sistema de IA para dañar a los humanos o ganar control. Un ejemplo de "control de capacidad" es investigar si una IA superinteligente podría ser confinada con éxito en una " caja de IA ". Según Bostrom, tales propuestas de control de capacidad no son confiables ni suficientes para resolver el problema de control a largo plazo, pero potencialmente pueden actuar como complementos valiosos para los esfuerzos de alineación. [23]
El físico Stephen Hawking , el fundador de Microsoft Bill Gates y el fundador de SpaceX Elon Musk han expresado su preocupación por la posibilidad de que la IA pueda desarrollarse hasta el punto en que los humanos no puedan controlarla, y Hawking teoriza que esto podría "significar el fin de la raza humana". [40] Stephen Hawking dijo en 2014 que "el éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos". Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables", como "la tecnología superando a los mercados financieros , inventando más que los investigadores humanos, manipulando más que los líderes humanos y desarrollando armas que ni siquiera podemos entender". En enero de 2015, Nick Bostrom se unió a Stephen Hawking, Max Tegmark , Elon Musk, Lord Martin Rees , Jaan Tallinn y numerosos investigadores de IA para firmar la carta abierta del Future of Life Institute hablando de los posibles riesgos y beneficios asociados con la inteligencia artificial . Los firmantes “creen que la investigación sobre cómo hacer que los sistemas de IA sean robustos y beneficiosos es importante y oportuna, y que existen direcciones de investigación concretas que se pueden seguir hoy en día”. [41] [42]
La serie Odisea de Arthur C. Clarke y Accelerando de Charles Stross se relacionan con las heridas narcisistas de la humanidad frente a las poderosas inteligencias artificiales que amenazan la autopercepción de la humanidad. [43]
Stephen Hawking, Elon Musk y docenas de otros científicos y líderes tecnológicos de primer nivel han firmado una carta en la que advierten sobre los posibles peligros del desarrollo de la inteligencia artificial (IA).
Estas herramientas pueden superar a los seres humanos en una tarea determinada. Este tipo de IA se está extendiendo a miles de dominios y, a medida que lo haga, eliminará muchos puestos de trabajo.
las consecuencias temidas del auge de los robots se encuentra el creciente impacto que tendrán en los empleos y las economías humanas.
"Nos estamos acercando a un momento en el que las máquinas podrán superar a los humanos en casi cualquier tarea", afirmó Moshe Vardi, director del Instituto de Tecnología de la Información de la Universidad Rice en Texas.
Los principales científicos informáticos de Estados Unidos advirtieron que el auge de la inteligencia artificial (IA) y los robots en el lugar de trabajo podría causar desempleo masivo y economías dislocadas, en lugar de simplemente desbloquear ganancias de productividad y liberarnos a todos para mirar televisión y practicar deportes.
Los sistemas de IA... alcanzarán la capacidad humana general... muy probablemente (con un 90% de probabilidad) para 2075. De alcanzar la capacidad humana, pasarán a la superinteligencia en 30 años (75%)... Por lo tanto, (la mayoría de los expertos en IA que respondieron a las encuestas) creen que es probable que la superinteligencia llegue en unas pocas décadas...