Una carrera armamentista militar de inteligencia artificial es una carrera armamentista entre dos o más estados para desarrollar y desplegar sistemas de armas autónomas letales (LAWS). Desde mediados de la década de 2010, muchos analistas han notado el surgimiento de una carrera armamentista entre superpotencias por una mejor IA militar , [1] [2] impulsada por crecientes tensiones geopolíticas y militares .
Una carrera armamentista de IA a veces se sitúa en el contexto de una Guerra Fría de IA entre Estados Unidos, Rusia y China . [3]
Los sistemas de armas letales autónomas utilizan inteligencia artificial para identificar y matar objetivos humanos sin intervención humana. [4] A LAWS se les ha llamado coloquialmente " mataderobots " o "robots asesinos". En términos generales, cualquier competencia por una IA superior a veces se enmarca como una "carrera armamentista". [5] [6] Las ventajas de la IA militar se superponen con las ventajas de otros sectores, ya que los países buscan ventajas tanto económicas como militares. [7]
En 2014, el especialista en inteligencia artificial Steve Omohundro advirtió que "ya está en marcha una carrera armamentista autónoma". [8] Según Siemens , el gasto militar mundial en robótica fue de 5.100 millones de dólares en 2010 y de 7.500 millones de dólares en 2015. [9] [10]
China se convirtió en un actor destacado en la investigación de inteligencia artificial en la década de 2010. Según el Financial Times , en 2016, por primera vez, China publicó más artículos sobre IA que toda la Unión Europea. Cuando se limita a la cantidad de artículos sobre IA en el 5% superior de los artículos citados, China superó a Estados Unidos en 2016, pero quedó rezagada respecto de la Unión Europea. [11] El 23% de los investigadores que se presentaron en la conferencia de la Asociación Estadounidense para el Avance de la Inteligencia Artificial (AAAI) de 2017 eran chinos. [12] Eric Schmidt , ex presidente de Alphabet , ha predicho que China será el país líder en IA para 2025. [13]
Un riesgo tiene que ver con la carrera de IA en sí, ya sea que la gane o no algún grupo. Existen fuertes incentivos para que los equipos de desarrollo tomen atajos con respecto a la seguridad del sistema, lo que puede resultar en un mayor sesgo algorítmico . [14] [15] Esto se debe en parte a la ventaja percibida de ser el primero en desarrollar tecnología avanzada de IA. Un equipo que parece estar al borde de un gran avance puede alentar a otros equipos a tomar atajos, ignorar las precauciones y desplegar un sistema que está menos preparado. Algunos argumentan que cualquier uso de terminología "racial" en este contexto puede exacerbar este efecto. [dieciséis]
Otro peligro potencial de una carrera armamentista de IA es la posibilidad de perder el control de los sistemas de IA; El riesgo se agrava en el caso de una carrera hacia la inteligencia artificial general, que puede presentar un riesgo existencial . [16] En 2023, un funcionario de la Fuerza Aérea de los Estados Unidos supuestamente dijo que durante una prueba por computadora , un dron con IA simulado mató al personaje humano que lo operaba. La USAF dijo más tarde que el funcionario se había equivocado y que nunca realizó tales simulaciones. [17]
Un tercer riesgo de una carrera armamentista de IA es si la carrera la gana realmente un grupo. La preocupación es la consolidación del poder y la ventaja tecnológica en manos de un grupo. [16] Un informe del gobierno estadounidense argumentó que "las capacidades habilitadas por la IA podrían usarse para amenazar infraestructuras críticas, amplificar campañas de desinformación y librar guerras" [18] :1 , y que "la estabilidad global y la disuasión nuclear podrían verse socavadas". [18] :11
El general ruso Viktor Bondarev , comandante en jefe de la fuerza aérea rusa, afirmó que ya en febrero de 2017, Rusia estaba trabajando en misiles guiados por IA que podrían decidir cambiar de objetivo en pleno vuelo. [19] La Comisión Militar-Industrial de Rusia ha aprobado planes para obtener el 30 por ciento del poder de combate de Rusia de plataformas robóticas controladas remotamente y habilitadas con IA para 2030. [20] Aumentaron los informes de los medios rusos patrocinados por el estado sobre posibles usos militares de la IA. a mediados de 2017. [21] En mayo de 2017, el director ejecutivo del Grupo Kronstadt de Rusia, un contratista de defensa, afirmó que "ya existen sistemas operativos de IA completamente autónomos que proporcionan los medios para los grupos de vehículos aéreos no tripulados, cuando cumplen misiones de forma autónoma, comparten tareas entre ellos e interactúan". ", y que es inevitable que algún día "enjambres de drones" sobrevolen las zonas de combate. [22] Rusia ha estado probando varios sistemas de combate autónomos y semiautónomos, como el módulo de combate "red neuronal" de Kalashnikov , con una ametralladora, una cámara y una IA que, según sus creadores, puede tomar sus propias decisiones sobre objetivos sin Intervención humana. [23]
En septiembre de 2017, durante un discurso en el Día Nacional del Conocimiento ante más de un millón de estudiantes en 16.000 escuelas rusas, el presidente ruso Vladimir Putin declaró: "La inteligencia artificial es el futuro, no solo para Rusia sino para toda la humanidad... Quienquiera que se convierta en líder en esta esfera se convertirá en el gobernante del mundo". Putin también dijo que sería mejor evitar que un solo actor lograra un monopolio, pero que si Rusia se convirtiera en líder en IA, compartiría su "tecnología con el resto del mundo, como lo estamos haciendo ahora con la tecnología atómica y nuclear". . [24] [25] [26]
Rusia está creando una serie de organizaciones dedicadas al desarrollo de la IA militar. En marzo de 2018, el gobierno ruso publicó una agenda de IA de 10 puntos, que exige el establecimiento de un consorcio de IA y Big Data, un Fondo para Programas y Algoritmos Analíticos, un programa de educación y capacitación en IA respaldado por el estado, un laboratorio de IA dedicado y un Centro Nacional de Inteligencia Artificial, entre otras iniciativas. [27] Además, Rusia creó recientemente una organización de investigación de defensa, aproximadamente equivalente a DARPA, dedicada a la autonomía y la robótica llamada Fundación de Estudios Avanzados, e inició una conferencia anual sobre "Robotización de las Fuerzas Armadas de la Federación Rusa". [28] [29]
El ejército ruso ha estado investigando una serie de aplicaciones de IA, con especial énfasis en vehículos semiautónomos y autónomos. En una declaración oficial del 1 de noviembre de 2017, Viktor Bondarev, presidente del Comité de Defensa y Seguridad del Consejo de la Federación, afirmó que "la inteligencia artificial podrá reemplazar a un soldado en el campo de batalla y a un piloto en la cabina de un avión" y luego señaló que "Se acerca el día en que los vehículos tendrán inteligencia artificial". [30] Bondarev hizo estos comentarios muy cerca de la exitosa prueba de Nerehta, un vehículo terrestre ruso sin tripulación que supuestamente "superó a los vehículos de combate [tripulados] existentes". Rusia planea utilizar Nerehta como plataforma de investigación y desarrollo para IA y algún día podría implementar el sistema en funciones de combate, recopilación de inteligencia o logística. [31] Rusia también habría construido un módulo de combate para vehículos terrestres sin tripulación que es capaz de identificar objetivos de forma autónoma (y, potencialmente, atacar objetivos) y planea desarrollar un conjunto de sistemas autónomos habilitados para IA. [32] [33] [29]
Además, el ejército ruso planea incorporar IA en vehículos aéreos, navales y submarinos sin tripulación y actualmente está desarrollando capacidades de enjambre. [28] También está explorando usos innovadores de la IA para la teledetección y la guerra electrónica, incluidos saltos de frecuencia adaptativos, formas de onda y contramedidas. [34] [35] Rusia también ha hecho un uso extensivo de tecnologías de inteligencia artificial para propaganda y vigilancia internas, así como para operaciones de información dirigidas contra Estados Unidos y sus aliados. [36] [37] [29]
El gobierno ruso ha rechazado enérgicamente cualquier prohibición de sistemas de armas letales autónomas , sugiriendo que dicha prohibición internacional podría ignorarse. [38] [39]
China está siguiendo una política estratégica de fusión militar-civil en materia de IA para lograr la supremacía tecnológica global . [18] [40] Según un informe de febrero de 2019 de Gregory C. Allen del Centro para una Nueva Seguridad Estadounidense , el liderazgo de China , incluido el líder supremo Xi Jinping , cree que estar a la vanguardia en tecnología de inteligencia artificial es fundamental para la futuro de la competencia mundial por el poder militar y económico. [7] Los funcionarios militares chinos han dicho que su objetivo es incorporar tecnología comercial de IA para "reducir la brecha entre el ejército chino y las potencias avanzadas globales". [7] Los estrechos vínculos entre Silicon Valley y China, y la naturaleza abierta de la comunidad de investigación estadounidense, han hecho que la tecnología de inteligencia artificial más avanzada de Occidente esté fácilmente disponible para China; Además, la industria china tiene numerosos logros propios en materia de IA, como el hecho de que Baidu superara en 2015 un notable punto de referencia en materia de capacidad de reconocimiento de voz en idioma chino. [41] A partir de 2017, la hoja de ruta de Beijing apunta a crear una industria de IA de 150 mil millones de dólares mediante 2030. [11] Antes de 2013, las adquisiciones de defensa chinas estaban restringidas principalmente a unos pocos conglomerados; sin embargo, a partir de 2017, China suele obtener tecnología emergente sensible, como drones e inteligencia artificial, de empresas privadas de nueva creación. [42] Un informe de octubre de 2021 del Centro de Seguridad y Tecnología Emergente encontró que "la mayoría de los proveedores de equipos de inteligencia artificial [militares chinos] no son empresas de defensa estatales, sino empresas tecnológicas privadas chinas fundadas después de 2010". [43] El informe estimó que el gasto militar chino en IA superó los 1.600 millones de dólares cada año. [43] El Japan Times informó en 2018 que la inversión privada china anual en IA es inferior a 7 mil millones de dólares al año. Las nuevas empresas de IA en China recibieron casi la mitad de la inversión global total en nuevas empresas de IA en 2017; los chinos solicitaron casi cinco veces más patentes de IA que los estadounidenses. [44]
China publicó un documento de posición en 2016 cuestionando la idoneidad del derecho internacional existente para abordar la eventualidad de armas totalmente autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de la ONU en abordar el tema. [45] En 2018, Xi pidió una mayor cooperación internacional en la investigación básica de la IA. [46] Los funcionarios chinos han expresado su preocupación de que la IA, como los drones, pueda conducir a una guerra accidental, especialmente en ausencia de normas internacionales. [47] En 2019, el exsecretario de Defensa de los Estados Unidos, Mark Esper, arremetió contra China por vender drones capaces de quitar vidas sin supervisión humana. [48]
En 2014, el exsecretario de Defensa Chuck Hagel propuso la " Tercera estrategia de compensación " según la cual los rápidos avances en inteligencia artificial definirán la próxima generación de guerra. [49] Según la empresa de análisis y ciencia de datos Govini, el Departamento de Defensa de EE. UU. (DoD) aumentó la inversión en inteligencia artificial, big data y computación en la nube de 5.600 millones de dólares en 2011 a 7.400 millones de dólares en 2016. [50] Sin embargo, la NSF civil El presupuesto para IA no aumentó en 2017. [11] Japan Times informó en 2018 que la inversión privada de Estados Unidos ronda los 70 mil millones de dólares al año. [44] El 'Informe provisional' de noviembre de 2019 de la Comisión de Seguridad Nacional sobre Inteligencia Artificial de los Estados Unidos confirmó que la IA es fundamental para la superioridad militar tecnológica de los Estados Unidos. [18]
Estados Unidos tiene muchos programas militares de combate de IA, como el buque de guerra autónomo Sea Hunter , que está diseñado para operar durante períodos prolongados en el mar sin un solo miembro de la tripulación, e incluso para guiarse a sí mismo dentro y fuera del puerto. [23] A partir de 2017, una directiva temporal del Departamento de Defensa de EE. UU. exige que un operador humano esté informado cuando se trata de quitar vidas humanas mediante sistemas de armas autónomos. [51] El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos publicó el borrador de un informe recomendando principios para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizarían que un operador humano siempre pudiera mirar. en la 'caja negra' y comprender el proceso de la cadena de destrucción . Sin embargo, una preocupación importante es cómo se implementará el informe. [52]
El Centro Conjunto de Inteligencia Artificial (JAIC) (pronunciado "jake") [53] es una organización estadounidense que explora el uso de la IA (particularmente informática de punta ), la red de redes y la comunicación mejorada por IA, para su uso en combate real. [54] [55] [56] [57] Es una subdivisión de las Fuerzas Armadas de los Estados Unidos y se creó en junio de 2018. El objetivo declarado de la organización es "transformar el Departamento de Defensa de los EE. UU. acelerando la entrega y adopción de IA". para lograr un impacto de la misión a escala, el objetivo es utilizar la IA para resolver conjuntos de problemas grandes y complejos que abarquen múltiples sistemas de combate y luego garantizar que los sistemas y componentes de combate tengan acceso en tiempo real a bibliotecas de conjuntos de datos y herramientas en constante mejora. " [55]
En 2023, Microsoft propuso al Departamento de Defensa utilizar modelos DALL-E para entrenar su sistema de gestión del campo de batalla . [58] OpenAI , el desarrollador de DALL-E, eliminó la prohibición general del uso militar y bélico de sus políticas de uso en enero de 2024. [59]
El Proyecto Maven es un proyecto del Pentágono que implica el uso de aprendizaje automático y talento de ingeniería para distinguir personas y objetos en videos de drones, [60] aparentemente brindando al gobierno comando y control en tiempo real en el campo de batalla, y la capacidad de rastrear, etiquetar y espiar objetivos sin intervención humana. intervención. Inicialmente, el esfuerzo fue dirigido por Robert O. Work , quien estaba preocupado por el uso militar de la tecnología emergente por parte de China. [61] Según se informa, el desarrollo del Pentágono no llega a actuar como un sistema de armas de IA capaz de disparar contra objetivos autodesignados. [62] El proyecto fue establecido en un memorando del Subsecretario de Defensa de EE. UU. el 26 de abril de 2017. [63] También conocido como Equipo Funcional Cruzado de Guerra Algorítmica , [64] es, según el Teniente General de los Estados Unidos. Jack Shanahan de la Fuerza Aérea de los Estados Unidos en noviembre de 2017, un proyecto "diseñado para ser ese proyecto piloto, ese pionero, esa chispa que enciende la llama de la inteligencia artificial en el resto del Departamento [de Defensa]". [65] Su jefe, el coronel del Cuerpo de Marines de los EE. UU., Drew Cukor, dijo: "Las personas y las computadoras trabajarán simbióticamente para aumentar la capacidad de los sistemas de armas para detectar objetos". [66] El proyecto Maven ha sido destacado por aliados, como Ian Langford de Australia , por su capacidad de identificar adversarios mediante la recopilación de datos de sensores en vehículos aéreos no tripulados y satélites. [67] En la segunda Cumbre Defense One Tech en julio de 2017, Cukor también dijo que la inversión en un "proceso de flujo de trabajo deliberado" fue financiada por el Departamento [de Defensa] a través de sus "autoridades de adquisición rápida" durante aproximadamente "los próximos 36 meses". ". [68]
En 2015, el gobierno del Reino Unido se opuso a la prohibición de las armas letales autónomas, afirmando que "el derecho internacional humanitario ya proporciona una regulación suficiente para esta área", pero que todas las armas empleadas por las fuerzas armadas del Reino Unido estarían "bajo supervisión y control humanos". [69]
Israel hace un uso extensivo de la IA para aplicaciones militares, especialmente durante la guerra entre Israel y Hamas . Los principales sistemas de inteligencia artificial utilizados para la identificación de objetivos son Gospel y Lavender. Lavender desarrollado por la Unidad 8200 identifica y crea una base de datos de individuos, en su mayoría militantes de bajo rango de Hamas y la Jihad Islámica Palestina y tiene una tasa de precisión del 90% y una base de datos de decenas de miles. El Evangelio en comparaciones recomendaba edificios y estructuras en lugar de individuos. Los daños colaterales aceptables y el tipo de arma utilizada para eliminar el objetivo los deciden los miembros de las FDI y podrían rastrear a los militantes incluso cuando estén en casa. [70]
El dron antirradar Harpy de Israel "dispara y olvida" está diseñado para ser lanzado por tropas terrestres y volar de forma autónoma sobre un área para encontrar y destruir radares que se ajusten a criterios predeterminados. [71] También se espera que la aplicación de la inteligencia artificial avance en sistemas terrestres sin tripulación y vehículos robóticos como el Guardium MK III y versiones posteriores. [72] Estos vehículos robóticos se utilizan en la defensa fronteriza.
La ametralladora surcoreana Super aEgis II , presentada en 2010, se utiliza tanto en Corea del Sur como en Oriente Medio. Puede identificar, rastrear y destruir un objetivo en movimiento a una distancia de 4 km. Si bien en teoría la tecnología puede funcionar sin intervención humana, en la práctica se instalan salvaguardas que requieren entrada manual. Un fabricante surcoreano afirma: "Nuestras armas no duermen, como deben hacerlo los humanos. Pueden ver en la oscuridad, algo que los humanos no pueden. Por lo tanto, nuestra tecnología cubre los vacíos en la capacidad humana", y quieren "llegar a un lugar donde nuestro software puede discernir si un objetivo es amigo, enemigo, civil o militar". [73]
El Parlamento Europeo sostiene la posición de que los humanos deben tener poder de supervisión y toma de decisiones sobre armas letales autónomas. [74] Sin embargo, corresponde a cada estado miembro de la Unión Europea determinar su postura sobre el uso de armas autónomas y las posturas mixtas de los estados miembros son quizás el mayor obstáculo para la capacidad de la Unión Europea para desarrollar armas autónomas. Algunos miembros, como Francia, Alemania, Italia y Suecia, están desarrollando armas autónomas letales. Algunos miembros siguen indecisos sobre el uso de armas militares autónomas y Austria ha pedido incluso que se prohíba el uso de dichas armas. [75]
Algunos estados miembros de la UE han desarrollado y están desarrollando armas automatizadas. Alemania ha desarrollado un sistema de protección activa , el Active Defense System, que puede responder a una amenaza con total autonomía en menos de un milisegundo. [75] [76] Italia planea incorporar sistemas de armas autónomos en sus futuros planes militares. [75]
La regulación internacional de las armas autónomas es una cuestión emergente para el derecho internacional. [77] El control de armas de IA probablemente requerirá la institucionalización de nuevas normas internacionales plasmadas en especificaciones técnicas efectivas combinadas con un monitoreo activo y una diplomacia informal por parte de comunidades de expertos, junto con un proceso de verificación legal y política. [1] [2] Ya en 2007, académicos como el profesor de IA Noel Sharkey advirtieron sobre "una carrera armamentista emergente entre las naciones de alta tecnología para desarrollar submarinos autónomos, aviones de combate, acorazados y tanques que puedan encontrar sus propios objetivos y aplicar fuerza violenta sin la participación de decisiones humanas significativas". [78] [79]
Miles Brundage, de la Universidad de Oxford, ha argumentado que una carrera armamentista de IA podría mitigarse en cierta medida mediante la diplomacia: "Vimos en las diversas carreras armamentistas históricas que la colaboración y el diálogo pueden dar dividendos". [80] Más de cien expertos firmaron una carta abierta en 2017 pidiendo a la ONU que abordara la cuestión de las armas letales autónomas; [81] [82] Sin embargo, en una sesión de noviembre de 2017 de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CAC), los diplomáticos no pudieron ponerse de acuerdo ni siquiera sobre cómo definir tales armas. [83] El embajador de la India y presidente de la CCW afirmó que un acuerdo sobre las normas seguía siendo una perspectiva lejana. [84] Hasta 2019, 26 jefes de estado y 21 premios Nobel de la Paz han respaldado la prohibición de las armas autónomas. [85] Sin embargo, a partir de 2022, la mayoría de las grandes potencias siguen oponiéndose a la prohibición de las armas autónomas. [86]
Muchos expertos creen que los intentos de prohibir completamente los robots asesinos probablemente fracasarán, [87] en parte porque detectar violaciones de los tratados sería extremadamente difícil. [88] [89] Un informe de 2017 del Centro Belfer de Harvard predice que la IA tiene el potencial de ser tan transformadora como las armas nucleares. [80] [90] [91] El informe sostiene además que "Prevenir el uso militar ampliado de la IA es probablemente imposible" y que "debe perseguirse el objetivo más modesto de una gestión tecnológica segura y eficaz", como prohibir la colocación de un El cambio del hombre muerto de la IA a un arsenal nuclear. [91]
Una carta abierta de 2015 del Future of Life Institute pidiendo la prohibición de los sistemas de armas letales autónomas ha sido firmada por más de 26.000 ciudadanos, entre ellos el físico Stephen Hawking , el magnate de Tesla Elon Musk , Steve Wozniak de Apple y el cofundador de Twitter , Jack Dorsey . y más de 4.600 investigadores de inteligencia artificial, incluidos Stuart Russell , Bart Selman y Francesca Rossi . [92] [83] El Future of Life Institute también ha lanzado dos películas de ficción, Slaughterbots (2017) y Slaughterbots - if human: kill() (2021), que retratan las amenazas de las armas autónomas y promueven una prohibición, las cuales fueron viral.
El profesor Noel Sharkey , de la Universidad de Sheffield, sostiene que las armas autónomas caerán inevitablemente en manos de grupos terroristas como el Estado Islámico . [93]
Muchas empresas tecnológicas occidentales evitan asociarse demasiado con el ejército estadounidense por temor a perder acceso al mercado chino. [41] Además, algunos investigadores, como el director ejecutivo de DeepMind , Demis Hassabis , se oponen ideológicamente a contribuir al trabajo militar. [94]
Por ejemplo, en junio de 2018, fuentes de la empresa en Google dijeron que la alta ejecutiva Diane Greene le dijo al personal que la empresa no daría seguimiento al Proyecto Maven después de que el contrato actual expirara en marzo de 2019. [60]
{{cite web}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace )Varios estados, incluidos Estados Unidos, Rusia, el Reino Unido, India e Israel, se opusieron a cualquier restricción legalmente vinculante... China ha apoyado un acuerdo legal vinculante en la CCW, pero también ha tratado de definir las armas autónomas de manera tan estricta que gran parte del equipo militar con IA que está desarrollando actualmente quedaría fuera del alcance de dicha prohibición.