Las armas autónomas letales ( LAW , por sus siglas en inglés) son un tipo de sistema militar autónomo que puede buscar y atacar objetivos de forma independiente en función de restricciones y descripciones programadas. Las LAW también se conocen como sistemas de armas autónomas letales ( LAWS , por sus siglas en inglés ), sistemas de armas autónomas ( AWS , por sus siglas en inglés), armas robóticas o robots asesinos . Las LAW pueden operar en el aire, en la tierra, en el agua, bajo el agua o en el espacio. La autonomía de los sistemas a partir de 2018 [actualizar]estaba restringida en el sentido de que un humano da la orden final de atacar, aunque hay excepciones con ciertos sistemas "defensivos".
El concepto de "autónomo" tiene distintos significados en distintos campos de estudio. En lo que respecta al desarrollo de armas militares, la identificación de un arma como autónoma no es tan clara como en otras áreas. [1] El estándar específico que implica el concepto de autonomía puede variar enormemente entre distintos académicos, naciones y organizaciones.
Varias personas tienen muchas definiciones de lo que constituye un arma autónoma letal. La Política oficial del Departamento de Defensa de los Estados Unidos sobre Autonomía en Sistemas de Armas define un Sistema de Armas Autónomo como "Un sistema de armas que, una vez activado, puede seleccionar y atacar objetivos sin la intervención adicional de un operador humano". [2] Heather Roff, escritora de la Facultad de Derecho de la Universidad Case Western Reserve , describe los sistemas de armas autónomos como "sistemas de armas armadas, capaces de aprender y adaptar su 'funcionamiento en respuesta a circunstancias cambiantes en el entorno en el que [están] desplegados', así como capaces de tomar decisiones de disparo por sí mismos". [3] Esta definición de sistemas de armas autónomos es un umbral bastante alto en comparación con las definiciones de académicos como Peter Asaro y Mark Gubrud que se ven a continuación.
Académicos como Peter Asaro y Mark Gubrud están tratando de establecer un umbral más bajo y juzgar más sistemas de armas como autónomos. Creen que cualquier sistema de armas que sea capaz de liberar una fuerza letal sin la operación, decisión o confirmación de un supervisor humano puede considerarse autónomo. Según Gubrud, un sistema de armas que opera parcial o totalmente sin intervención humana se considera autónomo. Sostiene que un sistema de armas no necesita ser capaz de tomar decisiones completamente por sí mismo para ser llamado autónomo. En cambio, debería ser tratado como autónomo siempre que participe activamente en una o varias partes del "proceso de preparación", desde encontrar el objetivo hasta disparar finalmente. [4] [5]
Sin embargo, otras organizaciones están elevando el estándar de los sistemas de armas autónomos a un nivel superior. El Ministerio de Defensa británico define los sistemas de armas autónomos como "sistemas capaces de comprender intenciones y direcciones de nivel superior. A partir de esta comprensión y de su percepción de su entorno, un sistema de este tipo es capaz de tomar las medidas adecuadas para lograr un estado deseado. Es capaz de decidir un curso de acción, a partir de una serie de alternativas, sin depender de la supervisión y el control humanos, aunque dicha interacción humana con el sistema puede seguir estando presente. Si bien la actividad general de una aeronave autónoma no tripulada será predecible, las acciones individuales pueden no serlo". [6]
Como resultado, la composición de un tratado entre estados requiere una etiqueta comúnmente aceptada de qué constituye exactamente un arma autónoma. [7]
Las armas letales de activación automática más antiguas son las mina terrestres , utilizadas al menos desde el siglo XVII, y las minas navales , utilizadas al menos desde el siglo XVIII. Las minas antipersonal están prohibidas en muchos países por el Tratado de Ottawa de 1997 , excepto Estados Unidos, Rusia y gran parte de Asia y Oriente Medio.
Algunos ejemplos actuales de LAW son los sistemas automatizados de protección activa de "muerte dura" , como los sistemas CIWS guiados por radar utilizados para defender barcos que han estado en uso desde la década de 1970 (por ejemplo, el CIWS Phalanx estadounidense ). Dichos sistemas pueden identificar y atacar de forma autónoma misiles, cohetes, fuego de artillería, aeronaves y buques de superficie que se aproximan según los criterios establecidos por el operador humano. Existen sistemas similares para tanques, como el Arena ruso , el Trophy israelí y el AMAP-ADS alemán . En Corea del Sur e Israel se utilizan varios tipos de cañones centinela estacionarios , que pueden disparar a humanos y vehículos. Muchos sistemas de defensa contra misiles , como Iron Dome , también tienen capacidades de orientación autónoma.
La principal razón por la que no hay un " humano en el circuito " en estos sistemas es la necesidad de una respuesta rápida. Generalmente se han utilizado para proteger al personal y a las instalaciones contra proyectiles entrantes.
Según The Economist , a medida que avanza la tecnología, las futuras aplicaciones de los vehículos submarinos no tripulados podrían incluir la limpieza de minas, la colocación de minas, la creación de redes de sensores antisubmarinos en aguas en disputa, el patrullaje con sonar activo, el reabastecimiento de submarinos tripulados y convertirse en plataformas de misiles de bajo costo. [8] En 2018, la Revisión de la Postura Nuclear de Estados Unidos alegó que Rusia estaba desarrollando un "nuevo torpedo submarino autónomo intercontinental, armado y propulsado por energía nuclear" llamado " Status 6 ". [9]
La Federación Rusa está desarrollando activamente misiles con inteligencia artificial , [10] drones , [11] vehículos no tripulados , robots militares y robots médicos. [12] [13] [14] [15]
El ministro israelí Ayoob Kara declaró en 2017 que Israel está desarrollando robots militares, algunos de ellos tan pequeños como moscas. [16]
En octubre de 2018, Zeng Yi, un alto ejecutivo de la firma de defensa china Norinco , pronunció un discurso en el que dijo que "en los futuros campos de batalla, no habrá gente luchando" y que el uso de armas autónomas letales en la guerra es "inevitable". [17] En 2019, el secretario de Defensa de Estados Unidos, Mark Esper, arremetió contra China por vender drones capaces de quitar vidas sin supervisión humana. [18]
El ejército británico desplegó nuevos vehículos no tripulados y robots militares en 2019. [19]
La Marina de Estados Unidos está desarrollando flotas "fantasma" de barcos no tripulados . [20]
En 2020, un dron Kargu 2 persiguió y atacó a un objetivo humano en Libia, según un informe del Panel de Expertos del Consejo de Seguridad de la ONU sobre Libia, publicado en marzo de 2021. Esta puede haber sido la primera vez que un robot asesino autónomo armado con armamento letal atacó a seres humanos. [21] [22]
En mayo de 2021, Israel llevó a cabo un ataque con enjambre de drones de combate guiados por IA en Gaza. [23]
Desde entonces, ha habido numerosos informes sobre el uso de enjambres y otros sistemas de armas autónomas en campos de batalla de todo el mundo. [24]
Además, DARPA está trabajando para poner a disposición del ejército estadounidense enjambres de 250 drones letales autónomos. [25]
Bonnie Docherty estableció tres clasificaciones del grado de control humano de los sistemas de armas autónomos en un informe de Human Rights Watch de 2012. [26]
La política actual de Estados Unidos establece: "Los sistemas de armas autónomas... deberán estar diseñados para permitir a los comandantes y operadores ejercer niveles apropiados de juicio humano sobre el uso de la fuerza". [27] Sin embargo, la política requiere que los sistemas de armas autónomas que matan personas o usan fuerza cinética, seleccionando y atacando objetivos sin mayor intervención humana, sean certificados como compatibles con los "niveles apropiados" y otras normas, no que dichos sistemas de armas no puedan cumplir con estas normas y, por lo tanto, estén prohibidos. [28] Los cazadores-asesinos "semiautónomos" que identifican y atacan objetivos de forma autónoma ni siquiera requieren certificación. [28] El subsecretario de Defensa, Robert O. Work, dijo en 2016 que el Departamento de Defensa "no delegaría autoridad letal a una máquina para tomar una decisión", pero podría necesitar reconsiderar esto ya que los "regímenes autoritarios" pueden hacerlo. [29] En octubre de 2016, el presidente Barack Obama declaró que al principio de su carrera temía un futuro en el que un presidente estadounidense que hiciera uso de la guerra con drones pudiera "llevar a cabo guerras perpetuas en todo el mundo, y muchas de ellas encubiertas, sin ninguna rendición de cuentas ni debate democrático". [30] [31] En los EE. UU., la IA relacionada con la seguridad ha estado bajo la jurisdicción de la Comisión de Seguridad Nacional sobre Inteligencia Artificial desde 2018. [32] [33] El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos publicó el borrador de un informe que describe cinco principios para la IA armada y hace 12 recomendaciones para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizarían que un operador humano siempre pudiera mirar dentro de la "caja negra" y comprender el proceso de la cadena de muerte. Una preocupación importante es cómo se implementará el informe. [34]
Stuart Russell , profesor de informática de la Universidad de California, Berkeley, afirmó que la preocupación que tiene con los LAW es que, en su opinión, son poco éticos e inhumanos. El principal problema con este sistema es que resulta difícil distinguir entre combatientes y no combatientes. [35]
Algunos economistas [36] y juristas se muestran preocupados por si las armas biológicas violarían el derecho internacional humanitario , especialmente el principio de distinción, que exige la capacidad de discriminar entre combatientes y no combatientes, y el principio de proporcionalidad , que exige que el daño a los civiles sea proporcional al objetivo militar. [37] Esta preocupación se invoca a menudo como razón para prohibir por completo los "robots asesinos", pero es dudoso que pueda ser un argumento contra las armas biológicas que no violen el derecho internacional humanitario. [38] [39] [40]
Un informe de 2021 del Servicio de Investigación del Congreso de Estados Unidos afirma que "no existen prohibiciones legales nacionales o internacionales sobre el desarrollo o uso de armas convencionales", aunque reconoce que se están llevando a cabo conversaciones en la Convención de las Naciones Unidas sobre ciertas armas convencionales (CCW). [41]
Algunos sostienen que las armas autónomas difuminan los límites de quién es responsable de un asesinato en particular. [42] [36] El filósofo Robert Sparrow sostiene que las armas autónomas son causalmente responsables pero no moralmente, de manera similar a los niños soldados. En cada caso, sostiene que existe el riesgo de que ocurran atrocidades sin un sujeto apropiado al que responsabilizar, lo que viola el jus in bello . [43] Thomas Simpson y Vincent Müller sostienen que pueden facilitar el registro de quién dio qué orden. [44] Las posibles violaciones del DIH por parte de las armas autónomas son, por definición, solo aplicables en situaciones de conflicto que implican la necesidad de distinguir entre combatientes y civiles. Como tal, cualquier escenario de conflicto sin presencia de civiles, es decir, en el espacio o en las profundidades marinas, no se enfrentaría a los obstáculos que plantea el DIH. [45]
La posibilidad de que existan robots asesinos ha generado un debate importante, especialmente sobre el riesgo de que haya "robots asesinos" vagando por la Tierra, en un futuro cercano o lejano. El grupo Campaign to Stop Killer Robots se formó en 2013. En julio de 2015, más de 1.000 expertos en inteligencia artificial firmaron una carta advirtiendo sobre la amenaza de una carrera armamentista de inteligencia artificial y pidiendo la prohibición de las armas autónomas . La carta fue presentada en Buenos Aires en la 24ª Conferencia Conjunta Internacional sobre Inteligencia Artificial (IJCAI-15) y fue firmada por Stephen Hawking , Elon Musk , Steve Wozniak , Noam Chomsky , el cofundador de Skype Jaan Tallinn y el cofundador de Google DeepMind Demis Hassabis , entre otros. [46] [47]
Según PAX For Peace (una de las organizaciones fundadoras de la Campaña para Detener los Robots Asesinos), las armas totalmente automatizadas (FAW, por sus siglas en inglés) reducirán el umbral para ir a la guerra, ya que los soldados serán retirados del campo de batalla y el público se distanciará de la experiencia de la guerra, dando a los políticos y otros tomadores de decisiones más espacio para decidir cuándo y cómo ir a la guerra. [48] Advierten que una vez desplegadas, las FAW harán más difícil el control democrático de la guerra, algo sobre lo que también advirtió el autor de Kill Decision (una novela sobre el tema) y especialista en TI Daniel Suárez : según él, podría recentralizar el poder en muy pocas manos al requerir que muy pocas personas vayan a la guerra. [48]
Existen sitios web [ aclaración necesaria ] que protestan contra el desarrollo de las armas de destrucción masiva y presentan ramificaciones indeseables si continúa la investigación sobre la aplicación de la inteligencia artificial a la designación de armas. En estos sitios web, las noticias sobre cuestiones éticas y legales se actualizan constantemente para que los visitantes puedan repasar las noticias más recientes sobre reuniones internacionales y artículos de investigación relacionados con las armas de destrucción masiva. [49]
La Santa Sede ha pedido a la comunidad internacional que prohíba el uso de armas nucleares en varias ocasiones. En noviembre de 2018, el arzobispo Ivan Jurkovic , observador permanente de la Santa Sede ante las Naciones Unidas, declaró que “para evitar una carrera armamentista y el aumento de las desigualdades y la inestabilidad, es un deber imperativo actuar con prontitud: ahora es el momento de evitar que las armas nucleares se conviertan en la realidad de la guerra del mañana”. La Iglesia teme que estos sistemas de armas tengan la capacidad de alterar irreversiblemente la naturaleza de la guerra, crear desapego de la acción humana y poner en tela de juicio la humanidad de las sociedades. [50]
Al 29 de marzo de 2019 [actualizar], la mayoría de los gobiernos representados en una reunión de la ONU para discutir el asunto estaban a favor de prohibir las armas autónomas. [51] Una minoría de gobiernos, incluidos los de Australia, Israel, Rusia, el Reino Unido y los EE. UU., se opusieron a la prohibición. [51] Estados Unidos ha declarado que las armas autónomas han ayudado a prevenir la matanza de civiles. [52]
En diciembre de 2022, una votación de la Junta de Supervisores de San Francisco para autorizar el uso de LAW por parte del Departamento de Policía de San Francisco atrajo la atención y las protestas a nivel nacional. [53] [54] La Junta revocó esta votación en una reunión posterior. [55]
Un tercer enfoque se centra en regular el uso de sistemas de armas autónomas en lugar de prohibirlos. [56] El control de armas con IA militar probablemente requerirá la institucionalización de nuevas normas internacionales incorporadas en especificaciones técnicas efectivas combinadas con un monitoreo activo y una diplomacia informal ("Track II") por parte de comunidades de expertos, junto con un proceso de verificación legal y política. [57] [58] [59] [60] En 2021, el Departamento de Defensa de los Estados Unidos solicitó un diálogo con el Ejército Popular de Liberación de China sobre armas autónomas habilitadas con IA, pero fue rechazado. [61]
En 2023 se celebró una cumbre de 60 países sobre el uso responsable de la IA en el ámbito militar. [62]
El 22 de diciembre de 2023, la Asamblea General de las Naciones Unidas aprobó una resolución para apoyar el debate internacional sobre las preocupaciones en torno a las armas de destrucción masiva. La votación fue de 152 votos a favor, cuatro en contra y 11 abstenciones. [63]