stringtranslate.com

Arma autónoma letal

Remolque Land Rover Defender serbio con robot de combate sobre orugas "Miloš"

Las armas letales autónomas ( LAW ) son un tipo de sistema militar autónomo que puede buscar y atacar objetivos de forma independiente según restricciones y descripciones programadas. Las LAW también se conocen como sistemas letales de armas autónomas (LAWS), sistemas de armas autónomas (AWS), armas robóticas o robots asesinos . Las LEYES pueden operar en el aire, en la tierra, en el agua, bajo el agua o en el espacio. La autonomía de los sistemas actuales a partir de 2018 estaba restringida en el sentido de que un humano da la orden final para atacar, aunque existen excepciones con ciertos sistemas "defensivos".

Ser autónomo como arma

Ser "autónomo" tiene diferentes significados en diferentes campos de estudio. En términos de desarrollo de armas militares, la identificación de un arma como autónoma no es tan clara como en otras áreas. [1] El estándar específico que implica el concepto de ser autónomo puede variar enormemente entre diferentes académicos, naciones y organizaciones.

Varias personas tienen muchas definiciones de lo que constituye un arma letal autónoma. La Política oficial del Departamento de Defensa de los Estados Unidos sobre autonomía en sistemas de armas define un sistema de armas autónomo como "un sistema de armas que, una vez activado, puede seleccionar y atacar objetivos sin mayor intervención de un operador humano". [2] Heather Roff, escritora de la Facultad de Derecho de la Universidad Case Western Reserve , describe los sistemas de armas autónomos como "sistemas de armas armadas, capaces de aprender y adaptar su funcionamiento en respuesta a circunstancias cambiantes en el entorno en el que [están] desplegados". ,' además de ser capaz de tomar decisiones de despido por sí solos". [3] Esta definición de sistemas de armas autónomos es un umbral bastante alto en comparación con las definiciones de académicos como las definiciones de Peter Asaro y Mark Gubrud que se ven a continuación.

Académicos como Peter Asaro y Mark Gubrud están tratando de establecer un umbral más bajo y juzgar más sistemas de armas como autónomos. Creen que cualquier sistema de armas que sea capaz de liberar una fuerza letal sin la operación, decisión o confirmación de un supervisor humano puede considerarse autónomo. Según Gubrud, un sistema de armas que funciona total o parcialmente sin intervención humana se considera autónomo. Sostiene que un sistema de armas no necesita poder tomar decisiones completamente por sí solo para ser llamado autónomo. En cambio, debería tratarse como autónomo siempre que participe activamente en una o varias partes del "proceso de preparación", desde encontrar el objetivo hasta finalmente disparar. [4] [5]

Otras organizaciones, sin embargo, están elevando el estándar de los sistemas de armas autónomos. El Ministerio de Defensa británico define los sistemas de armas autónomos como "sistemas que son capaces de comprender la intención y la dirección de un nivel superior. A partir de esta comprensión y su percepción de su entorno, dicho sistema es capaz de tomar las medidas adecuadas para lograr el estado deseado. es capaz de decidir un curso de acción, entre una serie de alternativas, sin depender de la supervisión y el control humanos (aunque esa interacción humana con el sistema aún puede estar presente. Si bien la actividad general de una aeronave no tripulada autónoma será predecible, cada individuo las acciones pueden no serlo." [6]

Como resultado, la composición de un tratado entre estados requiere una etiqueta comúnmente aceptada de lo que constituye exactamente un arma autónoma. [7]

Sistemas defensivos automáticos

El arma letal de disparo automático más antigua es la mina terrestre , utilizada al menos desde el siglo XVII, y las minas navales , utilizadas al menos desde el siglo XVIII. Las minas antipersonal están prohibidas en muchos países por el Tratado de Ottawa de 1997 , sin incluir a Estados Unidos, Rusia y gran parte de Asia y Medio Oriente.

Algunos ejemplos actuales de LAW son los sistemas automatizados de protección activa "hardkill" , como los sistemas CIWS guiados por radar utilizados para defender barcos que han estado en uso desde la década de 1970 (por ejemplo, el Phalanx CIWS de EE. UU .). Dichos sistemas pueden identificar y atacar de forma autónoma misiles, cohetes, fuego de artillería, aviones y buques de superficie que se aproximan según criterios establecidos por el operador humano. Existen sistemas similares para tanques, como el Russian Arena , el Israel Trophy y el alemán AMAP-ADS . En Corea del Sur e Israel se utilizan varios tipos de armas centinela estacionarias, que pueden disparar contra personas y vehículos. Muchos sistemas de defensa antimisiles , como Iron Dome , también tienen capacidades de orientación autónoma.

La razón principal para no tener un " humano al tanto " en estos sistemas es la necesidad de una respuesta rápida. Generalmente se han utilizado para proteger al personal y las instalaciones contra los proyectiles entrantes.

Sistemas ofensivos autónomos

Según The Economist , a medida que avanza la tecnología, las aplicaciones futuras de los vehículos submarinos no tripulados podrían incluir la remoción de minas, la colocación de minas, la conexión en red de sensores antisubmarinos en aguas en disputa, el patrullaje con sonar activo, el reabastecimiento de submarinos tripulados y convertirse en plataformas de misiles de bajo costo. [8] En 2018, la Revisión de la Postura Nuclear de EE. UU . alegó que Rusia estaba desarrollando un "nuevo torpedo autónomo submarino, intercontinental, con armas nucleares y propulsión nuclear" llamado " Status 6 ". [9]

La Federación de Rusia está desarrollando activamente misiles con inteligencia artificial , [10] drones , [11] vehículos no tripulados , robots militares y robots médicos. [12] [13] [14] [15]

El ministro israelí Ayoob Kara declaró en 2017 que Israel está desarrollando robots militares, incluidos algunos tan pequeños como moscas. [dieciséis]

En octubre de 2018, Zeng Yi, un alto ejecutivo de la empresa de defensa china Norinco , pronunció un discurso en el que dijo que "en los futuros campos de batalla, no habrá gente luchando", y que el uso de armas autónomas letales en la guerra es " inevitable". [17] En 2019, el secretario de Defensa de Estados Unidos, Mark Esper, arremetió contra China por vender drones capaces de quitar vidas sin supervisión humana. [18]

El ejército británico desplegó nuevos vehículos no tripulados y robots militares en 2019. [19]

La Marina de los EE. UU. está desarrollando flotas "fantasmas" de barcos no tripulados . [20]

En 2020, un dron Kargu 2 persiguió y atacó a un objetivo humano en Libia , según un informe del Panel de Expertos sobre Libia del Consejo de Seguridad de la ONU , publicado en marzo de 2021. Esta puede haber sido la primera vez que un robot asesino autónomo armado con armamento letal atacaron a seres humanos. [21] [22]

En mayo de 2021, Israel llevó a cabo un ataque de enjambre de drones de combate guiados por IA en Gaza. [23]

Desde entonces ha habido numerosos informes sobre el uso de enjambres y otros sistemas de armas autónomos en campos de batalla de todo el mundo. [24]

Además, DARPA está trabajando para poner a disposición del ejército estadounidense enjambres de 250 drones letales autónomos. [25]

Cuestiones éticas y legales.

Grado de control humano

Bonnie Docherty estableció tres clasificaciones del grado de control humano de los sistemas de armas autónomos en un informe de Human Rights Watch de 2012 . [26]

Estándar utilizado en la política estadounidense

La política actual de Estados Unidos establece: "Los sistemas de armas autónomos... deberán diseñarse para permitir a los comandantes y operadores ejercer niveles apropiados de juicio humano sobre el uso de la fuerza". [27] Sin embargo, la política requiere que los sistemas de armas autónomos que matan personas o usan fuerza cinética, seleccionando y atacando objetivos sin mayor intervención humana, sean certificados como conformes con "niveles apropiados" y otros estándares, no que dichos sistemas de armas no puedan cumplir con estos estándares y por lo tanto están prohibidos. [28] Los cazadores-asesinos "semiautónomos" que identifican y atacan objetivos de forma autónoma ni siquiera requieren certificación. [28] El subsecretario de Defensa, Robert O. Work, dijo en 2016 que el Departamento de Defensa "no delegaría autoridad letal a una máquina para tomar una decisión", pero podría necesitar reconsiderar esto ya que los "regímenes autoritarios" pueden hacerlo. [29] En octubre de 2016, el presidente Barack Obama declaró que al principio de su carrera temía un futuro en el que un presidente estadounidense que hiciera uso de la guerra con drones pudiera "llevar a cabo guerras perpetuas en todo el mundo, y muchas de ellas encubiertas, sin cualquier rendición de cuentas o debate democrático". [30] [31] En los EE. UU., la IA relacionada con la seguridad ha caído bajo el ámbito de la Comisión de Seguridad Nacional sobre Inteligencia Artificial desde 2018. [32] [33] El 31 de octubre de 2019, el Departamento de Innovación en Defensa del Departamento de Defensa de los Estados Unidos La Junta publicó el borrador de un informe que describe cinco principios para la IA armada y hace 12 recomendaciones para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizarían que un operador humano siempre pudiera mirar dentro de la "caja negra" y comprender el proceso de cadena de destrucción. Una preocupación importante es cómo se implementará el informe. [34]

Posibles violaciones a la ética y a los actos internacionales.

Stuart Russell , profesor de informática de la Universidad de California en Berkeley, afirmó que la preocupación que tiene con las LEYES es que, en su opinión, son poco éticas e inhumanas. El principal problema de este sistema es que resulta difícil distinguir entre combatientes y no combatientes. [35]

A algunos economistas [36] y juristas les preocupa si las LEYes violarían el Derecho Internacional Humanitario , especialmente el principio de distinción, que requiere la capacidad de discriminar a los combatientes de los no combatientes, y el principio de proporcionalidad , que requiere que el daño a civiles sea proporcional al objetivo militar. [37] Esta preocupación se invoca a menudo como una razón para prohibir por completo los "robots asesinos", pero es dudoso que esta preocupación pueda ser un argumento contra las LEYES que no violan el Derecho Internacional Humanitario. [38] [39] [40]

Un informe de 2021 del Servicio de Investigación del Congreso de Estados Unidos afirma que "no existen prohibiciones legales nacionales o internacionales sobre el desarrollo del uso de LEYes", aunque reconoce las conversaciones en curso en la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CAC). [41]

Algunos dicen que las LEYES desdibujan los límites de quién es responsable de un asesinato en particular. [42] [36] El filósofo Robert Sparrow sostiene que las armas autónomas son causalmente, pero no moralmente, responsables, similares a los niños soldados. En cada caso, sostiene que existe el riesgo de que se produzcan atrocidades sin un sujeto adecuado al que responsabilizar, lo que viola el jus in bello . [43] Thomas Simpson y Vincent Müller sostienen que pueden facilitar el registro de quién dio qué orden. [44] Asimismo, Steven Umbrello, Émile P. Torres y Angelo F. De Bellis sostienen que si las capacidades técnicas de las LEYes son al menos tan precisas como las de los soldados humanos, entonces, dadas las deficiencias psicológicas de los soldados humanos en la guerra, se justifica que solo estos tipos Se deben utilizar LEYES éticas. Asimismo, proponen utilizar el enfoque de diseño sensible a los valores como un marco potencial para diseñar estas leyes de manera que se alineen con los valores humanos y el Derecho Internacional Humanitario . [39] Además, las posibles violaciones del DIH por LEY son –por definición– sólo aplicables en situaciones de conflicto que implican la necesidad de distinguir entre combatientes y civiles. Como tal, cualquier escenario de conflicto sin la presencia de civiles –es decir, en el espacio o en los mares profundos– no tropezaría con los obstáculos que plantea el DIH. [45]

Campañas para prohibir las LEYES

Manifestación en las escaleras del Ayuntamiento de San Francisco, protestando contra una votación para autorizar el uso policial de robots de fuerza letal.
Manifestación en las escaleras del Ayuntamiento de San Francisco , protestando contra una votación para autorizar el uso policial de robots de fuerza letal.

La posibilidad de que existan LEYes ha generado un importante debate, especialmente sobre el riesgo de que "robots asesinos" deambulen por la Tierra, en un futuro cercano o lejano. El grupo Campaign to Stop Killer Robots se formó en 2013. En julio de 2015, más de 1.000 expertos en inteligencia artificial firmaron una carta advirtiendo sobre la amenaza de una carrera armamentista de inteligencia artificial y pidiendo la prohibición de las armas autónomas . La carta fue presentada en Buenos Aires en la 24ª Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI-15) y fue firmada conjuntamente por Stephen Hawking , Elon Musk , Steve Wozniak , Noam Chomsky , el cofundador de Skype , Jaan Tallinn , y el cofundador de Google DeepMind. fundador Demis Hassabis , entre otros. [46] [47]

Según PAX For Peace (una de las organizaciones fundadoras de la Campaña para detener los robots asesinos), las armas totalmente automatizadas (FAW) reducirán el umbral para ir a la guerra a medida que los soldados sean retirados del campo de batalla y el público se distancie de experimentar la guerra. dando a los políticos y otros tomadores de decisiones más espacio para decidir cuándo y cómo ir a la guerra. [48] ​​Advierten que una vez desplegados, los FAW harán más difícil el control democrático de la guerra - algo que el autor de Kill Decision - una novela sobre el tema - y el especialista en TI Daniel Suárez también advirtieron: según él, podría recentralizar el poder en sectores muy pocas manos al requerir que muy pocas personas vayan a la guerra. [48]

Hay sitios web [ se necesita aclaración ] que protestan contra el desarrollo de LEYES presentando ramificaciones indeseables si continúa la investigación sobre la aplicación de la inteligencia artificial a la designación de armas. En estos sitios web, las noticias sobre cuestiones éticas y legales se actualizan constantemente para que los visitantes las repasen con noticias recientes sobre reuniones internacionales y artículos de investigación relacionados con las LEYES. [49]

La Santa Sede ha pedido a la comunidad internacional que prohíba el uso de LEYes en varias ocasiones. En noviembre de 2018, el arzobispo Ivan Jurkovic , observador permanente de la Santa Sede ante las Naciones Unidas, afirmó que “para prevenir una carrera armamentista y el aumento de las desigualdades y la inestabilidad, es un deber imperativo actuar con prontitud: ahora es el momento de Es hora de evitar que las LEYES se conviertan en la realidad de la guerra del mañana”. A la Iglesia le preocupa que estos sistemas de armas tengan la capacidad de alterar irreversiblemente la naturaleza de la guerra, crear un desapego de la acción humana y poner en duda la humanidad de las sociedades. [50]

El 29 de marzo de 2019 , la mayoría de los gobiernos representados en una reunión de la ONU para discutir el asunto estaban a favor de una prohibición de las LEYES. [51] Una minoría de gobiernos, incluidos los de Australia, Israel, Rusia, el Reino Unido y los Estados Unidos, se opusieron a la prohibición. [51] Estados Unidos ha declarado que las armas autónomas han ayudado a prevenir la matanza de civiles. [52]

En diciembre de 2022, una votación de la Junta de Supervisores de San Francisco para autorizar el uso de LEYes por parte del Departamento de Policía de San Francisco atrajo atención y protestas a nivel nacional. [53] [54] La Junta revocó esta votación en una reunión posterior. [55]

No hay prohibición, sino regulación

Un tercer enfoque se centra en regular el uso de sistemas de armas autónomos en lugar de prohibirlos. [56] El control de armas militares de IA probablemente requerirá la institucionalización de nuevas normas internacionales plasmadas en especificaciones técnicas efectivas combinadas con un monitoreo activo y una diplomacia informal (“Track II”) por parte de comunidades de expertos, junto con un proceso de verificación legal y política. [57] [58] [59] [60] En 2021, el Departamento de Defensa de los Estados Unidos solicitó un diálogo con el Ejército Popular de Liberación de China sobre armas autónomas habilitadas para IA, pero fue rechazado. [61]

El 22 de diciembre de 2023, se adoptó una resolución de la Asamblea General de las Naciones Unidas para apoyar el debate internacional sobre las preocupaciones sobre las LEYES. La votación fue de 152 a favor, cuatro en contra y 11 abstenciones. [62]

Ver también

Referencias

  1. ^ Crootof, Rebecca (2015). "Los robots asesinos están aquí: implicaciones legales y políticas". Cardozo L. Rev. 36 : 1837 - vía heinonline.org.
  2. ^ Allen, Gregory (6 de junio de 2022). "El Departamento de Defensa está actualizando su política de armas autónomas de una década de antigüedad, pero la confusión sigue siendo generalizada". Centro de Estudios Estratégicos e Internacionales . Consultado el 24 de julio de 2022 .
  3. ^ Roff, Heather (2015). "Armas letales autónomas y proporcionalidad Jus Ad Bellum".
  4. ^ Asaro, Pedro (2012). "Sobre la prohibición de los sistemas de armas autónomas: derechos humanos, automatización y deshumanización de la toma de decisiones letales". Cruz Roja . 687 : 94.
  5. ^ "Autonomía sin misterio: ¿dónde se traza la línea?". 1.0 Humano . 2014-05-09. Archivado desde el original el 16 de noviembre de 2018 . Consultado el 8 de junio de 2018 .
  6. ^ "Sistemas de aeronaves no tripuladas (JDP 0-30.2)". GOBIERNO DEL REINO UNIDO . Consultado el 8 de junio de 2018 .
  7. ^ Krishnan, Armin (2016). Robots asesinos: legalidad y ética de las armas autónomas. Taylor y Francisco. doi :10.4324/9781315591070. ISBN 9781317109129. Consultado el 8 de junio de 2018 .
  8. ^ "Familiarizarse con la robótica militar". El economista . 25 de enero de 2018 . Consultado el 7 de febrero de 2018 .
  9. ^ "Estados Unidos dice que Rusia 'desarrolla' un torpedo submarino con armas nucleares". CNN . 3 de febrero de 2018 . Consultado el 7 de febrero de 2018 .
  10. ^ "Rusia está construyendo un misil que puede tomar sus propias decisiones". Semana de noticias . 20 de julio de 2017.
  11. ^ Litovkin, Nikolai (31 de mayo de 2017). "Las armas digitales apocalípticas de Rusia: los robots se preparan para la guerra - Russia Beyond". Rusia más allá .
  12. ^ "'Camarada de armas: Rusia está desarrollando una máquina de guerra librepensadora ". 2017-08-09.
  13. ^ "El ascenso de las máquinas: una mirada a los últimos robots de combate de Rusia". 2017-06-06.
  14. ^ "¿Ha vuelto Terminator? Los rusos logran importantes avances en inteligencia artificial". Rusia más allá . 10 de febrero de 2016.
  15. ^ "Entrenador virtual para robots y drones desarrollado en Rusia". 15 de mayo de 2017. Archivado desde el original el 11 de octubre de 2017 . Consultado el 3 de septiembre de 2017 .
  16. ^ "Kara: no estaba revelando secretos de estado sobre los robots". El Correo de Jerusalén .
  17. ^ Allen, Gregorio. "Comprensión de la estrategia de IA de China". Centro para una Nueva Seguridad Estadounidense . Consultado el 11 de marzo de 2019 .
  18. ^ "¿China está exportando robots asesinos a Medio Oriente?". Tiempos de Asia . 28 de noviembre de 2019 . Consultado el 21 de diciembre de 2019 .
  19. ^ "El ejército británico desplegará operativamente nuevos robots en 2019 | Marzo de 2019 Industria de noticias del ejército de seguridad de defensa global | Ejército de la industria de noticias global de seguridad de defensa 2019 | Año de noticias de archivo".
  20. ^ "La Marina de los Estados Unidos planea construir una flota fantasma no tripulada".
  21. ^ Hambling, David. "Es posible que los drones hayan atacado a los humanos de forma totalmente autónoma por primera vez". Científico nuevo . Consultado el 30 de mayo de 2021 .
  22. ^ "El dron asesino 'cazó a un objetivo humano' sin que se lo dijeran". Fox News . 2021-05-29 . Consultado el 30 de mayo de 2021 .
  23. ^ Hambling, David. "Israel utilizó el primer enjambre de drones de combate guiados por IA del mundo en los ataques a Gaza". Científico nuevo . Consultado el 15 de enero de 2023 .
  24. ^ "LOS MATADORES ESTÁN AQUÍ".
  25. ^ "EL SUEÑO DE DARPA DE UN PEQUEÑO EJÉRCITO DE ROBOTS ESTÁ CERCA DE CONVERTIRSE EN REALIDAD". Diciembre de 2020.
  26. ^ Amitai Etzioni; Oren Etzioni (junio de 2017). "Pros y contras de los sistemas de armas autónomos". ejército.mil .
  27. ^ Departamento de Defensa de Estados Unidos (2012). «Directiva 3000.09, Autonomía en sistemas de armas» (PDF) . pag. 2. Archivado desde el original (PDF) el 1 de diciembre de 2012.
  28. ^ ab Gubrud, Mark (abril de 2015). "Semiautónomos y autónomos: robots asesinos en la cueva de Platón". Boletín de los Científicos Atómicos . Archivado desde el original el 9 de mayo de 2017 . Consultado el 30 de octubre de 2017 .
  29. ^ Lamothe, Dan (30 de marzo de 2016). "El Pentágono examina la amenaza del 'robot asesino'". Globo de Boston .
  30. ^ Chait, Jonathan (3 de octubre de 2016). "Barack Obama sobre los cinco días que dieron forma a su presidencia". Inteligencia diaria . Consultado el 3 de enero de 2017 .
  31. ^ Devereaux, Ryan; Emmons, Alex (3 de octubre de 2016). "A Obama le preocupa que los futuros presidentes emprendan una guerra perpetua y encubierta con drones". La Intercepción . Consultado el 3 de enero de 2017 .
  32. ^ Stefanik, Elise M. (22 de mayo de 2018). "HR5356 - 115º Congreso (2017-2018): Ley de Inteligencia Artificial de la Comisión de Seguridad Nacional de 2018". www.congreso.gov . Consultado el 13 de marzo de 2020 .
  33. ^ Baum, Seth (30 de septiembre de 2018). "Contrarrestar la desinformación de la superinteligencia". Información . 9 (10): 244. doi : 10.3390/info9100244 . ISSN  2078-2489.
  34. ^ Estados Unidos. Junta de Innovación de Defensa. Principios de la IA: recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa . OCLC  1126650738.
  35. ^ Russell, Stuart (27 de mayo de 2015). "Tomar una postura sobre las armas de IA". Revista semanal internacional de ciencia . 521 .
  36. ^ ab Coyne, Christopher; Alshamy, Yahya A. (3 de abril de 2021). "Consecuencias perversas de los sistemas de armas autónomas letales". Revisión de la paz . 33 (2): 190–198. doi :10.1080/10402659.2021.1998747. ISSN  1040-2659. S2CID  233764057.
  37. ^ Sharkey, Noel E. (junio de 2012). "La evitabilidad de la guerra con robots autónomos *". Revista Internacional de la Cruz Roja . 94 (886): 787–799. doi :10.1017/S1816383112000732. ISSN  1816-3831. S2CID  145682587.
  38. ^ Müller, Vicente C. (2016). Los robots asesinos autónomos probablemente sean una buena noticia. Puerta de Ash. págs. 67–81.
  39. ^ ab Paraguas, Steven; Torres, Phil; De Bellis, Ángel F. (1 de marzo de 2020). "El futuro de la guerra: ¿podrían las armas letales autónomas hacer que el conflicto sea más ético?". IA y sociedad . 35 (1): 273–282. doi :10.1007/s00146-019-00879-x. hdl : 2318/1699364 . ISSN  1435-5655. S2CID  59606353.
  40. ^ Paraguas, Steven; Madera, Nathan Gabriel (20 de abril de 2021). "Sistemas de armas autónomos y la naturaleza contextual del estado fuera de combate". Información . 12 (5): 216. doi : 10.3390/info12050216 . hdl : 1854/LU-8709449 .
  41. ^ Kelley M. Sayler (8 de junio de 2021). Manual de defensa: tecnologías emergentes (PDF) (Reporte). Servicio de Investigación del Congreso . Consultado el 22 de julio de 2021 .
  42. ^ Nyagudi, Nyagudi Musandu (9 de diciembre de 2016). "Tesis de Doctorado en Filosofía en Informática Militar (OpenPhD #openphd): La autonomía letal de las armas es diseñada y/o recesiva". Archivado desde el original el 7 de enero de 2017 . Consultado el 6 de enero de 2017 .
  43. ^ GORRIÓN, ROBERT (2007). "Robots asesinos". Revista de Filosofía Aplicada . 24 (1): 62–77. doi :10.1111/j.1468-5930.2007.00346.x. ISSN  0264-3758. JSTOR  24355087. S2CID  239364893.
  44. ^ Simpson, Thomas W; Müller, Vicente C. (2016). "Guerra justa y asesinatos de robots". Trimestral Filosófico . 66 (263): 302–22. doi : 10.1093/pq/pqv075 .
  45. ^ Boulanin et al., "Límites a la autonomía en los sistemas de armas", SIPRI y CICR (2020): 37.
  46. ^ Zakrzewski, gato (27 de julio de 2015). "Musk y Hawking advierten sobre armas de inteligencia artificial". Blogs del WSJ: dígitos . Consultado el 28 de julio de 2015 .
  47. ^ Gibbs, Samuel (27 de julio de 2015). "Musk, Wozniak y Hawking instan a prohibir la guerra con IA y las armas autónomas". El guardián . Consultado el 28 de julio de 2015 .
  48. ^ ab "Decisiones mortales: 8 objeciones a los robots asesinos" (PDF) . pag. 10 . Consultado el 2 de diciembre de 2016 .
  49. ^ "Portada". Prohibir las armas autónomas letales . 2017-11-10 . Consultado el 9 de junio de 2018 .
  50. ^ "La Santa Sede renueva el llamamiento para prohibir los robots asesinos". Agencia Católica de Noticias . 28 de noviembre de 2018 . Consultado el 30 de noviembre de 2018 .
  51. ^ ab Gayle, Damien (29 de marzo de 2019). "Reino Unido, Estados Unidos y Rusia se encuentran entre quienes se oponen a la prohibición de los robots asesinos". El guardián . Consultado el 30 de marzo de 2019 .
  52. ^ Werkhäuser, Nina (27 de agosto de 2018). "¿Deberían prohibirse los 'robots asesinos'?". Deutsche Welle (DW) . Consultado el 31 de diciembre de 2021 .
  53. ^ Silva, Daniella (2 de diciembre de 2022). "La votación de San Francisco para permitir el uso policial de robots mortales genera preocupación e indignación". Noticias NBC . Consultado el 5 de diciembre de 2022 .
  54. ^ Holand, Lena (5 de diciembre de 2022). "Los activistas rechazan los robots de fuerza letal del SFPD en medio de cuestiones de legalidad". KGO-TV . Consultado el 5 de diciembre de 2022 .
  55. ^ Morris, JD (6 de diciembre de 2022). "SF detiene la política policial de 'robots asesinos' después de una gran reacción, por ahora". Crónica de San Francisco . Consultado el 6 de diciembre de 2022 .
  56. ^ Bento, Lucas (2017). "No Mere Deodands: Responsabilidades humanas en el uso de sistemas inteligentes violentos según el derecho internacional público". Depósito de becas de Harvard . Consultado el 14 de septiembre de 2019 .
  57. ^ Geist, Edward Moore (15 de agosto de 2016). "Ya es demasiado tarde para detener la carrera armamentista de la IA; en su lugar, debemos gestionarla". Boletín de los Científicos Atómicos . 72 (5): 318–321. Código Bib : 2016BuAtS..72e.318G. doi :10.1080/00963402.2016.1216672. ISSN  0096-3402. S2CID  151967826.
  58. ^ Maas, Matthijs M. (6 de febrero de 2019). "¿Cuán viable es el control internacional de armas para la inteligencia artificial militar? Tres lecciones de las armas nucleares". Política de seguridad contemporánea . 40 (3): 285–311. doi :10.1080/13523260.2019.1576464. ISSN  1352-3260. S2CID  159310223.
  59. ^ Ekelhof, Merel (2019). "Más allá de la semántica de las armas autónomas: control humano significativo en funcionamiento". Política Mundial . 10 (3): 343–348. doi : 10.1111/1758-5899.12665 . ISSN  1758-5899.
  60. ^ Paraguas, Steven (5 de abril de 2021). "Acoplamiento de niveles de abstracción para comprender el control humano significativo de las armas autónomas: un enfoque de dos niveles". Ética y Tecnología de la Información . 23 (3): 455–464. doi : 10.1007/s10676-021-09588-w . hdl : 2318/1784315 . ISSN  1572-8439.
  61. ^ Allen, Gregory C. (20 de mayo de 2022). "Un desafío clave para la diplomacia en materia de inteligencia artificial: el ejército de China no quiere hablar". Centro de Estudios Estratégicos e Internacionales (CSIS) . Consultado el 20 de mayo de 2022 .
  62. ^ Pandey, Shashank (4 de enero de 2024). "HRW pide un tratado internacional para prohibir los 'robots asesinos'". Jurista . Consultado el 8 de enero de 2024 .

Otras lecturas

  1. ^ Toussaint-Strauss, Josh; Assaf, Ali; Perforar, José; Baxter, Ryan (24 de febrero de 2023). "Cómo los robots asesinos están cambiando la guerra moderna: vídeo". el guardián . ISSN  0261-3077 . Consultado el 27 de febrero de 2023 .