Como parte de la guerra entre Israel y Hamás , las Fuerzas de Defensa de Israel (FDI) han utilizado inteligencia artificial para realizar de forma rápida y automática gran parte del proceso de determinación de qué bombardear. Israel ha ampliado enormemente los bombardeos de la Franja de Gaza , que en guerras anteriores se habían visto limitados por la falta de objetivos de la Fuerza Aérea israelí .
Entre estas herramientas se encuentra Gospel, una inteligencia artificial que analiza automáticamente los datos de vigilancia en busca de edificios, equipos y personas que se cree que pertenecen al enemigo y, al encontrarlos, recomienda objetivos para bombardear a un analista humano que puede decidir si los pasa al campo. Otra es Lavender, una " base de datos impulsada por inteligencia artificial " que enumera decenas de miles de hombres palestinos vinculados por inteligencia artificial a Hamás o a la Jihad Islámica Palestina , y que también se utiliza para la recomendación de objetivos.
Los críticos han argumentado que el uso de estas herramientas de IA pone a los civiles en riesgo, desdibuja la rendición de cuentas y da lugar a una violencia militarmente desproporcionada que viola el derecho internacional humanitario .
Israel utiliza un sistema de inteligencia artificial llamado "Habsora", "el Evangelio", para determinar qué objetivos bombardearía la Fuerza Aérea israelí . [1] Proporciona automáticamente una recomendación de objetivos a un analista humano, [2] [3] que decide si se la pasa a los soldados en el campo. [3] Las recomendaciones pueden ser cualquier cosa, desde combatientes individuales, lanzacohetes, puestos de mando de Hamás, [2] hasta casas particulares de presuntos miembros de Hamás o de la Jihad Islámica. [4]
La IA puede procesar información mucho más rápido que los humanos. [5] [6] El teniente general retirado Aviv Kohavi , jefe de las FDI hasta 2023, afirmó que el sistema podría producir 100 objetivos de bombardeo en Gaza al día, con recomendaciones en tiempo real sobre cuáles atacar, mientras que los analistas humanos podrían producir 50 al año. [7] Un profesor entrevistado por NPR estimó estas cifras en 50-100 objetivos en 300 días para 20 oficiales de inteligencia , y 200 objetivos en 10-12 días para el Evangelio. [8]
Las inteligencias artificiales, a pesar de su nombre, no son capaces de pensar ni de tener conciencia. [9] En cambio, son máquinas desarrolladas para automatizar tareas que los humanos realizan con inteligencia a través de otros medios. El Evangelio utiliza el aprendizaje automático [10] , donde una IA tiene la tarea de identificar puntos en común en grandes cantidades de datos (por ejemplo, escaneos de tejido canceroso, fotos de una expresión facial, vigilancia de miembros de Hamás identificados por analistas humanos) y luego buscar esos puntos en común en material nuevo. [11]
No se sabe qué información utiliza el Evangelio, pero se cree que [a] combina datos de vigilancia de diversas fuentes en enormes cantidades. [14]
Las recomendaciones se basan en la comparación de patrones. Una persona con suficientes similitudes con otras personas etiquetadas como combatientes enemigos puede ser etiquetada como combatiente. [10]
En cuanto a la idoneidad de las IA para la tarea, NPR citó a Heidy Khlaaf, directora de ingeniería de AI Assurance en la empresa de seguridad tecnológica Trail of Bits, diciendo que "los algoritmos de IA son notoriamente defectuosos con altas tasas de error observadas en aplicaciones que requieren precisión, exactitud y seguridad". [8] Bianca Baggiarini, profesora del Centro de Estudios Estratégicos y de Defensa de la Universidad Nacional Australiana, escribió que las IA son "más efectivas en entornos predecibles donde los conceptos son objetivos, razonablemente estables y consistentes internamente". Contrastó esto con decir la diferencia entre un combatiente y un no combatiente , algo que incluso los humanos con frecuencia no pueden hacer. [15]
Khlaaf continuó señalando que las decisiones de un sistema de este tipo dependen enteramente de los datos con los que está entrenado, [b] y no se basan en razonamiento, evidencia fáctica o causalidad , sino únicamente en probabilidad estadística. [16]
La IAF se quedó sin objetivos para atacar [17] en la guerra de 2014 y la crisis de 2021. [18] En una entrevista en France 24 , el periodista de investigación Yuval Abraham de +972 Magazine (un medio de comunicación israelí de izquierda) declaró que para mantener la presión militar, y debido a la presión política para continuar la guerra, el ejército bombardearía los mismos lugares dos veces. [19] Desde entonces, la integración de herramientas de IA ha acelerado significativamente la selección de objetivos. [20] A principios de noviembre, las FDI declararon que la división de administración de objetivos [21] que utiliza el Evangelio había identificado más de 12.000 objetivos en Gaza . [2] NPR escribió el 14 de diciembre que no estaba claro sobre cuántos objetivos del Evangelio se había actuado, pero que el ejército israelí dijo que actualmente estaba atacando hasta 250 objetivos al día. [8] Los bombardeos también se han intensificado a un ritmo que el artículo del 14 de diciembre calificó de asombroso: [22] el ejército israelí declaró en ese momento que había atacado más de 22.000 objetivos dentro de Gaza, [22] a un ritmo diario más del doble que el del conflicto de 2021, [23] más de 3.500 de ellos desde el colapso de la tregua el 1 de diciembre. [22] Al principio de la ofensiva, el jefe de la Fuerza Aérea declaró que sus fuerzas solo atacaban objetivos militares, pero añadió: "No estamos siendo quirúrgicos ". [24]
Una vez que se acepta una recomendación, otra IA, Fire Factory, reduce el tiempo de preparación del ataque de horas a minutos [25] calculando cargas de munición, priorizando y asignando objetivos a aeronaves y drones y proponiendo un cronograma [26] , según un artículo de Bloomberg anterior a la guerra que describía dichas herramientas de IA como diseñadas para una confrontación militar y una guerra por poderes con Irán. [25]
Un cambio que The Guardian notó es que desde que los líderes superiores de Hamas desaparecen en túneles al comienzo de una ofensiva, sistemas como el Evangelio han permitido a las FDI localizar y atacar a un grupo mucho más grande de operativos de Hamas más jóvenes. Citó a un funcionario que trabajó en decisiones de objetivos en operaciones anteriores en Gaza diciendo que si bien las casas de los miembros jóvenes de Hamas no habían sido previamente blanco de bombardeos, el funcionario cree que las casas de presuntos operativos de Hamas ahora eran blanco de bombardeos independientemente de su rango. [17] En la entrevista de France 24, Abraham, de +972 Magazine , caracterizó esto como permitir la sistematización del lanzamiento de una bomba de 2000 libras en una casa para matar a una persona y a todos los que la rodeaban, algo que anteriormente se había hecho a un grupo muy pequeño de líderes superiores de Hamas. [27] NPR citó un informe de +972 Magazine y su publicación hermana Local Call que afirmaba que el sistema se está utilizando para fabricar objetivos para que las fuerzas militares israelíes puedan seguir bombardeando Gaza a un ritmo enorme, castigando a la población palestina en general. NPR señaló que no había verificado esto; No estaba claro cuántos objetivos estaban siendo generados solo por la IA, pero había habido un aumento sustancial en los objetivos, con un enorme costo para los civiles. [23]
En principio, la combinación de la velocidad de una computadora para identificar oportunidades y el juicio de un humano para evaluarlas puede permitir ataques más precisos y menos víctimas civiles. [28] El ejército y los medios de comunicación israelíes han enfatizado el daño minimizado a los no combatientes. [16] [29] Richard Moyes, investigador y director de la ONG Artículo 36, señaló "el aplanamiento generalizado de un área urbana con armas explosivas pesadas" para cuestionar estas afirmaciones, [29] mientras que Lucy Suchman , profesora emérita de la Universidad de Lancaster , describió el bombardeo como "dirigido a la máxima devastación de la Franja de Gaza". [8]
El periódico The Guardian escribió que cuando se autorizó un ataque contra casas particulares de personas identificadas como agentes de Hamás o de la Jihad Islámica, los investigadores del objetivo sabían de antemano el número esperado de civiles muertos, cada objetivo tenía un archivo que contenía una puntuación de daños colaterales que estipulaba cuántos civiles probablemente morirían en un ataque [30] y, según una fuente militar israelí de alto rango, los agentes utilizan una medición "muy precisa" de la tasa de civiles que evacuan un edificio poco antes de un ataque. "Utilizamos un algoritmo para evaluar cuántos civiles quedan. Nos da un verde, un amarillo, un rojo, como una señal de tráfico". [29]
Kohavi comparó la división de objetivos utilizando el Evangelio con una máquina y afirmó que una vez que la máquina se activó en la guerra de mayo de 2021, generó 100 objetivos al día, de los cuales la mitad fueron atacados, en contraste con los 50 objetivos en Gaza por año antes. [31] Aproximadamente 200 objetivos vinieron del Evangelio de los 1.500 objetivos que Israel atacó en Gaza durante la guerra, [23] incluidos objetivos estáticos y móviles según el ejército. [32]
El informe posterior a la acción del Instituto Judío para la Seguridad Nacional de Estados Unidos identificó un problema, afirmando que el sistema tenía datos sobre lo que era un objetivo, pero carecía de datos sobre lo que no lo era. [33] El sistema depende completamente de datos de entrenamiento, [16] y la información que los analistas humanos habían examinado y considerado que no constituía un objetivo había sido descartada, con el riesgo de sesgo . El vicepresidente expresó sus esperanzas de que esto se hubiera rectificado desde entonces. [32]
El Evangelio es utilizado por la división de administración de objetivos del ejército (o Dirección de Objetivos [3] o Dirección de Objetivos [34] ), que se formó en 2019 en la dirección de inteligencia de las FDI [21] para abordar el problema de que la fuerza aérea se estaba quedando sin objetivos para bombardear, [17] y que Kohavi describió como "impulsada por capacidades de inteligencia artificial" e incluyendo a cientos de oficiales y soldados. [31] Además de su papel en tiempos de guerra, The Guardian escribió que había ayudado a las FDI a construir una base de datos de entre 30.000 y 40.000 presuntos militantes en los últimos años, y que sistemas como el Evangelio habían desempeñado un papel fundamental en la construcción de listas de personas autorizadas a ser asesinadas. [21]
El Evangelio fue desarrollado por la Unidad 8200 del Cuerpo de Inteligencia Israelí . [35]
El Guardian definió a Lavender como una base de datos impulsada por IA , según los testimonios de seis oficiales de inteligencia dados a +972 Magazine / Local Call y compartidos con The Guardian . Los seis dijeron que Lavender había jugado un papel central en la guerra, procesando rápidamente los datos para identificar posibles operativos subalternos a los que apuntar, y en un momento dado enumeró hasta 37.000 hombres palestinos vinculados por AI a Hamás o PIJ. [36] Los detalles de la operación de Lavender o cómo llega a sus conclusiones no están incluidos en los relatos publicados por +972 / Local Call , pero después de que se descubriera que una muestra de la lista tenía una tasa de precisión del 90%, las FDI aprobaron el uso generalizado de Lavender para recomendar objetivos. Según los oficiales, se utilizó junto con el Evangelio, que apuntaba a edificios y estructuras en lugar de individuos. [37]
Citando múltiples fuentes, el Guardian escribió que en guerras anteriores, la identificación de alguien como objetivo legítimo se discutía y luego era aprobada por un asesor legal, y que, después del 7 de octubre, el proceso se aceleró drásticamente, hubo presión para más objetivos y, para satisfacer la demanda, las FDI llegaron a depender en gran medida de Lavender para una base de datos de individuos que se consideraba que tenían las características de un militante de PIJ o Hamás. [38] El Guardian citó una fuente: "Invertía 20 segundos en cada objetivo en esta etapa, y hacía docenas de ellos todos los días. No tenía ningún valor agregado como humano, aparte de ser un sello de aprobación . Ahorraba mucho tiempo". [39] Una fuente que justificó el uso de Lavender para ayudar a identificar objetivos de bajo rango dijo que en tiempos de guerra no hay tiempo para pasar cuidadosamente por el proceso de identificación con cada objetivo, y en lugar de invertir mano de obra y tiempo en un militante joven "estás dispuesto a asumir el margen de error de usar inteligencia artificial". [40]
Las FDI emitieron una declaración en la que afirmaban que algunas de las afirmaciones presentadas carecen de fundamento, mientras que otras reflejan una comprensión errónea de las directivas de las FDI y del derecho internacional, y que las FDI no utilizan un sistema de inteligencia artificial que identifique a los agentes terroristas o intente predecir si una persona es terrorista. Los sistemas de información son simplemente uno de los tipos de herramientas que ayudan a los analistas a reunir y analizar de forma óptima la información de diversas fuentes para el proceso de identificación de objetivos militares y, de acuerdo con las directivas de las FDI, los analistas deben realizar exámenes independientes para verificar que los objetivos cumplan con las definiciones pertinentes de conformidad con el derecho internacional y las restricciones adicionales de las directivas de las FDI. [41]
La declaración continuó diciendo que el "sistema" en cuestión no es un sistema ni una lista de operativos militares confirmados elegibles para atacar, sólo una base de datos para cruzar fuentes de inteligencia con el fin de producir capas de información actualizadas sobre los operativos militares de organizaciones terroristas. [41]
Los expertos en ética, IA y derecho internacional humanitario han criticado el uso de dichos sistemas de IA desde una perspectiva ética y legal, argumentando que violan principios básicos del derecho internacional humanitario, como la necesidad militar , la proporcionalidad y la distinción entre combatientes y civiles. [42]
El Guardian citó los testimonios de los oficiales de inteligencia publicados por +972 y Local Call diciendo que los hombres palestinos vinculados al ala militar de Hamas eran considerados objetivos potenciales independientemente de su rango o importancia, [43] y los miembros de bajo rango de Hamas y PLJ serían atacados preferentemente en casa, y uno dijo que el sistema fue construido para buscarlos en estas situaciones cuando atacar sería mucho más fácil. [44] Dos de las fuentes dijeron que los ataques a militantes de bajo rango se llevaban a cabo típicamente con bombas tontas , destruyendo casas enteras y matando a todos los que estaban allí, y uno dijo que no quieres desperdiciar bombas caras que escasean en personas sin importancia. [45] Citando a expertos en conflictos anónimos, el Guardian escribió que si Israel ha estado usando bombas tontas para aplastar las casas de miles de palestinos que estaban vinculados con la asistencia de AI a grupos militantes en Gaza, podría ayudar a explicar lo que el periódico llamó la sorprendentemente alta cifra de muertos de la guerra. [46] Un funcionario israelí que habló con +972 declaró también que el programa israelí "¿Dónde está papá?" Rastrearon a militantes sospechosos hasta que regresaron a sus hogares, momento en el que "las FDI bombardearon sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia". [47]
La respuesta de las FDI a la publicación de los testimonios decía que, a diferencia de Hamás, están comprometidas con el derecho internacional y sólo atacan objetivos militares y operativos militares, lo hacen de acuerdo con la proporcionalidad y las precauciones , y examinan e investigan exhaustivamente las excepciones; [48] que un miembro de un grupo armado organizado o un participante directo en las hostilidades es un objetivo legítimo según el derecho internacional humanitario y la política de todos los países respetuosos de la ley; [49] que "hace diversos esfuerzos para reducir el daño a los civiles en la medida de lo posible en las circunstancias operativas que rigen en el momento del ataque"; que elige la munición adecuada de acuerdo con consideraciones operativas y humanitarias; que las municiones aéreas sin un kit de guía de precisión integrado son armamento estándar desarrollado por los militares; que los sistemas de a bordo de las aeronaves utilizados por pilotos entrenados garantizan una alta precisión de tales armas; y que la clara mayoría de las municiones que utiliza son guiadas con precisión . [50]
También fueron atacadas viviendas familiares en el sur del Líbano, en una zona residencial de Bint Jbeil . Mataron a dos hermanosAli Ahmed Bazzi e Ibrahim Bazzi (27), y la esposa de Ibrahim, Shorouq Hammond. [51] Los hermanos son ambos ciudadanos australianos, Ali vivía en la zona pero Ibrahim estaba de visita desde Sydney para traer a su esposa a Australia. [52] [51] Hezbollah afirmó que Ali era uno de sus combatientes, [53] [54] y también incluyó a los miembros civiles de la familia en un funeral de Hezbollah. [55] [51]
Según los testimonios, las FDI impusieron límites preautorizados a la cantidad de civiles que se permitía matar para matar a un militante de Hamás. The Guardian citó a +972 y Local Call para explicar cómo esta cifra era superior a 100 en el caso de los altos funcionarios de Hamás, y una de las fuentes dijo que había un cálculo de cuántos civiles podían ser asesinados por un comandante de brigada, cuántos por un comandante de batallón, etc. Uno de los oficiales dijo que en el caso de los militantes jóvenes, esta cifra era de 15 en la primera semana de la guerra, y en un momento dado llegó a ser tan baja como cinco. Otro dijo que había llegado a ser tan alta como 20 civiles no involucrados por cada operativo, independientemente de su rango, importancia militar o edad. [56] The Guardian escribió que los expertos en derecho internacional humanitario que hablaron con el periódico expresaron su alarma. [57]
La respuesta de las FDI decía que sus procedimientos requieren evaluar la ventaja militar prevista y el daño colateral para cada objetivo, que dichas evaluaciones se hacen individualmente, no categóricamente, que las FDI no llevan a cabo ataques cuando el daño colateral es excesivo en relación con la ventaja militar, [58] y que las FDI rechazan rotundamente la afirmación sobre cualquier política de matar a decenas de miles de personas en sus hogares. [59]
El periódico The Guardian citó a Moyes diciendo que un comandante al que se le entrega una lista de objetivos generada por computadora puede no saber cómo se generó la lista o no poder cuestionar las recomendaciones sobre los objetivos, y está en peligro de perder la capacidad de considerar significativamente el riesgo de daño a civiles. [42]
En un artículo de opinión en Le Monde , la reportera Élise Vincent armas autónomas letales , que en principio permiten el control humano, y que esta división permite a Israel afirmar que el Evangelio está del lado del uso más apropiado de la fuerza. Citó a Laure de Roucy-Rochegonde, investigadora del Institut français des relations internationales , quien dijo que la guerra podría dejar obsoletas estas categorías borrosas y vigorizar una definición regulatoria más estricta, el control humano significativo, que los activistas de derechos humanos, incluido Article 36, han estado tratando de defender. Citó a De Roucy-Rochegonde diciendo que no se sabe qué tipo de algoritmo usa el ejército israelí, o cómo se han agregado los datos, lo que no sería un problema si no condujeran a una decisión de vida o muerte. [60]
escribió que las armas automatizadas se dividen en sistemas totalmente automatizados, que en realidad no están en el mercado, yLa Dra. Marta Bo, investigadora del Instituto Internacional de Investigación para la Paz de Estocolmo , señaló que los humanos en el sistema de intervención humana corren el riesgo de sufrir un "sesgo de automatización": una dependencia excesiva de los sistemas, lo que les otorga demasiada influencia sobre las decisiones que deben tomar los humanos. [42]
Suchman observó que el enorme volumen de objetivos probablemente esté ejerciendo presión sobre los revisores humanos, y dijo que "frente a este tipo de aceleración, esas revisiones se ven cada vez más limitadas en términos del tipo de juicio que las personas realmente pueden ejercer". Tal Mimran, profesor de la Universidad Hebrea de Jerusalén que anteriormente trabajó con el gobierno en la selección de objetivos, agregó que la presión hará que los analistas sean más propensos a aceptar las recomendaciones de la IA en cuanto a objetivos, ya sean correctas, y pueden verse tentados a facilitarse la vida siguiendo las recomendaciones de la máquina, lo que podría crear un "nivel completamente nuevo de problemas" si la máquina identifica sistemáticamente de forma errónea los objetivos. [61]
Khlaaf señaló la dificultad de exigir responsabilidades cuando están implicadas las IA. Los humanos conservan la culpabilidad , pero ¿quién es responsable si el sistema de selección de objetivos falla, y es imposible atribuir el fallo a un error de una sola persona? El artículo de la NPR continuaba: "¿Es el analista que aceptó la recomendación de la IA? ¿Los programadores que crearon el sistema? ¿Los agentes de inteligencia que recopilaron los datos de entrenamiento?" [61]
El Secretario General de las Naciones Unidas, Antonio Guterres , dijo que estaba "profundamente preocupado" por los informes de que Israel utilizó inteligencia artificial en su campaña militar en Gaza, diciendo que la práctica pone a los civiles en riesgo y desdibuja la rendición de cuentas. [62] Hablando sobre el sistema Lavender, Marc Owen Jones, profesor de la Universidad Hamad Bin Khalifa , afirmó: "Seamos claros: este es un genocidio asistido por IA y, en el futuro, es necesario un llamado a una moratoria sobre el uso de IA en la guerra". [63] Ben Saul , relator especial de las Naciones Unidas, afirmó que si los informes sobre el uso de IA por parte de Israel fueran ciertos, entonces "muchos ataques israelíes en Gaza constituirían crímenes de guerra por lanzar ataques desproporcionados". [64] Ramesh Srinivasan , profesor de la UCLA , afirmó: "Las grandes empresas tecnológicas estadounidenses están en realidad alineadas con muchas de las acciones del ejército israelí. El hecho de que se estén utilizando sistemas de IA indica que hay una falta de respeto por parte del estado israelí. Todo el mundo sabe que estos sistemas de IA cometerán errores". [65]
The Gospel es en realidad uno de los varios programas de inteligencia artificial que utiliza la inteligencia israelí, según Tal Mimran, un profesor de la Universidad Hebrea de Jerusalén que ha trabajado para el gobierno israelí en la selección de objetivos durante operaciones militares anteriores. Otros sistemas de inteligencia artificial agregan grandes cantidades de datos de inteligencia y los clasifican. El sistema final es The Gospel, que hace una recomendación de objetivos a un analista humano. Esos objetivos podrían ser cualquier cosa, desde combatientes individuales hasta equipos como lanzacohetes o instalaciones como puestos de mando de Hamás.
Una breve publicación en el blog del ejército israelí del 2 de noviembre explica cómo se está utilizando el Evangelio en el conflicto actual. Según la publicación, la Dirección de Objetivos del ejército está utilizando el Evangelio para producir rápidamente objetivos basados en la información de inteligencia más reciente. El sistema proporciona una recomendación de objetivos para un analista humano que luego decide si se la pasa a los soldados en el campo.
"Este no es solo un sistema automático", enfatiza Misztal. "Si cree que encuentra algo que podría ser un objetivo potencial, se lo marca para que lo revise un analista de inteligencia".
La publicación afirma que la división de objetivos puede enviar estos objetivos a la IAF y a la marina, y directamente a las fuerzas terrestres a través de una aplicación conocida como "Pillar of Fire", que los comandantes llevan en teléfonos inteligentes y otros dispositivos proporcionados por los militares.
Varias fuentes familiarizadas con los procesos de selección de objetivos de las FDI confirmaron la existencia del Evangelio a +972/Llamada local, diciendo que se había utilizado para producir recomendaciones automatizadas para atacar objetivos, como las casas particulares de personas sospechosas de ser agentes de Hamás o de la Jihad Islámica.
Los algoritmos pueden examinar montañas de datos de inteligencia mucho más rápido que los analistas humanos, dice
Robert Ashley
, exdirector de la Agencia de Inteligencia de Defensa de Estados Unidos. El uso de la inteligencia artificial para ayudar a determinar los objetivos tiene el potencial de dar a los comandantes una enorme ventaja.
"Vas a tomar decisiones más rápido que tu oponente, de eso se trata realmente", dice.
Los militares y los soldados enmarcan su toma de decisiones a través de lo que se llama el "ciclo OODA" (para observar, orientar, decidir, actuar). Un ciclo OODA más rápido puede ayudarlo a superar en maniobras a su enemigo. El objetivo es evitar ralentizar las decisiones mediante una deliberación excesiva y, en cambio, adaptarse al ritmo acelerado de la guerra. Por lo tanto, el uso de la IA está potencialmente justificado sobre la base de que puede interpretar y sintetizar enormes cantidades de datos, procesarlos y entregar resultados a velocidades que superan con creces la cognición humana.
El aprendizaje automático se basa en algoritmos para analizar grandes conjuntos de datos. Actualmente, el aprendizaje automático no puede proporcionar el tipo de inteligencia artificial que presentan las películas. Incluso los mejores algoritmos no pueden pensar, sentir, presentar ninguna forma de autoconciencia o ejercer el libre albedrío.
¿Cómo produce el sistema estos objetivos? Lo hace a través del razonamiento probabilístico ofrecido por algoritmos de aprendizaje automático.
Los algoritmos de aprendizaje automático aprenden a través de los datos. Aprenden buscando patrones en enormes pilas de datos, y su éxito depende de la calidad y cantidad de los datos. Hacen recomendaciones basadas en probabilidades.
Las probabilidades se basan en la coincidencia de patrones. Si una persona tiene suficientes similitudes con otras personas etiquetadas como combatientes enemigos, también pueden ser etiquetadas como combatientes.
El secreto del aprendizaje automático es la generalización. El objetivo es generalizar la función de salida para que funcione con datos que no estén incluidos en el conjunto de entrenamiento. Por ejemplo, considere un filtro de spam. Su diccionario contiene 100 000 palabras (en realidad, un diccionario pequeño). Un conjunto de datos de entrenamiento limitado de 4000 o 5000 combinaciones de palabras debe crear una función generalizada que pueda encontrar spam en las 2^100 000 combinaciones que la función verá cuando trabaje con datos reales.
Pero los expertos dijeron que los sistemas de apoyo a la toma de decisiones basados en IA para la selección de objetivos normalmente analizarían grandes conjuntos de información de una variedad de fuentes, como imágenes de drones, comunicaciones interceptadas, datos de vigilancia e información extraída del seguimiento de los movimientos y patrones de comportamiento de individuos y grandes grupos.
Aunque no se sabe exactamente qué datos utiliza el Evangelio para hacer sus sugerencias, es probable que provengan de una amplia variedad de fuentes diferentes. La lista incluye cosas como mensajes de teléfonos celulares, imágenes satelitales, imágenes de drones e incluso sensores sísmicos, según Blaise Misztal, vicepresidente de políticas del Instituto Judío para la Seguridad Nacional de Estados Unidos, un grupo que facilita la cooperación militar entre Israel y Estados Unidos.
Y básicamente, toma una enorme cantidad de datos de vigilancia, los procesa y hace recomendaciones sobre dónde deberían atacar los militares.
Algunos afirman que el aprendizaje automático permite una mayor precisión en la selección de objetivos, lo que hace que sea más fácil evitar dañar a personas inocentes y usar una cantidad proporcional de fuerza. Sin embargo, la idea de una selección más precisa de los objetivos de los ataques aéreos no ha tenido éxito en el pasado, como lo demuestra el alto número de víctimas civiles declaradas y no declaradas de la guerra global contra el terrorismo.
Además, la diferencia entre un combatiente y un civil rara vez es evidente. Incluso los humanos con frecuencia no pueden distinguir quién es y quién no es un combatiente.
La tecnología no cambia esta verdad fundamental. A menudo, las categorías y los conceptos sociales no son objetivos, sino que son controvertidos o específicos de un tiempo y un lugar. Pero la visión artificial combinada con algoritmos es más efectiva en entornos predecibles donde los conceptos son objetivos, razonablemente estables y consistentes internamente.
El ejército israelí no respondió directamente a las consultas de NPR sobre el Evangelio. En la publicación del 2 de noviembre, dijo que el sistema permite al ejército "producir objetivos para ataques precisos a infraestructuras asociadas con Hamás, al tiempo que causa un gran daño al enemigo y un daño mínimo a los no involucrados", según un portavoz anónimo.
Pero los críticos cuestionan si el Evangelio y otros sistemas de IA asociados están de hecho funcionando como afirma el ejército. Khlaaf señala que la inteligencia artificial depende completamente de los datos de entrenamiento para tomar sus decisiones.
"La naturaleza de los sistemas de IA es proporcionar resultados basados en inferencias y correlaciones estadísticas y probabilísticas a partir de datos históricos, y no en ningún tipo de razonamiento, evidencia fáctica o 'causalidad'", dice.
La división de objetivos se creó para abordar un problema crónico de las FDI: en operaciones anteriores en Gaza, la fuerza aérea se quedó repetidamente sin objetivos para atacar. Dado que los altos funcionarios de Hamás desaparecían en túneles al comienzo de cualquier nueva ofensiva, dijeron las fuentes, sistemas como el Evangelio permitieron a las FDI localizar y atacar a un grupo mucho más grande de operativos más jóvenes.
Un funcionario, que trabajó en decisiones de objetivos en operaciones anteriores en Gaza, dijo que las FDI no habían atacado anteriormente las casas de miembros jóvenes de Hamás para bombardeos. Dijeron que creían que eso había cambiado para el conflicto actual, y que ahora las casas de presuntos operativos de Hamás son atacadas independientemente de su rango.
Yuval Abraham
: "Ahora, fuentes con las que he hablado que han operado el Gospel y han servido en ese centro [...] dijeron que el uso de inteligencia artificial está siendo una tendencia creciente en el ejército porque en el pasado, el ejército se quedó sin objetivos en 2014 y 2021.
Yuval Abraham
: Quiero decir, una fuente recordó cómo, por ejemplo, en 2021 y 2014, ya sabes, se quedaron sin objetivos. No les quedaba nada que bombardear. No había nada más que bombardear que calidad. Pero había presión política para continuar la guerra. Era necesario seguir presionando en Gaza. Así que una fuente recordó cómo en 2014 bombardeaban los mismos lugares dos veces. Cuando tienes inteligencia artificial, cuando tienes automatización, cuando puedes crear tantos objetivos, a menudo gastando, ya sabes, menos de un minuto en un objetivo que, al final del día, está matando familias, ¿sabes? Así, así, así que eso permite que se puedan continuar las guerras, a menudo incluso con fines políticos, podría ser, durante mucho más tiempo que en el pasado.
las FDI dijeron que su división de administración de objetivos había identificado «más de 12.000» objetivos en Gaza.
Las actividades de la división, formada en 2019 en la dirección de inteligencia de las FDI, están clasificadas.
Sin embargo, una breve declaración en el sitio web de las FDI afirmó que estaba utilizando un sistema basado en IA llamado Habsora (el Evangelio, en inglés) en la guerra contra Hamás para «producir objetivos a un ritmo rápido».
[...] En los últimos años, la división de objetivos ha ayudado a las FDI a construir una base de datos de lo que las fuentes dijeron que eran entre 30.000 y 40.000 presuntos militantes. Sistemas como el Evangelio, dijeron, habían jugado un papel crítico en la construcción de listas de individuos autorizados para ser asesinados.
El ritmo es asombroso: a raíz de los brutales ataques de los militantes liderados por Hamás el 7 de octubre, las fuerzas israelíes han atacado más de 22.000 objetivos dentro de Gaza, una pequeña franja de tierra a lo largo de la costa mediterránea. Solo desde que se rompió la tregua temporal el 1 de diciembre, la Fuerza Aérea de Israel ha atacado más de 3.500 sitios.
Un informe de la publicación israelí +972 Magazine y el medio en idioma hebreo Local Call afirma que el sistema se está utilizando para fabricar objetivos para que las fuerzas militares israelíes puedan seguir bombardeando Gaza a un ritmo enorme, castigando a la población palestina en general.
NPR no ha verificado de forma independiente esas afirmaciones, y no está claro cuántos objetivos se están generando actualmente solo con la inteligencia artificial. Pero ha habido un aumento sustancial en los objetivos, según las propias cifras del ejército israelí. En el conflicto de 2021, Israel dijo que atacó 1.500 objetivos en Gaza, aproximadamente 200 de los cuales provenían del Evangelio. Desde el 7 de octubre, el ejército afirma haber atacado más de 22.000 objetivos dentro de Gaza, una tasa diaria de más del doble de la del conflicto de 2021.
El coste de las muertes de civiles palestinos ha sido enorme.
El ejército de Israel no ha ocultado la intensidad de sus bombardeos sobre la Franja de Gaza. En los primeros días de la ofensiva, el jefe de su fuerza aérea habló de ataques aéreos incesantes, "las 24 horas del día". Sus fuerzas, dijo, solo estaban atacando objetivos militares, pero agregó: "No estamos siendo quirúrgicos".
En los últimos meses, Israel ha estado emitiendo advertencias casi a diario a Irán sobre su enriquecimiento de uranio, prometiendo que no permitirá que el país obtenga armas nucleares bajo ninguna circunstancia. Si los dos entran en una confrontación militar, las FDI anticipan que los representantes iraníes en Gaza, Siria y Líbano tomarían represalias, preparando el escenario para el primer conflicto serio en múltiples frentes para Israel desde que un ataque sorpresa de Egipto y Siria hace 50 años desencadenó la Guerra de Yom Kippur.
Las herramientas basadas en inteligencia artificial como Fire Factory están diseñadas para tal escenario, según los funcionarios de las FDI. "Lo que solía llevar horas ahora lleva minutos, con unos minutos más para la revisión humana", dijo el coronel Uri, quien dirige la unidad de transformación digital del ejército [...] "Con la misma cantidad de personas, hacemos mucho más".
Aunque el ejército no hace comentarios sobre operaciones específicas, los funcionarios dicen que ahora utiliza un sistema de recomendación de inteligencia artificial que puede procesar enormes cantidades de datos para seleccionar objetivos para ataques aéreos. Las incursiones posteriores se pueden ensamblar rápidamente con otro modelo de inteligencia artificial llamado Fire Factory, que utiliza datos sobre objetivos aprobados por el ejército para calcular cargas de munición, priorizar y asignar miles de objetivos a aeronaves y drones, y proponer un cronograma.
Yuval Abraham
: "De lo que estamos hablando es de una política de lanzar una bomba que pesa dos mil libras sobre una casa para asesinar a una persona, ¿de acuerdo? Ahora, en el pasado, imagínese antes de la inteligencia artificial y la automatización, haría eso, digamos, para un grupo muy pequeño de líderes superiores de Hamás, matándolos y matando conscientemente a todos los que los rodean [...] cuando automatiza ese proceso, cuando tiene la necesidad de atacar cientos y miles de objetivos, puede hacerlo de manera sistemática..."
En principio, los sistemas de aprendizaje automático pueden permitir ataques más precisos y menos víctimas civiles.
En la breve declaración de las FDI sobre su división de objetivos, un alto funcionario dijo que la unidad "produce ataques precisos contra la infraestructura asociada con Hamás al tiempo que inflige un gran daño al enemigo y un daño mínimo a los no combatientes".
La precisión de los ataques recomendados por el "banco de objetivos de la IA" ha sido enfatizada en múltiples informes en los medios israelíes. El diario
Yedioth Ahronoth
informó que la unidad "se asegura en la medida de lo posible de que no haya daños a los civiles no involucrados".
Una ex fuente militar israelí de alto rango le dijo a The Guardian que los operativos utilizan una medición "muy precisa" de la tasa de civiles que evacuan un edificio poco antes de un ataque. "Utilizamos un algoritmo para evaluar cuántos civiles quedan. Nos da un verde, un amarillo, un rojo, como una señal de tráfico".
[...] "Observen el paisaje físico de Gaza", dijo Richard Moyes, un investigador que dirige Article 36, un grupo que hace campaña para reducir el daño causado por las armas. "Estamos viendo el aplanamiento generalizado de una zona urbana con armas explosivas pesadas, por lo que afirmar que se está ejerciendo una fuerza precisa y limitada no se sustenta en los hechos".
Varias fuentes dijeron a The Guardian y
a +972
/
Local Call
que cuando se autorizaba un ataque a las casas particulares de personas identificadas como agentes de Hamás o de la Jihad Islámica, los investigadores del objetivo sabían de antemano el número de civiles que se esperaba que murieran.
Dijeron que cada objetivo tenía un archivo que contenía una puntuación de daños colaterales que estipulaba cuántos civiles era probable que murieran en un ataque.
Aviv Kochavi, que se desempeñó como jefe de las FDI hasta enero, ha dicho que la división de objetivos está "impulsada por capacidades de IA" e incluye a cientos de oficiales y soldados.En
una entrevista publicada antes de la guerra, dijo que era "una máquina que produce grandes cantidades de datos con mayor eficacia que cualquier humano y los traduce en objetivos para atacar".
Según Kochavi, "una vez que esta máquina se activó" en la guerra de 11 días de Israel con Hamás en mayo de 2021, generó 100 objetivos al día. "Para ponerlo en perspectiva, en el pasado producíamos 50 objetivos en Gaza por año. Ahora, esta máquina produce 100 objetivos por día, y el 50% de ellos son atacados".
El grupo de Misztal documentó una de las primeras pruebas del Evangelio, durante un conflicto de 2021 en Gaza entre Israel y los grupos militantes Hamás y la Jihad Islámica. Según informes de prensa y declaraciones del propio ejército, Israel utilizó el Evangelio y otros programas de IA para identificar posibles objetivos, como lanzacohetes. El sistema se utilizó para identificar objetivos estáticos, así como objetivos en movimiento a medida que aparecían en el campo de batalla. Según informes de prensa, identificó alrededor de 200 objetivos en el conflicto.
Pero no estuvo exento de problemas. El informe posterior a la acción del grupo de Misztal señaló que, si bien la IA tenía muchos datos de entrenamiento sobre lo que constituía un objetivo, carecía de datos sobre cosas que los analistas humanos habían decidido que
no
eran objetivos. El ejército israelí no había recopilado los datos de los objetivos que sus analistas habían descartado, y como resultado, el entrenamiento del sistema había sido parcial.
"Han pasado dos años desde entonces, así que es algo que, con suerte, han podido corregir", dice Misztal.
Según publicaciones en el sitio web del ejército israelí, el Evangelio fue desarrollado por la rama de inteligencia de señales de Israel, conocida como Unidad 8200. El sistema es relativamente nuevo: una de las primeras menciones fue un premio a la innovación que ganó en 2020.
La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por IA no revelada anteriormente que en un momento identificó 37.000 objetivos potenciales en función de sus aparentes vínculos con Hamás, según fuentes de inteligencia involucradas en la guerra.
El testimonio de los seis oficiales de inteligencia, todos ellos involucrados en el uso de sistemas de IA para identificar objetivos de Hamás y la Jihad Islámica Palestina (PIJ) en la guerra, fue entregado al periodista Yuval Abraham para un informe publicado por la publicación israelí-palestina
+972 Magazine
y el medio en idioma hebreo
Local Call
.
Sus relatos fueron compartidos exclusivamente con The Guardian antes de su publicación. Los seis dijeron que Lavender había desempeñado un papel central en la guerra, procesando grandes cantidades de datos para identificar rápidamente a posibles agentes "junior" a los que atacar. Cuatro de las fuentes dijeron que, en un momento dado al comienzo de la guerra, Lavender enumeró hasta 37.000 hombres palestinos que habían sido vinculados por el sistema de inteligencia artificial con Hamás o PIL.
Los detalles sobre los tipos específicos de datos utilizados para entrenar el algoritmo de Lavender, o cómo el programa llegó a sus conclusiones, no están incluidos en los relatos publicados por +972 o Local Call. Sin embargo, las fuentes dijeron que durante las primeras semanas de la guerra, la Unidad 8200 refinó el algoritmo de Lavender y ajustó sus parámetros de búsqueda.
Después de muestrear aleatoriamente y verificar sus predicciones, la unidad concluyó que Lavender había logrado una tasa de precisión del 90%, dijeron las fuentes, lo que llevó a las FDI a aprobar su uso generalizado como herramienta de recomendación de objetivos.
Lavender creó una base de datos de decenas de miles de personas que fueron marcadas como miembros predominantemente de bajo rango del ala militar de Hamás, agregaron. Esto se utilizó junto con otro sistema de apoyo a la toma de decisiones basado en inteligencia artificial, llamado Gospel, que recomendaba edificios y estructuras como objetivos en lugar de individuos.
En operaciones militares anteriores llevadas a cabo por las FDI, la producción de objetivos humanos era a menudo un proceso más laborioso. Varias fuentes que describieron el desarrollo de objetivos en guerras anteriores al Guardian, dijeron que la decisión de "incriminar" a un individuo, o identificarlo como un objetivo legítimo, se discutiría y luego sería aprobada por un asesor legal.
En las semanas y meses posteriores al 7 de octubre, este modelo para aprobar ataques contra objetivos humanos se aceleró drásticamente, según las fuentes. A medida que se intensificaba el bombardeo de Gaza por parte de las FDI, dijeron, los comandantes exigieron una cadena continua de objetivos.
"Nos presionaban constantemente: 'Traednos más objetivos'. Realmente nos gritaban", dijo un oficial de inteligencia. "Nos dijeron: ahora tenemos que joder a Hamás, sin importar el costo. Todo lo que podamos, lo bombardeamos".
Para satisfacer esta demanda, las FDI recurrieron en gran medida a Lavender para generar una base de datos de individuos que se consideraba que tenían características de militantes de la Yihad Islámica o de Hamás.
Otra fuente, que justificó el uso de Lavender para ayudar a identificar objetivos de bajo rango, dijo que "cuando se trata de un militante joven, no quieres invertir mano de obra y tiempo en ello". Dijeron que en tiempos de guerra no había tiempo suficiente para "incriminar cuidadosamente a cada objetivo".
"Por lo tanto, estás dispuesto a asumir el margen de error de usar inteligencia artificial, arriesgarte a sufrir daños colaterales y a que mueran civiles, y arriesgarte a atacar por error, y vivir con ello", agregaron.
Algunas de las afirmaciones retratadas en sus preguntas son infundadas de hecho, mientras que otras reflejan una comprensión errónea de las directivas de las FDI y el derecho internacional. Tras el ataque asesino de la organización terrorista Hamás el 7 de octubre, las FDI han estado operando para desmantelar las capacidades militares de Hamás.
[...] El proceso de identificación de objetivos militares en las FDI consta de varios tipos de herramientas y métodos, incluidas herramientas de gestión de la información, que se utilizan para ayudar a los analistas de inteligencia a recopilar y analizar de manera óptima la inteligencia, obtenida de una variedad de fuentes. Contrariamente a las afirmaciones, las FDI no utilizan un sistema de inteligencia artificial que identifique a los operativos terroristas o intente predecir si una persona es terrorista. Los sistemas de información son simplemente herramientas para los analistas en el proceso de identificación de objetivos. Según las directivas de las FDI, los analistas deben realizar exámenes independientes, en los que verifican que los objetivos identificados cumplen con las definiciones pertinentes de acuerdo con el derecho internacional y las restricciones adicionales estipuladas en las directivas de las FDI.
El "sistema" al que se refieren sus preguntas no es un sistema, sino simplemente una base de datos cuyo propósito es cruzar referencias de fuentes de inteligencia, con el fin de producir capas de información actualizadas sobre los operativos militares de las organizaciones terroristas. No se trata de una lista de operativos militares confirmados que pueden ser atacados.
Para algunos expertos que investigan la IA y el derecho internacional humanitario, una aceleración de este tipo plantea una serie de preocupaciones.
La Dra. Marta Bo, investigadora del Instituto Internacional de Investigación para la Paz de Estocolmo, dijo que incluso cuando "los humanos están en el circuito" existe el riesgo de que desarrollen un "sesgo de automatización" y "confíen demasiado en sistemas que llegan a tener demasiada influencia sobre decisiones humanas complejas".
Moyes, de Article 36, dijo que cuando se confía en herramientas como el Evangelio, a un comandante "se le entrega una lista de objetivos que ha generado una computadora" y "no necesariamente sabe cómo se ha creado la lista ni tiene la capacidad de interrogar y cuestionar adecuadamente las recomendaciones de objetivos".
"Existe el peligro", añadió, "de que a medida que los humanos comiencen a depender de estos sistemas, se conviertan en engranajes de un proceso mecanizado y pierdan la capacidad de considerar el riesgo de daño civil de una manera significativa".
En las semanas posteriores al asalto del 7 de octubre liderado por Hamás en el sur de Israel, en el que militantes palestinos mataron a casi 1.200 israelíes y secuestraron a unas 240 personas, las fuentes dijeron que hubo una decisión de tratar a los hombres palestinos vinculados al ala militar de Hamás como objetivos potenciales, independientemente de su rango o importancia.
Los testimonios publicados por +972 y Local Call pueden explicar cómo un ejército occidental con capacidades tan avanzadas, con armas que pueden realizar ataques altamente quirúrgicos, ha llevado a cabo una guerra con un costo humano tan grande.
Cuando se trataba de apuntar a sospechosos de bajo rango de Hamás y PIJ, dijeron, la preferencia era atacar cuando se creía que estaban en casa. "No estábamos interesados en matar a operativos [de Hamás] solo cuando estaban en un edificio militar o participando en una actividad militar", dijo uno. "Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones".
Dos fuentes dijeron que durante las primeras semanas de la guerra se les permitió matar a 15 o 20 civiles durante los ataques aéreos contra militantes de bajo rango. Los ataques a esos objetivos se llevaban a cabo normalmente utilizando municiones no guiadas conocidas como "bombas tontas", dijeron las fuentes, que destruían casas enteras y mataban a todos sus ocupantes.
"No quieres desperdiciar bombas caras en personas sin importancia: es muy caro para el país y hay escasez [de esas bombas]", dijo un oficial de inteligencia. Otro dijo que la principal pregunta a la que se enfrentaban era si el "daño colateral" a los civiles permitía un ataque.
"Porque normalmente los ataques se hacían con bombas tontas, y eso significaba literalmente dejar caer toda la casa sobre sus ocupantes. Pero incluso si se evita un ataque, no te importa: pasas inmediatamente al siguiente objetivo. Gracias al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando".
Según los expertos en conflictos, si Israel ha estado utilizando bombas tontas para arrasar las casas de miles de palestinos que estaban vinculados, con la ayuda de IA, a grupos militantes en Gaza, eso podría ayudar a explicar el sorprendentemente alto número de muertos en la guerra.
A diferencia de Hamás, las FDI están comprometidas con el derecho internacional y actúan en consecuencia. Como tal, las FDI dirigen sus ataques solo contra objetivos militares y operativos militares y llevan a cabo ataques de acuerdo con las reglas de proporcionalidad y precauciones en los ataques. Los incidentes excepcionales se someten a exámenes e investigaciones exhaustivos.
Según el derecho internacional humanitario, una persona identificada como miembro de un grupo armado organizado (como el ala militar de Hamás), o una persona que participa directamente en las hostilidades, se considera un objetivo legítimo. Esta norma jurídica se refleja en la política de todos los países respetuosos de la ley, incluida la práctica y la política jurídicas de las FDI, que no cambiaron durante el curso de la guerra.
En cuanto a la forma de llevar a cabo los ataques, las FDI hacen varios esfuerzos para reducir el daño a los civiles en la medida de lo posible en las circunstancias operativas que rigen en el momento del ataque.
En este sentido, las FDI revisan los objetivos antes de los ataques y eligen la munición adecuada de acuerdo con consideraciones operativas y humanitarias, teniendo en cuenta una evaluación de las características estructurales y geográficas relevantes del objetivo, el entorno del objetivo, los posibles efectos sobre los civiles cercanos, la infraestructura crítica en las inmediaciones y más. Las municiones aéreas sin un kit de guía de precisión integrado son armamento estándar en los ejércitos desarrollados de todo el mundo. Las FDI utilizan dichas municiones mientras emplean sistemas de a bordo de aeronaves para calcular un punto de lanzamiento específico para garantizar un alto nivel de precisión, utilizado por pilotos entrenados. En cualquier caso, la gran mayoría de las municiones utilizadas en los ataques son municiones guiadas de precisión.
Los medios locales del Líbano dicen que un avión de guerra israelí disparó un misil contra varias casas en el área libanesa de Bint Jbei. Un ataque con misiles mató a Ibraham Bazzi, de 27 años, a su hermano Ali Bazzi y a la esposa de Ibrahim, Shorouk Hammond. La Sra. Hammoud había adquirido recientemente una visa australiana y ella y su esposo Ibrahim estaban planeando una vida en Australia.Afif Bazzi (alcalde de Bint Jbeil): "Fue una sorpresa que los israelíes atacaran un barrio civil, la gente vive con normalidad, no han huido. No hemos huido de Bint Jbeil, todos los residentes siguen allí. Oímos los bombardeos y los cañonazos, pero todavía estaban lejos, la ciudad era neutral, pero nos sorprendió que atacaran un barrio civil, civiles, un novio que vino de Australia para buscar a su novia. Estaban pasando tiempo juntos con su hermano en la casa de éste, realmente fue una sorpresa para nosotros". (traducción de SBS World News )
{{cite news}}
: CS1 maint: varios nombres: lista de autores ( enlace )Tal estrategia corría el riesgo de un mayor número de víctimas civiles, y las fuentes dijeron que las FDI impusieron límites preautorizados al número de civiles que consideraban aceptable matar en un ataque dirigido a un solo militante de Hamás. Se dijo que la proporción había cambiado con el tiempo y variaba según la antigüedad del objetivo.
Según +972 y Local Call, las FDI juzgaron que era permisible matar a más de 100 civiles en ataques contra funcionarios de alto rango de Hamás. "Teníamos un cálculo de cuántos [civiles podían morir] para el comandante de brigada, cuántos [civiles] para un comandante de batallón, etc.", dijo una fuente.
[...] Una fuente dijo que el límite de víctimas civiles permitidas "subió y bajó" con el tiempo, y en un momento llegó a ser tan bajo como cinco. Durante la primera semana del conflicto, según la fuente, se autorizó matar a 15 civiles para eliminar a militantes jóvenes en Gaza. Sin embargo, dijo que las estimaciones de víctimas civiles eran imprecisas, ya que no era posible saber con certeza cuántas personas había en un edificio.
Otro oficial de inteligencia dijo que más recientemente en el conflicto, la tasa de daños colaterales permitidos se redujo de nuevo. Pero en una etapa anterior de la guerra se autorizó matar hasta "20 civiles no involucrados" por un solo operativo, independientemente de su rango, importancia militar o edad.
Los expertos en derecho internacional humanitario que hablaron con The Guardian expresaron su alarma ante los relatos de que las FDI aceptan y autorizan previamente proporciones de daños colaterales de hasta 20 civiles, en particular para militantes de bajo rango. Dijeron que los militares deben evaluar la proporcionalidad para cada ataque individual.
Para cada objetivo, los procedimientos de las FDI requieren la realización de una evaluación individual de la ventaja militar prevista y el daño colateral esperado. Dichas evaluaciones no se realizan de manera categórica en relación con la aprobación de ataques individuales. La evaluación del daño colateral esperado de un ataque se basa en una variedad de métodos de evaluación y medidas de recopilación de inteligencia, con el fin de lograr la evaluación más precisa posible, considerando las circunstancias operativas relevantes. Las FDI no llevan a cabo ataques cuando el daño colateral esperado del ataque es excesivo en relación con la ventaja militar.
Las FDI rechazan rotundamente la afirmación sobre cualquier política de matar a decenas de miles de personas en sus hogares.
Las armas automatizadas se dividen hoy en dos grandes categorías: los sistemas de armas letales totalmente automatizados, de los que no existen ejemplos reales en el mercado, y las armas letales autónomas (LAW), que en principio permiten a los humanos tener el control. La gran mayoría de las potencias militares occidentales –e Israel, con Habsora– afirman ahora haber optado por las LAW y, por tanto, pueden afirmar que están del lado más apropiado del uso de la fuerza.
Laure de Roucy-Rochegonde, también investigadora del IFRI y autora de una tesis sobre la regulación de los sistemas de armas autónomas, dijo que las particularidades de la guerra entre Israel y Hamás podrían hacer obsoletas estas categorías borrosas y revitalizar otro concepto regulatorio, el del «control humano significativo». Se trata de una definición más estricta que algunos activistas de derechos humanos, incluida la ONG Article 36, han estado impulsando sin mucho éxito. "El problema es que no sabemos qué tipo de algoritmo está utilizando [el ejército israelí], o cómo se han agregado los datos. No sería un problema si no hubiera una decisión de vida o muerte al final", dijo de Roucy-Rochegonde.
El enorme volumen de objetivos también probablemente esté ejerciendo presión sobre los humanos a los que se les pide que los revisen, dice Suchman. "Ante este tipo de aceleración, esas revisiones se vuelven cada vez más limitadas en términos de qué tipo de juicio las personas realmente pueden ejercer", dice.
Mimran agrega que, bajo presión, los analistas estarán más propensos a aceptar las recomendaciones de objetivos de la IA, independientemente de si son correctas. Los oficiales de objetivos pueden verse tentados a pensar que "la vida será mucho más fácil si nos dejamos llevar por la máquina y aceptamos sus consejos y recomendaciones", dice. Pero podría crear un "nivel completamente nuevo de problemas" si la máquina identifica sistemáticamente los objetivos de forma errónea.
Por último, Khlaaf señala que el uso de la IA podría dificultar la rendición de cuentas de los implicados en el conflicto. Aunque los humanos siguen conservando la culpabilidad legal de los ataques, no está claro quién es responsable si el sistema de selección de objetivos falla. ¿El analista que aceptó la recomendación de la IA? ¿Los programadores que crearon el sistema? ¿Los agentes de inteligencia que recopilaron los datos de entrenamiento?