La desinformación, que implica la distribución de información falsa, inexacta o engañosa, ha sido una característica prominente y omnipresente de la guerra entre Israel y Hamás . [1]
Gran parte del contenido ha sido viral, con decenas de millones de publicaciones circulando en las redes sociales. Diversas fuentes, incluidos funcionarios gubernamentales, medios de comunicación y personas influyentes en las redes sociales de diferentes países, han contribuido a la difusión de estas inexactitudes. [2]
En las horas posteriores al ataque del 7 de octubre, Hamás "empleó una estrategia mediática amplia y sofisticada" utilizando cuentas bot para difundir propaganda gráfica, cargada de emociones y falsa que fue recogida y repetida por cuentas oficiales y gobiernos extranjeros. Cyabra, una empresa israelí de inteligencia de redes sociales, descubrió que al día siguiente del ataque, una de cada cuatro publicaciones sobre el conflicto en Facebook , Instagram , TikTok y X eran de cuentas falsas. El New York Times describió el inicio de la guerra entre Israel y Hamás como la liberación de un "diluvio de propaganda y desinformación en línea" que fue "más grande que cualquier cosa vista antes". Describió el conflicto como "convirtiéndose rápidamente en una guerra mundial en línea" y afirmó que Rusia , China , Irán y sus representantes habían utilizado los medios estatales y campañas de influencia encubiertas en las redes sociales para apoyar a Hamás, socavar a Israel, criticar a los Estados Unidos y causar disturbios. [3] James Rubin , del Centro de Participación Global del Departamento de Estado de EE. UU., calificó la cobertura del conflicto como arrastrada por "una guerra de información no declarada con países autoritarios". [4]
Durante el conflicto, el gobierno israelí y las empresas cibernéticas israelíes han desplegado herramientas de inteligencia artificial y granjas de bots para difundir desinformación y difundir propaganda gráfica, cargada de emociones y falsa para deshumanizar a los palestinos, sembrar división entre los partidarios de Palestina al atacar a los legisladores negros y ejercer presión sobre los políticos para que apoyen las acciones de Israel. [5] [6] [7] The Intercept informó que: "En el centro de la campaña de guerra de información de Israel hay una misión táctica para deshumanizar a los palestinos e inundar el discurso público con un torrente de acusaciones falsas, infundadas e inverificables". [7] Una de esas campañas encubiertas fue encargada por el Ministerio de Asuntos de la Diáspora de Israel . El ministerio asignó alrededor de 2 millones de dólares a la operación y utilizó la empresa de marketing político Stoic con sede en Tel Aviv para llevarla a cabo, según funcionarios y documentos revisados por el New York Times . [5] La campaña se inició después del ataque del 7 de octubre y permaneció activa en X (anteriormente Twitter) en el momento del informe del New York Times en junio de 2024. En el punto álgido de la campaña, utilizó cientos de cuentas falsas que se hacían pasar por estadounidenses en X, Facebook e Instagram para publicar comentarios a favor de Israel, centrándose en los legisladores estadounidenses, en particular los que son negros y del Partido Demócrata , incluidos Hakeem Jeffries , el líder de la minoría de la Cámara de Representantes de Nueva York, y Raphael Warnock , senador de Georgia. ChatGPT se implementó para generar muchas de las publicaciones. La campaña también implicó la creación de tres sitios de noticias falsos en inglés que presentaban artículos a favor de Israel. [5]
El 7 de octubre de 2023, el subdirector de la oficina política de Hamás, Saleh al-Arouri (con sede en el Líbano), afirmó que las Brigadas Qassam habían "capturado a oficiales superiores del ejército de ocupación" en los ataques del 7 de octubre . [8] En las redes sociales circuló un rumor de que uno de estos oficiales era el general de división Nimrod Aloni , comandante del Cuerpo de Profundidad israelí , basándose en una fotografía de un hombre que se parecía a él siendo detenido por hombres armados no identificados. [8] Una publicación en idioma persa de las Fuerzas de Defensa de Israel (FDI) citó una publicación sobre su captura de la Agencia de Noticias Tasnim y escribió "Tasnim: Distribuidores de noticias falsas del CGRI " sin negar ni confirmar la captura de Aloni. [9] [10] Posteriormente, el 8 de octubre, se vio a Aloni asistiendo a una reunión de altos funcionarios militares israelíes. [11]
La radiodifusión de la República Islámica de Irán publicó imágenes de la captura de comandantes de Nagorno-Karabaj por parte del ejército azerbaiyano en septiembre de 2023 como la captura de comandantes israelíes por parte de Hamás. [12] [13] [14]
Un video de una transmisión de CNN desde cerca de la frontera entre Israel y Gaza [15] con audio agregado para sugerir que la cadena había fingido un ataque se volvió viral en las redes sociales. [16] [17]
Las cuentas de redes sociales con sede en la India han difundido desinformación pro israelí, con influencers que tergiversan videos que supuestamente muestran a niñas de la escuela tomadas como esclavas sexuales o a Hamas secuestrando a un bebé judío. El verificador de hechos Pratik Sinha dijo que "la derecha india ha convertido a la India en la capital mundial de la desinformación". [18] La tendencia forma parte de un patrón más amplio de noticias falsas en la India con un sesgo islamófobo , incluida la desinformación sobre los palestinos proveniente de la BJP IT Cell , un vehículo del partido gobernante de la India, el BJP . [18]
Un niño israelí y sus hermanas muertos durante el ataque de Hamás al kibutz Nir Oz el 7 de octubre han sido acusados falsamente de ser " actores de crisis ". [19]
Muchos usuarios de las redes sociales afirmaron que una foto compartida por Israel que mostraba el cadáver carbonizado de un bebé había sido generada por IA , basándose en el detector de IA "AI or Not". La afirmación fue repetida por Al Jazeera Arabic . La empresa detrás de "AI or Not" dijo más tarde que el resultado era un falso positivo causado por la compresión de la imagen y la etiqueta con el nombre borrosa; varios expertos que analizaron la foto encontraron que era genuina. Otros usuarios de las redes sociales afirmaron, basándose en una publicación de 4chan , que la imagen había sido alterada a partir de una foto similar de un perro, aunque la investigadora Tina Nikoukhah descubrió que la imagen del perro probablemente había sido "falsificada utilizando métodos generativos". [20] [21] [22]
El grupo de voluntarios comunitarios de rescate y paramédicos ZAKA comenzó a recoger cadáveres inmediatamente después de los ataques de Hamás, mientras que las FDI evitaron asignar soldados del Comando del Frente Interior con entrenamiento para recuperar y documentar cuidadosamente los restos humanos en situaciones posteriores al terrorismo. [23] Los soldados del Comando del Frente Interior y los voluntarios de otras organizaciones acusaron a los voluntarios de ZAKA de difundir historias de horror de atrocidades que no sucedieron para autopromoción, así como de "publicar fotos sensibles y gráficas para escandalizar a la gente y hacer que donara" y otros comportamientos poco profesionales. [23] [24] El Times of Israel informó que "Un voluntario de una organización diferente le dijo a Haaretz que ZAKA también envolvía dos veces los cuerpos en sus propias bolsas después de que ya habían sido colocados en las bolsas de las FDI o de otras organizaciones, creando un desastre en la sede cuando los cuerpos se colocaban en las secciones equivocadas". [24] Haaretz informó que esta doble bolsa se utilizó con fines de autopromoción: "En las escenas de los ataques, la cuestión no era sólo qué fotografiar, sino también qué mostrar exactamente. En algunos casos, se vio a voluntarios de Zaka envolviendo cuerpos ya envueltos en bolsas de las FDI. La nueva bolsa mostraba de forma destacada el logotipo de Zaka". [23]
La AP informó que dos voluntarios de ZAKA, incluido su comandante Chaim Otmazgin, hicieron declaraciones falsas sobre violencia sexual y violación el 7 de octubre. [25] Otmazgin afirmó que encontró a una mujer violada porque le habían bajado los pantalones por debajo de la cintura. Mostró fotos a la AP como parte de su testimonio. Sin embargo, esto había sido causado por un grupo de soldados que habían movido su cuerpo. [25] Yossi Landau, otro voluntario de ZAKA, afirmó que encontró a una mujer embarazada asesinada con un feto extraído de su útero. Esto también se demostró que era falso. [25] Cuando se lo desafió, Landau se ofreció a mostrarle a Al Jazeera una foto en su teléfono del feto apuñalado, pero se filma admitiendo que no puede hacerlo. [26]
Miembros de ZAKA, entre ellos Otmazgin y Simcha Greiniman, afirmaron tener fotografías que mostraban mutilaciones genitales, incluidas la inserción de clavos y cuchillos en la ingle y los genitales. [27] Estas fotografías fueron compartidas con la misión de investigación de la Representante Especial del Secretario General de las Naciones Unidas sobre la Violencia Sexual en los Conflictos , Pramila Patten , así como con NBC News. Ambos concluyeron que estas afirmaciones no podían verificarse basándose en las fotografías proporcionadas. [28]
Durante las primeras etapas de la guerra, un video descrito como “¡Hamás ejecuta a personas arrojándolas desde el techo de un edificio!” fue compartido ampliamente en las redes sociales. [29] Pero el video no mostraba a Hamás ni a ningún otro grupo con base en Palestina, era un video tergiversado de ISIS en Irak, de 2015. [29] Un informe de julio de 2015 de Al Arabiya , incluía imágenes idénticas y que originalmente fueron compartidas por ISIS, y mostraba la ejecución de cuatro hombres homosexuales por parte de ISIS en Faluya , en Irak. [29]
Tras el asalto inicial de Hamás, testigos de los soldados israelíes, las fuerzas israelíes y la organización israelí de primeros auxilios ZAKA dijeron en el canal de televisión israelí francés i24news que habían visto los cuerpos de bebés decapitados en el lugar de la masacre de Kfar Aza . [30] [31] [32] Durante la visita de Antony Blinken a Israel, dijo que le mostraron fotos de la masacre de civiles y soldados israelíes por parte de Hamás, y específicamente que vio a soldados de las FDI decapitados. [33] El presidente estadounidense Biden dijo por separado que había visto evidencia fotográfica de terroristas decapitando a niños, pero la Casa Blanca aclaró más tarde que Biden aludía a informes periodísticos de decapitaciones, que no contenían ni hacían referencia a evidencia fotográfica. [34] NBC News calificó los informes de "40 bebés decapitados" como acusaciones no verificadas, [34] añadiendo que parecían "haberse originado en soldados israelíes y personas afiliadas a la Fuerza de Defensa de Israel" y que "un funcionario israelí le dijo a CNN que el gobierno no había confirmado las afirmaciones de las decapitaciones". [34] La acusación principalmente "se originó de un clip viral transmitido por una transmisión de noticias israelí" y las principales cuentas X / Twitter que propagaron las afirmaciones fueron i24NEWS y la cuenta oficial de Israel, a pesar de que el portavoz de Defensa israelí Doron Spielman le dijo a NBC News que no podía confirmar el informe de i24NEWS. [34] Al 12 de octubre, CNN había revisado exhaustivamente el contenido de los medios en línea para verificar las atrocidades relacionadas con Hamás, pero no encontró evidencia que respaldara las afirmaciones de niños decapitados. [35]
En un discurso ante la Coalición Judía Republicana el 28 de octubre, Eli Beer , fundador del grupo israelí de voluntarios de emergencias médicas United Hatzalah , afirmó que Hamás había quemado vivo a un bebé en un horno. [36] Atribuyó la afirmación a un voluntario de United Hatzalah; uno de ellos, Asher Moskowitz, también hizo pública la afirmación. [37] Fue repetida por el periodista Dovid Efune, el comentarista John Podhoretz y otros, en tuits vistos más de 10 millones de veces. Los periodistas y la policía israelíes no encontraron pruebas de la afirmación, y un representante de ZAKA , una organización de primeros auxilios, dijo que la afirmación era "falsa". [36] [38] [39]
El Director General de las Naciones Unidas (ONU) , Antonio Guterres, ha acusado a Israel de difundir información errónea sobre la guerra en Gaza en un intento de reducir la credibilidad de la ONU. [40]
"He oído a la misma fuente decir muchas veces que nunca he atacado a Hamás, que nunca he condenado a Hamás, que soy partidario de Hamás. Pedí que nuestros colegas hicieran una estadística. He condenado a Hamás 102 veces, 51 de ellas en discursos formales. Las demás en diferentes plataformas sociales. Así que, quiero decir, al final la verdad siempre gana". Director General de las Naciones Unidas, Antonio Guterres . [40]
Las afirmaciones virales de que las FDI habían destruido la Iglesia de San Porfirio de Gaza el 9 de octubre fueron desmentidas por la iglesia. [41] [42] Posteriormente, un ataque aéreo israelí alcanzó las instalaciones de la iglesia el 19 de octubre, matando a 18 personas. [43]
En octubre de 2023, expertos en desinformación descubrieron una cuenta en X que publicaba informes falsos sobre que Qatar amenazaba con cortar sus exportaciones de gas si Israel continuaba bombardeando la Franja de Gaza. [44]
Los relatos pro-Hamas han tergiversado las imágenes de la guerra civil siria, haciéndolas pasar por imágenes que muestran a niños siendo asesinados en Gaza. [45]
En febrero de 2024, la cuenta oficial X de Israel publicó un vídeo de 30 segundos en el que se enumeraba la ayuda humanitaria que afirmaba haber proporcionado a Gaza. El vídeo incluía imágenes de marzo de 2022 de un campamento en Moldavia para refugiados ucranianos. La misma cuenta eliminó posteriormente el vídeo y afirmó que "la foto era con fines ilustrativos y deberíamos haberlo indicado en el vídeo". [46] [47]
Tras la explosión del Hospital Árabe Al-Ahli , una cuenta X que afirmaba ser un periodista de Al Jazeera dijo que tenía un vídeo de un "misil de Hamás cayendo en el hospital". Al Jazeera aclaró posteriormente que no estaban asociados con la cuenta, y más tarde fue eliminada. [48] Otra cuenta X que promovía información errónea a favor del Kremlin afirmaba que The Wall Street Journal había informado de que la explosión fue causada por una bomba Mark 84 ; The Wall Street Journal no había publicado tal informe. [49] [50]
En noviembre de 2023, se hizo viral un vídeo que parecía mostrar a una enfermera en el hospital Al Shifa . Afirmaba que no podía tratar a los pacientes porque Hamás se había apoderado de todo el hospital y estaba robando combustible y medicamentos, y el vídeo terminaba con ella pidiendo a todos los palestinos que abandonaran Al Shifa. Muchos se apresuraron a señalar la falsedad del vídeo, ya que ninguno de los médicos y enfermeras documentados en el hospital reconoce a la mujer retratada, y un acento israelí reportado e incapacidad para hablar árabe con claridad. [51] [52] Además, según Esther Chan de RMIT FactLab CrossCheck, un análisis realizado por investigadores de fuentes abiertas había determinado que el vídeo probablemente había sido manipulado para incluir artificialmente sonidos falsos de explosiones. [53] El vídeo se publicó originalmente en la cuenta de Twitter árabe del Ministerio de Asuntos Exteriores de Israel y fue impulsado por Edward Haïm Cohen Halala , quien ha informado de vínculos con el gobierno israelí, [ cita requerida ] que tiene una presencia popular en las redes sociales con seguidores árabes. [54] [55] [56]
Los vídeos de atrocidades en Gaza han sido desestimados como actos de teatro, y se ha acusado falsamente a la gente de ser " actores de la crisis ". A menudo se utiliza una frase despectiva y despectiva, " Pallywood ", que se basa en una teoría marginal de que los palestinos están falsificando las pruebas de su sufrimiento. La organización de verificación de hechos Logically descubrió que la mención del término ha aumentado desde el 7 de octubre, en particular en Israel, Estados Unidos e India. [57] [58] Entre las pruebas que se utilizaron falsamente para "probar" que los palestinos eran actores de la crisis se incluye un vídeo de bolsas para cadáveres que parecen estar moviéndose, que en realidad era un vídeo de una protesta de 2013 en Egipto. [58]
Saleh Aljafarawi, un bloguero y cantante palestino que vive en Gaza, fue acusado falsamente por varias figuras pro israelíes, incluida la cuenta oficial de Twitter del país, de ser un "actor de crisis". [59] [45] [60] Esto incluyó un video de un adolescente palestino herido en una redada en Tulkarm en julio de 2023, que fue presentado falsamente como "Saleh en un hospital días antes del 27 de octubre". [59]
En noviembre de 2023, el diplomático israelí Ofir Gendelman hizo circular un fragmento de un cortometraje libanés, afirmando que era una prueba de que los palestinos estaban falsificando vídeos y lo calificó de ejemplo de "Pallywood". [61] [62] Según The Daily Beast , "Gendelman es un reincidente cuando se trata de difundir información errónea sobre los palestinos". [61] La semana anterior, Gendelman difundió vídeos de entrenamiento de las FDI como imágenes de guerra y, en 2021, los medios internacionales descubrieron que había tergiversado imágenes de 2018 de Siria como imágenes actuales de Gaza. [61]
Se ha afirmado falsamente que un vídeo que muestra a un niño palestino muerto durante un ataque aéreo israelí del 11 de octubre en Zeitoun fue preparado con un muñeco. La afirmación ha sido promovida por cuentas oficiales de redes sociales del gobierno israelí, incluidas las cuentas X de las embajadas de Israel en Francia y Austria, así como cuentas pro-Israel y anti-Hamás. [19] [57]
A principios de diciembre, The Jerusalem Post publicó un artículo en el que afirmaba falsamente que un bebé palestino de cinco meses muerto en Gaza era "una muñeca ". Más tarde, The Jerusalem Post eliminaría el artículo y eliminaría cualquier mención al mismo en sus páginas de redes sociales. Aunque no mencionó el artículo directamente, publicó una declaración en la que decía que "el artículo en cuestión no cumplía con nuestros estándares editoriales y, por lo tanto, fue eliminado". [63] [64] [62]
El 25 de marzo de 2024, Al Jazeera retiró un vídeo de una mujer llamada Jamila al-Hissi que dijo que los soldados israelíes habían "violado a mujeres, secuestrado a mujeres, ejecutado a mujeres y sacado cadáveres de debajo de los escombros para soltar a sus perros contra ellos" en el hospital Al-Shifa en su último asedio . El ex director ejecutivo de Al Jazeera , Yasser Abu Hilalah, escribió en X: "Las investigaciones de Hamás revelaron que la historia de la violación de mujeres en el Hospital Shifa fue inventada". Abu Hilalah informó que al-Hissi "justificó su exageración y su discurso incorrecto diciendo que el objetivo era despertar el fervor y la hermandad de la nación". [65]
El 22 de mayo de 2024, la AP informó que dos voluntarios de ZAKA hicieron declaraciones falsas sobre violencia sexual y violación el 7 de octubre. [25] Chaim Otmazgin, un comandante de ZAKA, afirmó que encontró a una mujer violada porque le habían bajado los pantalones por debajo de la cintura. Sin embargo, esto había sido causado por un grupo de soldados que había movido su cuerpo. [25] Yossi Landau, otro voluntario de ZAKA, afirmó que encontró a una mujer embarazada asesinada con un feto extraído de su útero. Esto también se demostró que era falso. [25]
Poco después del 7 de octubre, Cochav Elkayam-Levy, un experto legal del Instituto Davis de Relaciones Internacionales de la Universidad Hebrea de Jerusalén , ex abogado del gobierno israelí, ex miembro de la unidad del portavoz militar y estrecho colaborador del Primer Ministro Netanyahu, estableció la "Comisión Civil sobre los Crímenes del 7 de Octubre cometidos por Hamás contra Mujeres y Niños", cuyo objetivo era dar voz a las víctimas y sus familias. [66] En junio de 2024, The Times informó que Elkayam-Levy difundió una "historia desacreditada" sobre una "mujer embarazada y su feto asesinado", al tiempo que circulaba "fotografías de mujeres soldados asesinadas que resultaron ser imágenes de combatientes kurdos en Siria". [66] El Times añade: "Elkayam-Levy, no obstante, ha seguido siendo la voz pública más destacada sobre la violencia sexual del 7 de octubre, ganando el mayor honor civil del país, el Premio Israel, en abril". [66]
Israel ha publicado varias informaciones incorrectas o controvertidas, lo que ha suscitado dudas sobre su credibilidad. [67] En relación con las afirmaciones que vinculan a militantes palestinos con agresiones sexuales el 7 de octubre, The Times ha señalado que las investigaciones se han visto obstaculizadas por "información falsa y engañosa" difundida por "altos personajes políticos [israelíes] y activistas civiles vinculados al gobierno". [68] Un informe de la ONU sobre estas acusaciones ha afirmado que las autoridades israelíes no han podido presentar las pruebas que los políticos afirmaban que existían. [68]
En un artículo para openDemocracy , el académico británico Paul Rogers afirmó: «Israel debe mantener la apariencia de una guerra ordenada con pocos civiles muertos. El gobierno de Netanyahu está mintiendo, pero sería ingenuo esperar lo contrario. Mentir es lo que muchos estados poderosos hacen rutinariamente, particularmente en tiempos de guerra». [69] En The Intercept , el periodista de investigación Jeremy Scahill escribió: «En el centro de la campaña de guerra de información de Israel hay una misión táctica para deshumanizar a los palestinos e inundar el discurso público con un torrente de acusaciones falsas, infundadas e inverificables». [70]
En múltiples ocasiones, los análisis han encontrado problemas con las afirmaciones de las FDI. En octubre de 2023, un análisis del Financial Times sobre un bombardeo de palestinos que evacuaban la ciudad de Gaza concluyó que "la mayoría de las explicaciones aparte de un ataque israelí" podían descartarse, aunque las FDI culparon del ataque a militantes palestinos. [71] [72] En noviembre de 2023, un análisis de la BBC concluyó que el vídeo publicado por el ejército israelí tras el asedio al hospital Al-Shifa había sido editado a pesar de las afirmaciones de las FDI de lo contrario. [73]
En diciembre de 2023, un análisis de The Washington Post confirmó los informes de Human Rights Watch de que Israel había utilizado fósforo blanco en un ataque al Líbano, [74] [75] contradiciendo directamente a las FDI. [76] En enero de 2024, después de que un ataque aéreo israelí matara al periodista Hamza Dahdouh , las FDI llamaron a Dahdouh un "sospechoso" que fue atropellado mientras conducía con un "terrorista"; sin embargo, The Washington Post no encontró "ninguna indicación de que ninguno de los dos estuviera actuando como algo más que un periodista ese día". [77]
Después de que se difundieran informes de que una madre y su hija fueron asesinadas por francotiradores israelíes en diciembre de 2023 en una iglesia donde se refugiaban varios cristianos palestinos , el ejército israelí negó haber atacado el complejo, pero afirmó en cambio que había actividad de Hamás en sus inmediaciones y los soldados israelíes respondieron con disparos. [78] Los funcionarios católicos y la miembro del Parlamento británico Layla Moran , que mantuvo contacto con los refugiados en la iglesia, declararon, por el contrario, que no había beligerantes palestinos en la zona y que las dos mujeres habían sido asesinadas por el ejército israelí, que era el que impedía que los refugiados se fueran. [79] [80] [81]
En noviembre de 2023, un video publicado por las FDI mostró a Daniel Hagari , dentro del Hospital Infantil Al-Rantisi , donde afirmó que las FDI habían encontrado armas y tecnología de Hamás, así como una "lista de nombres de terroristas" en árabe con el título " Operación Inundación de Al-Aqsa ", que mostraba el turno de cada agente que custodiaba a los rehenes. Sin embargo, una traducción del documento mostró que no contenía nombres sino un calendario de los días de la semana. [82] Después del cuestionamiento de la veracidad de la afirmación, un portavoz israelí se retractó, pero CNN, aunque eliminó el segmento, no proporcionó una nota de los editores que reconociera el cambio o la disputa sobre el video inicial. [83]
En relación con la masacre de Flour de marzo de 2024 , una investigación de la CNN dijo que "Mark Regev, el asesor especial del primer ministro israelí, inicialmente le dijo a la CNN que las fuerzas israelíes no habían estado involucradas". Sin embargo, las FDI dijeron poco después que "los soldados no habían disparado directamente contra los palestinos que buscaban ayuda, sino que dispararon "tiros de advertencia" al aire". [84] Al-Jazeera informó de evidencia de una "gran cantidad" de heridas de bala de un equipo de las Naciones Unidas, profesionales médicos y testigos. [85] El New York Times también informó de que los relatos de los testigos diferían del relato militar israelí que describía un tiroteo extenso después de que miles de personas se agolparon alrededor de los camiones de ayuda. [86] Las imágenes de los drones de las FDI editan los acontecimientos que provocaron la dispersión de las multitudes y rechazaron una solicitud de la CNN para obtener las imágenes completas sin editar. [87] La investigación de la CNN puso en duda otras afirmaciones de las FDI, como el momento de los disparos. [87] Varios días después del ataque, un asesor de alto nivel de Amnistía Internacional en materia de respuesta a las crisis declaró: "Hay pruebas concretas que contradicen todas las declaraciones que están haciendo las autoridades israelíes". [88]
Después de bombardear un campamento de tiendas de campaña en Rafah en un área que Israel había designado como "zona segura" para civiles, matando a 45 personas, los funcionarios israelíes inicialmente dijeron a sus homólogos estadounidenses que creían que su ataque aéreo encendió un tanque de combustible cercano, creando un gran incendio. [89] En un video, un narrador anónimo de Gaza dijo que la explosión fue causada por un "jeep de Hamás cargado de armas". [90] Más tarde, las FDI sugirieron que un almacén militante que contenía municiones o "algún otro material" en el área causó el incendio. También difundió una llamada telefónica en árabe en la que dicen claramente que el misil israelí no fue responsable del incendio, que el incendio fue causado por explosiones secundarias y que las explosiones secundarias vinieron de un almacén de municiones. [91] Sin embargo, James Cavanaugh, que trabajaba en la ATF , dijo que el incendio no indicaba "un escondite gigante que explotó". [92] El New York Times vio numerosos videos y no encontró evidencia de que se iniciara una explosión secundaria significativa. [93]
El ejército israelí también negó su responsabilidad por el asesinato de Hind Rajab , de 5 años , su familia y los paramédicos de la Sociedad de la Media Luna Roja Palestina enviados para rescatarla, diciendo que sus fuerzas no estaban en el rango de tiro el día de la muerte de la niña. Sin embargo, tanto Al Jazeera como The Washington Post concluyeron, basándose en la investigación de imágenes satelitales, que efectivamente había vehículos blindados israelíes en la zona en ese momento. [94] [95]
En otros casos, las afirmaciones de las fuerzas israelíes han sido cuestionadas basándose en una aparente falta de pruebas. En diciembre de 2023, Israel afirmó que había una red de túneles de Hamás conectada al Hospital Al-Shifa ; sin embargo, un informe de The Washington Post concluyó que "no hay pruebas de que se pudiera acceder a los túneles desde el interior de las salas del hospital". [96] Ese mismo mes, Israel afirmó que 12 miembros del personal de la UNRWA habían participado en el ataque del 7 de octubre contra Israel; sin embargo, el Financial Times , Sky News y Channel 4 afirmaron que las afirmaciones de Israel no estaban probadas por los documentos de inteligencia que revisaron. [97] [98] [99] En febrero de 2024, las FDI afirmaron que Hamás estaba robando ayuda humanitaria , lo que llevó a David M. Satterfield , un alto enviado estadounidense, a decir que no había pruebas que respaldaran las afirmaciones de Israel. [100]
En octubre de 2023, poco después de la explosión del Hospital Árabe Al-Ahli , fuentes israelíes publicaron un audio que supuestamente mostraba a dos militantes de Hamás en una llamada telefónica atribuyéndose la responsabilidad del acto y culpando a un cohete defectuoso. Hamás afirmó que la grabación era una "invención evidente", y el Canal 4 británico entrevistó a dos periodistas árabes independientes que expresaron opiniones similares. [101]
El 4 de diciembre de 2023, Haaretz informó sobre las afirmaciones israelíes sobre bebés decapitados, afirmando que estas "historias no verificadas [habían sido] difundidas por grupos de búsqueda y rescate israelíes , oficiales del ejército e incluso Sara Netanyahu ". [102] [103] [a] Los periodistas de Haaretz Nir Hasson y Liza Rozovsky relataron la cronología de las noticias sobre "bebés decapitados" y "bebés colgados" y concluyeron que "esta historia es falsa". [102] Citaron a Ishay Coen, un periodista del sitio web ultraortodoxo Kikar Hashabbat , quien admitió que cometió un error al aceptar sin cuestionamientos las declaraciones de las FDI. [102] "¿Por qué un oficial del ejército inventaría una historia tan horrible?", preguntó Hashabbat, y agregó: "Me equivoqué". [102]
En septiembre de 2024, los presentadores de CNN Jake Tapper y Dana Bash acusaron falsamente a la representante de la Cámara de Representantes de Estados Unidos, Rashida Tlaib , de afirmar que la fiscal general de Michigan, Dana Nessel, no podía hacer su trabajo debido a su religión, algo que Tlaib nunca afirmó. [105] Bash y Tapper repetían afirmaciones hechas por primera vez por Nessel en una publicación en las redes sociales en la que criticaba una caricatura racista que sugería que Tlaib era miembro de Hezbolá . [106] Steve Neavling, el periodista del Metro Times que realizó la entrevista original con Tlaib, calificó las acusaciones en su contra de "espurias". [107]
El ataque del 7 de octubre perpetrado por Hamás contra Israel se ha convertido en objeto de diversas teorías conspirativas, que sostienen que el ataque, que causó aproximadamente 1.200 muertes en Israel, fue una operación de falsa bandera llevada a cabo por el propio Israel, a pesar de la abrumadora evidencia proporcionada por múltiples fuentes, incluidas imágenes de teléfonos inteligentes y GoPro que captan la violación de la frontera por parte de las fuerzas de Hamás. [108] [109]
Esta desinformación ha proliferado en varias plataformas de redes sociales, donde los hashtags que vinculan a Israel con operaciones de “bandera falsa” han experimentado un aumento significativo en su uso. Esta propagación de falsedades no se limitó a los espacios en línea; se ha manifestado en escenarios del mundo real, incluidas reuniones del consejo municipal y protestas públicas, donde las personas han negado públicamente los hechos del ataque. [108]
Los investigadores y los líderes de la comunidad judía han expresado su preocupación por los vínculos que estas teorías conspirativas tienen con la negación del Holocausto y otras creencias antisemitas, y la negación de los ataques del 7 de octubre se describe como parte de un patrón más amplio de desinformación que busca distorsionar los acontecimientos históricos y promover narrativas antisemitas. [108]
Otra teoría de la conspiración sin fundamento que surgió tras el ataque de Hamás del 7 de octubre sugiere que el gobierno israelí, específicamente el primer ministro Benjamin Netanyahu , tenía conocimiento previo del ataque. Algunos incluso afirman que Netanyahu dio una orden de "retirada" al ejército israelí. El origen de esta teoría parece ser de Charlie Kirk , un influyente de extrema derecha y partidario del expresidente estadounidense Donald Trump, cuyos comentarios en un podcast alimentaron estas afirmaciones. Sin embargo, estas afirmaciones dependen únicamente de las especulaciones personales de Kirk. A pesar de la falta de evidencia, la teoría ha sido influyente en ciertos círculos, especialmente entre los críticos del liderazgo de Netanyahu y las políticas israelíes. [110]
Un memorando falso que pretendía mostrar que Biden autorizaba $8 mil millones en ayuda a Israel circuló en las redes sociales [111] [112] y fue citado en artículos de los medios de comunicación indios Firstpost y Oneindia . [112]
Según expertos en seguridad de la información entrevistados por el New York Times , Irán , Rusia , China , los representantes de Irán , Al Qaeda y el Estado Islámico han estado llevando a cabo esfuerzos masivos de desinformación en línea centrados en "[socavar] a Israel, al tiempo que denigran al principal aliado de Israel, los Estados Unidos". [113] Los investigadores han documentado al menos 40.000 bots o cuentas falsas en las redes sociales, así como el uso estratégico de medios de comunicación controlados por el estado como RT , Sputnik y Tasnim . [113] Un análisis de Haaretz encontró que cientos de cuentas falsas en las redes sociales estaban dirigidas a legisladores del Partido Demócrata con mensajes de spam que repetían acusaciones del gobierno israelí relacionadas con UNRWA y Hamas . [114]
Una campaña de desinformación rusa conocida como Doppelganger ha difundido información falsa sobre la guerra utilizando sitios web falsos que imitan la apariencia de fuentes de noticias como Fox News , Le Parisien y Der Spiegel . [115] [116]
En febrero de 2024, Volker Türk , el alto responsable de los derechos humanos de la ONU, afirmó que las Naciones Unidas habían sido objeto de ataques de desinformación y dijo: "La ONU se ha convertido en un pararrayos de propaganda manipuladora y en un chivo expiatorio de los fracasos políticos". [117]
En junio de 2024, se reveló que el Ministerio de Asuntos de la Diáspora de Israel había pagado 2 millones de dólares a la consultora política israelí STOIC para llevar a cabo una campaña en las redes sociales, impulsada por cuentas falsas y que a menudo empleaba desinformación, dirigida a 128 congresistas estadounidenses, con especial atención a los miembros demócratas y afroamericanos de la Cámara de Representantes . También se crearon sitios web para proporcionar a los estadounidenses jóvenes y progresistas noticias de Gaza con un giro pro-israelí. Entre los objetivos de la campaña estaba amplificar los ataques israelíes contra el personal de la UNRWA y abrir una brecha entre palestinos y afroamericanos para evitar la solidaridad entre los dos grupos. La campaña también apuntó a personas en Canadá , que fueron expuestas a contenido islamófobo que difamaba a los musulmanes canadienses e insinuaba que los manifestantes pro palestinos tenían como objetivo imponer la ley Sharia . También se dirigieron mensajes a personas en los países árabes del Golfo , argumentando que la preocupación humanitaria por los palestinos era una distracción inútil de los asuntos locales. [118] [119]
En septiembre de 2024, las FDI declararon que estaban iniciando una investigación sobre la publicación de documentos falsificados de Hamás que se filtraron a la prensa internacional, aparentemente en un intento de influir en la opinión pública israelí contra un acuerdo de alto el fuego con rehenes. [120]
Entre los videos vinculados falsamente con la guerra se encontraba un video de niños en jaulas publicado el 4 de octubre, [121] [122] imágenes de 2020 de legisladores iraníes cantando " Muerte a Estados Unidos ", [123] [124] y, en Egipto, fotos de la Torre de El Cairo que parecía estar iluminada con la bandera palestina difundidas en las redes sociales, que resultó ser una versión modificada de la torre en 2010. [125] Las imágenes del videojuego Arma 3 se han presentado como imágenes de guerra. [126] [127] [128] [129]
El 8 de octubre, una cuenta X vinculada al Grupo Wagner compartió un video en el que supuestamente Hamás agradecía a Ucrania por haberles suministrado armas . Fue visto más de 300.000 veces y compartido por cuentas de extrema derecha estadounidenses . Al día siguiente, el expresidente ruso Dmitri Medvedev tuiteó: "Bueno, compañeros de la OTAN , realmente lo tienen todo, ¿no? Las armas entregadas al régimen nazi en Ucrania ahora se están utilizando activamente contra Israel". [130] [131] [132]
Los usuarios de las redes sociales de ambos lados de la guerra compartieron imágenes detrás de escena de un actor tendido en sangre falsa de un cortometraje palestino de 2022, alegando que era evidencia de que el otro lado estaba creando propaganda. [133] [134] [130] Un video de paracaidistas egipcios volando sobre la Academia Militar Egipcia que se afirmó falsamente que mostraba a militantes de Hamas infiltrándose en un festival de música israelí se volvió viral en X en Indonesia . [135]
Las cuentas indias de Twitter difundieron un vídeo fuera de contexto en el que supuestamente se mostraba a "docenas de jóvenes tomadas como esclavas sexuales por un combatiente 'palestino'", pero que en realidad era probablemente un viaje escolar a Jerusalén. Otro clip, compartido principalmente por usuarios indios, supuestamente mostraba a un bebé secuestrado; sin embargo, el vídeo fue grabado un mes antes y no tenía nada que ver con Gaza. [18]
En las redes sociales circuló un video generado por inteligencia artificial de la modelo Bella Hadid, supuestamente pidiendo disculpas por sus comentarios pasados y expresando su apoyo a Israel. [136] [137] [138]
La desinformación sobre la guerra se ha extendido en las plataformas de redes sociales, particularmente X (antes conocida como Twitter ). [139] [140] [141] [142] [143] La Unión Europea advirtió a Elon Musk y Mark Zuckerberg que X y Meta estaban alojando desinformación y contenido ilegal sobre la guerra, con posibles multas de hasta el 6% de los ingresos globales de las empresas según la Ley de Servicios Digitales . [144] [145] [146] [147]
En respuesta a los informes, la directora ejecutiva de X, Linda Yaccarino, dijo al comisario de mercado interior de la UE, Thierry Breton, que la empresa había "tomado medidas para eliminar o etiquetar decenas de miles de piezas de contenido" y eliminado cientos de cuentas vinculadas a Hamás. [148]
Según NewsGuard , "al menos 14 afirmaciones falsas relacionadas con la guerra obtuvieron 22 millones de visitas en X, TikTok e Instagram en los tres días posteriores al ataque de Hamás". [149] El 13 de octubre, la UE abrió una investigación sobre X sobre la difusión de desinformación y contenido terrorista relacionado con la guerra. [150] [151]
El 14 de octubre, el director ejecutivo del Centro para Contrarrestar el Odio Digital, Imran Ahmed, dijo que su grupo estaba rastreando un aumento en los esfuerzos para impulsar información falsa sobre la guerra, y agregó que los adversarios estadounidenses, los extremistas, los trolls de Internet y los granjeros de participación estaban explotando la guerra para su propio beneficio. Graham Brookie, director sénior del Laboratorio de Investigación Forense Digital del Atlantic Council , dijo que su equipo había presenciado un aumento en la propaganda terrorista, el contenido gráfico, las afirmaciones falsas o engañosas y el discurso de odio , y que gran parte del contenido circulaba en Telegram . [152] Cyabra, una empresa con sede en Israel que analiza las redes sociales, dijo que una de cada cinco cuentas que participaban en conversaciones sobre los ataques de Hamás eran falsas, y agregó que habían encontrado aproximadamente 40.000 cuentas de ese tipo en X y TikTok . [153]
Según el New York Times , muchas imágenes y vídeos que circulan en las redes sociales pretendiendo ser de la guerra entre Israel y Hamás son en realidad de otros conflictos, como la guerra civil siria ; e incluso de desastres naturales, como una reciente inundación en Tayikistán . [154]
Según David Klepper de AP , "las imágenes de la guerra entre Israel y Hamás han ilustrado vívida y dolorosamente el potencial de la IA como herramienta de propaganda , utilizada para crear imágenes realistas de matanzas ... las imágenes alteradas digitalmente difundidas en las redes sociales se han utilizado para hacer afirmaciones falsas sobre la responsabilidad por las víctimas o para engañar a la gente sobre atrocidades que nunca sucedieron". [155]
El 9 de octubre, X dijo que había más de 50 millones de publicaciones en la plataforma sobre el conflicto. [142] Musk recomendó dos cuentas que previamente promovieron una afirmación falsa sobre una explosión cerca del Pentágono para actualizaciones sobre la guerra. [156] [140]
El 10 de octubre, los investigadores descubrieron que una red de 67 cuentas X estaba coordinando una campaña para difundir información falsa sobre la guerra. [157]
Según Wired , el sistema de verificación de datos de la comunidad de X, Community Notes , ha contribuido en algunos casos a la difusión de desinformación en lugar de corregirla. Wired citó un incidente en el que un vídeo subido por Donald Trump Jr. de Hamás disparando a israelíes fue etiquetado incorrectamente como un vídeo falso de hace varios años como un ejemplo de la falta de fiabilidad de Community Notes. [158] Las cuentas falsas que se hacían pasar por un periodista de la BBC y The Jerusalem Post promovieron información falsa sobre la guerra antes de que X las suspendiera. [159] [143]
El 12 de octubre, el Proyecto de Transparencia Tecnológica informó que Hamás estaba usando cuentas premium en X para impulsar propaganda. [160] [161] X dijo que había prohibido a Hamás y eliminado cientos de cuentas afiliadas a Hamás. [162]
El 13 de octubre, en el programa de radio The World , Rebecca Rosman informó que la desinformación en X estaba siendo monetizada por usuarios verificados pagos con preferencia de recomendación de "contenido nuevo", lo que resultaba en millones de visitas. [163]
Según un informe de NewsGuard del 19 de octubre, los usuarios verificados de X estaban detrás del 74% de las 250 publicaciones más activas entre el 7 y el 14 de octubre que promovían información falsa o sin fundamento sobre la guerra. NewsGuard también descubrió que solo 79 de las 250 publicaciones fueron marcadas por Community Notes. [164] [165] [166] [167] [168]
El 28 de octubre, el comentarista Jackson Hinkle publicó en X que Haaretz había informado de que el gobierno israelí había inflado el número de muertos por el ataque de Hamás de 2023 contra Israel . Haaretz afirmó que la publicación de Hinkle "contenía mentiras flagrantes" y no estaba respaldada por sus informes sobre el ataque. [169] Hinkle también afirmó que la imagen de un bebé judío quemado vivo por Hamás el 7 de octubre "fue creada por inteligencia artificial". Posteriormente fue expulsado de YouTube. [170] [171] [172]
La youtuber siria Maram Susli afirmó que las imágenes mostraban helicópteros militares israelíes disparando contra israelíes que escapaban de la masacre del 7 de octubre en el festival Supernova , organizado por Hamás. Sin embargo, las imágenes resultaron ser de ataques israelíes a posiciones de Hamás en Gaza tres días después. [173] También publicó una fotografía de una mujer que llevaba un coche de juguete de niño por las escaleras de un edificio en gran parte destruido, lo que sugiere que era Gaza después de los ataques israelíes. La imagen era en realidad una fotografía premiada tomada en Homs durante la guerra civil siria . [174] [175] [176] [177]
Una investigación de ProPublica y el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que las cuentas verificadas que promovían información errónea sobre el conflicto vieron crecer significativamente su audiencia durante el primer mes del conflicto, y que Community Notes no había logrado escalar lo suficiente, ya que el 80% de los tuits desacreditados revisados no fueron aclarados con una nota. [178] [179]
El 12 de octubre, la UE advirtió a TikTok sobre contenido ilegal y desinformación en su plataforma. [180] [181] El 15 de octubre, TikTok dijo que había tomado medidas para eliminar "contenido y cuentas violatorios". [182] También dijo que había establecido un centro de comando para el conflicto, actualizado sus sistemas de detección automatizados para detectar contenido violento y agregado moderadores que hablan árabe y hebreo . [182] [183] [184] Un video de TikTok que promovía teorías conspirativas de que el ataque de Hamás había sido orquestado por los medios fue visto más de 300.000 veces. [184]
A mediados de noviembre de 2023, el representante republicano de Estados Unidos Mike Gallagher había afirmado que TikTok estaba "lavando el cerebro intencionalmente" a la juventud estadounidense para que apoyara a Hamás , citando el aumento de contenido pro palestino tras el estallido de hostilidades entre Israel y Hamás. En respuesta a las críticas, TikTok emitió un comunicado de prensa el 20 de noviembre en el que afirmaba que los estadounidenses más jóvenes, en particular los Millennials y la Generación Z , tendían a ser más comprensivos con los palestinos que con Israel, citando datos de encuestas de Gallup que se remontan a 2010. TikTok también afirmó que su algoritmo no tomaba partido, sino que operaba en un ciclo de retroalimentación positiva basado en la participación de los usuarios. La empresa también negó favorecer "un lado de un problema sobre otro" o promover intencionalmente hashtags pro palestinos como "#freepalestine", que había atraído 25.500 millones de visitas hasta el 14 de noviembre. En comparación, "#standwithisrael" había atraído 440,4 millones de visitas. El comunicado de prensa de TikTok también afirmó que había eliminado 925.000 vídeos relacionados con el conflicto por violar los estándares de la comunidad, incluida la promoción de Hamás, había contratado moderadores que hablaban árabe y hebreo con fluidez para analizar el contenido y había comenzado a eliminar cuentas falsas creadas en respuesta al conflicto entre Israel y Hamás. [185]
Según un informe de TheMarker , durante toda la guerra circularon en TikTok propaganda neonazi , contenido antisemita y llamados a la destrucción de Israel . [186]
Las Brigadas Al-Qassam , el ala militar de Hamás, tenían alrededor de 200.000 seguidores en Telegram en el momento del ataque de Hamás. Según el Laboratorio de Investigación Forense Digital, su número de seguidores se ha triplicado desde entonces, y sus publicaciones han sido vistas más de 300.000 veces. [162] [187] El Laboratorio de Investigación Forense Digital descubrió que Hamás depende de Telegram para enviar declaraciones a sus partidarios. [187]
Según el analista político e investigador Arieh Kovler, muchos israelíes siguen canales de Telegram que parecen oficiales pero que comparten vídeos fuera de contexto y rumores no verificados. [187]
En un comunicado, Telegram dijo que estaba "evaluando los mejores enfoques y... solicitando aportes de una amplia gama de terceros" y que deseaba ser "cuidadoso de no exacerbar la situación ya grave con acciones apresuradas". [187]
En octubre de 2023, Bohemia Interactive, el desarrollador de Arma 3 , dijo en un comunicado: "Con los trágicos acontecimientos que se están desarrollando actualmente en Oriente Medio, creemos que es vital compartir una vez más nuestra declaración sobre el uso de Arma 3 como fuente de imágenes de noticias falsas. Es desalentador para nosotros ver que el juego que todos amamos se utiliza de esta manera. Si bien hemos encontrado formas de abordar este problema de manera bastante eficaz al cooperar estrechamente con las principales agencias de verificación de datos, lamentablemente no podemos mitigarlo por completo". [188]
En noviembre de 2023, el director ejecutivo del Centro para Contrarrestar el Odio Digital, Imran Ahmed, dijo que la desinformación sobre la guerra era tan difícil de rastrear como la desinformación sobre la COVID-19 y la desinformación sobre las elecciones presidenciales estadounidenses de 2020. [ 189]
En enero de 2024, el director ejecutivo de McDonald's , Chris Kempczinski , dijo: "Varios mercados en Medio Oriente y algunos fuera de la región están experimentando un impacto comercial significativo debido a la guerra y la desinformación asociada que está afectando a marcas como McDonald's". [190] Los boicots comenzaron después de que McDonald's Israel anunciara que había donado comidas gratuitas a los soldados de las FDI involucrados en la guerra. [191]
En febrero de 2024, el fundador de Bellingcat, Eliot Higgins, dijo: "Creo que la intensidad del discurso en línea sobre Israel y Palestina es realmente mucho peor que la que he visto en cualquiera de los conflictos. La gente no busca establecer la verdad en muchos casos, sino que básicamente busca cosas para golpearse mutuamente en la cabeza en línea. En realidad, se trata simplemente de personas que discuten sus posiciones, sus opiniones, y no establecen realmente la verdad exacta sobre lo que está sucediendo". [192]
Al hablar sobre la decisión de Israel de no permitir la entrada de periodistas extranjeros a Gaza, el secretario general de la ONU, Antonio Guterres , declaró: "Negar la entrada de periodistas internacionales a Gaza es permitir que florezcan la desinformación y las narrativas falsas". [193] El director de tecnología del Instituto para el Diálogo Estratégico declaró: "La corrosión del panorama informativo está socavando la capacidad de las audiencias para distinguir la verdad de la falsedad en una escala terrible". [194]
Una fuente de las FDI dijo al JC que la afirmación de Hamás sobre el comandante Aloni era "poco clara y no estaba confirmada".
tanto, los voluntarios de Zaka estaban allí. La mayoría de ellos trabajaban en los lugares de asesinato y destrucción desde la mañana hasta la noche. Sin embargo, según los relatos de los testigos, queda claro que otros se dedicaban a otras actividades por completo. Como parte del esfuerzo por obtener exposición en los medios, Zaka difundió relatos de atrocidades que nunca sucedieron, publicó fotos sensibles y gráficas y actuó de manera poco profesional sobre el terreno.
Los soldados de la unidad, así como los voluntarios de otras organizaciones, acusaron a los voluntarios de ZAKA de difundir historias de horrores que no sucedieron, publicar fotos sensibles y gráficas para impactar a las personas para que donaran y ser poco profesionales en un intento de ganar tiempo en pantalla.
Tras el ataque a gran escala del sábado por parte de militantes de Hamás contra objetivos israelíes, que incluyó el asesinato y la toma de rehenes de civiles, imágenes engañosas que pretendían mostrar la escalada militar del conflicto inundaron las redes sociales, incluido un montón de clips de Arma 3, un videojuego de combate hiperrealista de mundo abierto que permite a los usuarios personalizar los escenarios de juego.
{{cite web}}
: CS1 maint: varios nombres: lista de autores ( enlace )