Facebook y Meta Platforms han sido criticadas por su gestión de diversos contenidos en publicaciones, fotos y grupos y perfiles enteros. Esto incluye, entre otras cosas, permitir contenido violento, incluido contenido relacionado con crímenes de guerra, y no limitar la difusión de noticias falsas y desinformación sobre la COVID-19 en su plataforma, así como permitir la incitación a la violencia contra múltiples grupos.
Facebook ha sido criticado por su laxa aplicación de los derechos de autor de terceros para los vídeos subidos al servicio. En 2015, algunas páginas de Facebook fueron acusadas de plagiar vídeos de usuarios de YouTube y volver a publicarlos como su propio contenido utilizando la plataforma de vídeo de Facebook, y en algunos casos, lograr mayores niveles de participación y vistas que las publicaciones originales de YouTube. Los vídeos alojados por Facebook tienen una mayor prioridad y prominencia dentro de la plataforma y su experiencia de usuario (incluida la incrustación directa dentro del News Feed y las páginas), lo que da una desventaja a la hora de publicarlos como un enlace a la fuente externa original. [1] [2] En agosto de 2015, Facebook anunció una tecnología de coincidencia de vídeos destinada a identificar vídeos publicados nuevamente, y también declaró su intención de mejorar sus procedimientos para eliminar el contenido infractor más rápidamente. [3] En abril de 2016, Facebook implementó una función conocida como "Administrador de derechos", que permite a los titulares de derechos gestionar y restringir la subida de su contenido al servicio por parte de terceros. [4]
En 2013, Facebook fue criticado por permitir a los usuarios subir y compartir videos que mostraban contenido violento, incluidos clips de personas siendo decapitadas. Habiendo rechazado previamente eliminar dichos clips bajo la directriz de que los usuarios tienen derecho a representar el "mundo en el que vivimos", Facebook cambió su postura en mayo, anunciando que eliminaría los videos denunciados mientras evaluaba su política. [5] El siguiente octubre, Facebook declaró que permitiría videos gráficos en la plataforma, siempre que la intención del video fuera "condenar, no glorificar, los actos representados", [6] afirmando además que "A veces, esas experiencias y problemas involucran contenido gráfico que es de interés público o preocupación, como abusos de derechos humanos, actos de terrorismo y otros tipos de violencia. Cuando las personas comparten este tipo de contenido gráfico, a menudo es para condenarlo. Si se comparte por placer sádico o para celebrar la violencia, Facebook lo elimina". [7] Sin embargo, Facebook volvió a recibir críticas, con el Family Online Safety Institute diciendo que tales videos "cruzaban una línea" y potencialmente podían causar daño psicológico entre los jóvenes usuarios de Facebook, [6] y el entonces Primer Ministro del Reino Unido David Cameron calificó la decisión de "irresponsable", citando las mismas preocupaciones con respecto a los usuarios jóvenes. [7] Dos días después, Facebook eliminó un video de una decapitación luego de la "indignación mundial", y si bien reconoció su compromiso de permitir que las personas carguen material sangriento con el propósito de condenar, también declaró que fortalecería aún más su aplicación para evitar la glorificación. [7] Las políticas de la compañía también fueron criticadas como parte de estos desarrollos, y algunos llamaron la atención en particular sobre el permiso de Facebook de contenido gráfico pero la posible eliminación de imágenes de lactancia materna. [8] En enero de 2015, Facebook anunció que se mostrarían nuevas advertencias en el contenido gráfico, requiriendo que los usuarios confirmen explícitamente que desean ver el material. [9] [10]
Facebook ha sido criticado por no eliminar contenido violento que retrata crímenes de guerra en Libia. Una investigación de 2019 de la BBC [11] encontró evidencia de presuntos crímenes de guerra en Libia que se compartieron ampliamente en Facebook y YouTube. La BBC encontró imágenes y videos en las redes sociales de los cuerpos de combatientes y civiles profanados por combatientes del autodenominado Ejército Nacional Libio. La fuerza, dirigida por el general Khalifa Haftar , controla una franja de territorio en el este de Libia y está tratando de apoderarse de la capital, Trípoli. La BBC en árabe encontró casi cien imágenes y videos de Libia compartidos en Facebook y YouTube, en violación de las pautas de sus empresas. [12] El Ministerio de Relaciones Exteriores del Reino Unido dijo que se tomaba las acusaciones extremadamente en serio y que está preocupado por el impacto que la reciente violencia está teniendo en la población civil. [13]
En 2017, se subió a Facebook un video del comandante de las fuerzas especiales del Ejército Nacional Libio (LNA) Mahmoud al-Werfalli que lo mostraba matando a tiros a tres combatientes capturados. Luego, el video se compartió en YouTube más de diez mil veces. La Corte Penal Internacional lo utilizó como prueba para acusar a al-Werfalli por el crimen de guerra de asesinato. [14] La BBC encontró que el video original todavía estaba en Facebook dos años después de su acusación y también descubrió videos que mostraban los cuerpos de civiles siendo profanados. [ cita requerida ] Estos fueron tomados en Ganfouda, un distrito de Bengasi que estuvo bajo asedio por el LNA entre 2016 y 2017. Más de 300 personas, incluidas docenas de niños, murieron durante el asedio. Un video descubierto por la BBC en árabe mostraba a soldados burlándose de una pila de cadáveres de civiles muertos y pisoteando cuerpos. Entre ellos estaba una mujer de 77 años, Alia Hamza. Su hijo, Ali Hamza, tuvo cinco familiares asesinados en Ganfouda.
Ali Hamza dijo a la BBC en árabe: "Envié enlaces a los abogados para que los envíen a la CPI en La Haya contra Khalifa Haftar y sus comandantes militares en relación con las masacres de civiles", dijo Hamza. En el video, los soldados del LNA etiquetan a los civiles como terroristas. El abogado de derechos humanos y especialista en crímenes de guerra Rodney Dixon QC revisó la evidencia encontrada por la BBC en árabe. "Si los grupos están utilizando esas plataformas para propagar sus campañas, entonces esas plataformas deberían analizar seriamente su papel porque podrían estar ayudando en ese proceso de cometer más crímenes", dijo. [ Esta cita necesita una cita ] Después de presentar nuestros hallazgos a Facebook, eliminaron todos los videos que muestran un presunto crimen de guerra. Sin embargo, optaron por no suspender ninguna de las cuentas que encontramos vinculadas a las imágenes. Erin Saltman, directora de políticas de Facebook para la lucha contra el terrorismo en Europa, Oriente Medio y África, dijo a la BBC en árabe: "A veces hay narrativas muy contradictorias sobre si la víctima es un terrorista o un civil, sobre quién está cometiendo ese acto; no podemos ser los árbitros puros de la verdad". [12] Pero las propias pautas comunitarias de Facebook y YouTube prohíben explícitamente el contenido que promueve o representa actos de violencia. [15]
Facebook Live , introducido en agosto de 2015 para celebridades [16] y desplegado gradualmente para usuarios regulares a partir de enero de 2016, [17] [18] permite a los usuarios transmitir videos en vivo , con la intención de Facebook de que la función presente eventos públicos o celebraciones privadas. [19] Sin embargo, la función se ha utilizado para registrar múltiples crímenes, muertes e incidentes violentos, lo que ha provocado una importante atención de los medios. [20] [21] [22] [23] [24] [25] [26] [27]
Facebook ha recibido críticas por no eliminar videos más rápido, [28] y Facebook Live ha sido descrito como un "monstruo que [Facebook] no puede domar" [29] y "una escena de crimen espantosa para asesinatos". [30] En respuesta, el CEO Mark Zuckerberg anunció en mayo de 2017 que la compañía contrataría a 3.000 moderadores para revisar el contenido e invertir en herramientas para eliminar videos más rápido. [31] [32] [33]
En 2008, Facebook fue criticado por albergar grupos dedicados a promover la anorexia . Los grupos promovían programas de pérdida de peso drásticos, compartían consejos dietéticos extremos y publicaban fotos de chicas demacradas bajo titulares de " Thinspiration ". Los miembros informaron haber cambiado a Facebook desde Myspace , otro servicio de redes sociales, debido a un mayor nivel percibido de seguridad e intimidad en Facebook. [34] En una declaración a BBC News , un portavoz de Facebook afirmó que "Muchos grupos de Facebook se relacionan con temas controvertidos; esto por sí solo no es una razón para deshabilitar un grupo. En los casos en que se denuncia contenido y se descubre que viola los términos de uso del sitio, Facebook lo eliminará". [35]
En Italia, en 2009, el descubrimiento de grupos pro- mafia , uno de los cuales reivindicaba la santidad de Bernardo Provenzano , provocó una alerta en el país [36] [37] [38] y llevó al gobierno a promulgar rápidamente una ley que obligaría a los proveedores de servicios de Internet a denegar el acceso a sitios web enteros en caso de que se negara a retirar contenidos ilegales. La enmienda fue aprobada por el Senado italiano y ahora debe ser aprobada sin modificaciones por la Cámara de Diputados para que entre en vigor. [39] [40] [41] [ necesita actualización ]
Facebook criticó los esfuerzos del gobierno, diciéndole a Bloomberg que "sería como cerrar una red ferroviaria entera sólo por un grafiti ofensivo en una estación", y que "Facebook siempre eliminaría cualquier contenido que promoviera la violencia y ya tenía un procedimiento de eliminación en marcha". [42]
El 31 de marzo de 2010, The Today Show emitió un segmento que detallaba las muertes de tres adolescentes y las reacciones posteriores de los trolls a sus muertes. Poco después del suicidio de la estudiante de secundaria Alexis Pilkington, los usuarios anónimos comenzaron a buscar reacciones en varios foros de mensajes, refiriéndose a Pilkington como una "MALDICIÓN suicida" y publicando imágenes gráficas en su página conmemorativa de Facebook. El segmento también incluía una exposición de un accidente de 2006, en el que una estudiante de dieciocho años que estaba dando un paseo estrelló fatalmente el coche de su padre contra una torre de alta tensión de la autopista; los trolls enviaron por correo electrónico a su afligida familia las fotos filtradas de su cadáver mutilado. [43]
Se han dado casos de "trolls" de Facebook que han sido encarcelados por sus comunicaciones en Facebook, en particular en las páginas conmemorativas. En otoño de 2010, Colm Coss, de Ardwick (Gran Bretaña), fue condenado a 26 semanas de cárcel en virtud del artículo 127 de la Ley de Comunicaciones de 2003 de Gran Bretaña [44] por "comunicaciones maliciosas" por dejar mensajes considerados obscenos e hirientes en las páginas conmemorativas de Facebook [45] [46]
En abril de 2011, Bradley Paul Hampson fue sentenciado a tres años de prisión tras declararse culpable de dos cargos de uso de un servicio de transporte (Internet) para causar ofensa, por publicaciones en páginas conmemorativas de Facebook, y un cargo de distribución y posesión de pornografía infantil cuando publicó imágenes en las páginas conmemorativas de los fallecidos con falos superpuestos junto a frases como "Woot, estoy muerto". [47] [48]
Una serie de contenidos a favor de la violación y de "chistes sobre violaciones" en Facebook atrajeron la atención de los medios de comunicación y de grupos de mujeres. [49] Rape Is No Joke ( RINJ ), un grupo que se opone a las páginas, argumentó que eliminar las páginas "a favor de la violación" de Facebook y otras redes sociales no era una violación de la libertad de expresión en el contexto del Artículo 19 de la Declaración Universal de Derechos Humanos y los conceptos reconocidos en el derecho internacional de los derechos humanos en el Pacto Internacional de Derechos Civiles y Políticos. [50] RINJ desafió repetidamente a Facebook a eliminar las páginas de violación. [51] RINJ luego se dirigió a los anunciantes en Facebook para decirles que no permitieran que su publicidad se publicara en las "páginas de violación" de Facebook. [52]
Tras una campaña en la que participaron Women, Action and the Media, el Everyday Sexism Project y la activista Soraya Chemaly , que se encontraban entre los 100 grupos de defensa, Facebook acordó actualizar su política sobre el discurso de odio. La campaña destacó el contenido que promovía la violencia doméstica y sexual contra las mujeres, y utilizó más de 57.000 tuits y más de 4.900 correos electrónicos para crear resultados como la retirada de la publicidad de Facebook por parte de 15 empresas, entre ellas Nissan UK, House of Burlesque y Nationwide UK. El sitio web de redes sociales respondió inicialmente afirmando que "si bien puede ser vulgar y ofensivo, el contenido desagradable por sí solo no viola nuestras políticas", [53] pero luego acordó tomar medidas el 29 de mayo de 2013, después de que "quedó claro que nuestros sistemas para identificar y eliminar el discurso de odio no han funcionado tan eficazmente como nos gustaría, en particular en torno a cuestiones de odio por motivos de género". [54]
En junio de 2015, la Sociedad Nacional para la Prevención de la Crueldad contra los Niños del Reino Unido expresó su preocupación por la aparente negativa de Facebook cuando se le pidió que eliminara material de video controvertido que supuestamente mostraba a un bebé en angustia emocional. [55]
En marzo de 2017, BBC News informó en una investigación que Facebook solo eliminó 18 de los 100 grupos y publicaciones que había denunciado por contener imágenes de explotación infantil. A la BBC se le había concedido una entrevista con el director de políticas de Facebook, Simon Milner, con la condición de que proporcionaran pruebas de la actividad. Sin embargo, cuando se le presentaron las imágenes, Facebook canceló la entrevista y le dijo a la BBC que había sido denunciado ante la Agencia Nacional contra el Crimen por distribuir ilegalmente imágenes de explotación infantil (la NCA no pudo confirmar si la BBC estaba siendo realmente investigada). [56] Milner declaró más tarde a la BBC que la investigación había expuesto fallas en su proceso de moderación de imágenes que desde entonces se han abordado, y que todo el contenido denunciado fue eliminado del servicio. [57]
Según datos del Centro Nacional para Niños Desaparecidos y Explotados , en 2020 se denunciaron 20 millones de incidentes de material de abuso sexual infantil en Facebook. Esto representó el 95% del total de incidentes registrados por la organización, mientras que Google registró medio millón de incidentes, Snapchat 150.000 y Twitter 65.000. [58]
En julio de 2017, GMA News informó que se habían descubierto "varios" grupos secretos de Facebook que habían estado participando en la actividad ilegal de compartir fotos "obscenas" de mujeres, y la Oficina Nacional de Investigación de Filipinas advirtió a los miembros del grupo de la posibilidad de ser responsables de violar las leyes contra la pornografía infantil y el voyeurismo. Facebook declaró que eliminaría los grupos por violar sus pautas comunitarias. [59] Unos días después, GMA News tuvo una entrevista con una de las víctimas femeninas a las que apuntaba uno de los grupos, quien declaró que había recibido solicitudes de amistad de extraños y mensajes inapropiados. Después de informar a las autoridades, la unidad contra el delito cibernético de la Policía Nacional de Filipinas prometió tomar medidas para encontrar las cuentas responsables. [60] La senadora Risa Hontiveros respondió a los incidentes con la propuesta de una ley que impondría “durísimas sanciones” a los miembros de esos grupos, afirmando que “Estas personas no tienen derecho a disfrutar de nuestra libertad en Internet sólo para abusar de nuestras mujeres y niños. No les permitiremos que avergüencen a nuestras jóvenes, supriman su derecho a expresarse a través de las redes sociales y contribuyan a una cultura de misoginia y odio”. [61]
Según el estudio encargado por Meta y realizado por Business for Social Responsibility (BSR), las políticas de Facebook e Instagram durante los ataques israelíes a la Franja de Gaza en 2021 perjudicaron los derechos humanos fundamentales de los palestinos. El gigante de las redes sociales había negado a los usuarios palestinos su libertad de expresión al eliminar por error su contenido. El informe de BSR es otra crítica a la capacidad de la empresa para vigilar su espacio público global y equilibrar la libertad de expresión con el potencial de daño en un contexto internacional tenso. [62]
Facebook ha sido sospechoso de tener un doble rasero en lo que se refiere a páginas y publicaciones relacionadas con el conflicto árabe-israelí . En lo que se refiere a la supuesta incitación, Facebook ha sido acusado de ser injusto, eliminando sólo publicaciones y páginas que atacan a los palestinos , mientras que hace la vista gorda ante publicaciones similares que son violentamente antisemitas . La ONG Shurat Hadin -Israel Law Center realizó un experimento sobre el tema de la incitación, que buscaba exponer lo que consideraba un doble rasero en lo que respecta al sentimiento antiisraelí en relación con el lanzamiento simultáneo de dos páginas de Facebook: "Stop Palestines" y "Stop Israel". Tras el lanzamiento de las dos páginas casi idénticas, la ONG publicó contenido de odio simultáneamente en ambas páginas. A continuación, Shurat Hadin informó a Facebook de ambas páginas de falsa incitación para ver cuál, si alguna, sería eliminada. Según ellos, a pesar de presentar contenido casi idéntico, sólo una fue eliminada de la plataforma en línea. Dijeron que la página que incitaba contra los palestinos fue cerrada por Facebook (el mismo día en que se informó sobre ella) por "contener una amenaza creíble de violencia" que "violaba los estándares de nuestra comunidad [de Facebook]", pero no la página que incitaba contra los israelíes. Shurat Hadin dijo que Facebook afirmó que esta página "no violaba las reglas de Facebook". El grupo antiisraelí organizado por Shurat Hadin, "Stop Israel", todavía sigue activo en Facebook. [63] ProPublica declaró en septiembre de 2017 que un sitio web podía orientar anuncios a los usuarios de Facebook que estaban interesados en "cómo quemar a un judío" y "odiador de judíos". Facebook eliminó las categorías y dijo que intentaría evitar que aparecieran ante posibles anunciantes. [64]
En marzo de 2019, la subsidiaria de Facebook, Instagram, se negó a eliminar una imagen antisemita publicada por el teórico de la conspiración de derecha Alex Jones , diciendo que no violaba los estándares de su comunidad. [65] [ se necesita una mejor fuente ]
Se ha acusado a Facebook de ser una plataforma pública que se utiliza para incitar a la violencia. En octubre de 2015, 20.000 israelíes afirmaron que Facebook ignoraba la incitación palestina en su plataforma y presentaron una demanda colectiva exigiendo que Facebook eliminara todas las publicaciones "que contuvieran incitación al asesinato de judíos". [66]
Los políticos israelíes se han quejado de que Facebook no cumple ni ayuda con las solicitudes de la policía para rastrear y denunciar a las personas cuando comparten su intención de matar o cometer cualquier otro acto de violencia en sus páginas de Facebook. En junio de 2016, tras el asesinato de Hallel Ariel , de 13 años, por un terrorista que publicó una publicación en Facebook, el ministro israelí de Seguridad Pública, Gilad Erdan, denunció que "Facebook, que ha traído una revolución positiva al mundo, se ha convertido en un monstruo... El diálogo, la incitación, las mentiras de la joven generación palestina están sucediendo en la plataforma de Facebook". Erdan acusó a Facebook de "sabotear el trabajo de la policía israelí" y "negarse a cooperar" cuando la policía israelí recurre al sitio en busca de ayuda. También "establece un listón muy alto" para eliminar contenido incitador. [67]
En julio de 2016, se presentó una demanda civil por mil millones de dólares en daños en el Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York en nombre de las víctimas y los familiares de cuatro israelíes-estadounidenses y un ciudadano estadounidense asesinados por militantes de Hamás desde junio de 2014. [68] [69] Las víctimas y los demandantes en el caso son las familias de Yaakov Naftali Fraenkel , un joven de 16 años que fue secuestrado y asesinado por operativos de Hamás en 2014; Taylor Force , un estudiante de MBA estadounidense de 29 años y veterano del ejército de los EE. UU. asesinado en una ola de apuñalamientos en Jaffa en 2016; Chaya Braun , una bebé de tres meses arrojada de su cochecito y estrellada contra el pavimento cuando un atacante de Hamás condujo su automóvil hacia una estación de tren ligero en Jerusalén en octubre de 2014; Richard Lakin, de 76 años , que murió en el ataque con disparos y apuñalamiento de octubre de 2015 en un autobús de Jerusalén ; y Menachem Mendel Rivkin, que resultó gravemente herido en un ataque con apuñalamiento en enero de 2016 en Jerusalén. [69] Los demandantes afirmaron que Facebook proporcionó conscientemente su plataforma de redes sociales y servicios de comunicación a Hamás en violación de las disposiciones de las leyes antiterroristas de Estados Unidos que prohíben a las empresas estadounidenses proporcionar cualquier apoyo material, incluidos servicios, a grupos terroristas designados y sus líderes. El gobierno de los Estados Unidos ha designado a Hamás como una " Organización Terrorista Extranjera " según la definición de la ley estadounidense. La demanda afirma que Hamás "utilizó y se basó en la plataforma de red social en línea de Facebook y los servicios de comunicación para facilitar y llevar a cabo su actividad terrorista, incluidos los ataques terroristas en los que Hamás asesinó e hirió a las víctimas y sus familias en este caso". [68] [69] La demanda legal fue rechazada; El tribunal determinó que Facebook y otras empresas de redes sociales no se consideran editores del material que publican los usuarios cuando las herramientas digitales utilizadas por la empresa hacen coincidir el contenido con lo que la herramienta identifica como consumidores interesados. [70] [71]
En agosto de 2016, el servicio de seguridad israelí, el Shin Bet , informó que había arrestado a nueve palestinos que habían sido reclutados por la organización terrorista Hezbolá con sede en el Líbano . Los agentes de Hezbolá en el Líbano y la Franja de Gaza reclutaron a residentes de Cisjordania, Gaza e Israel a través de Facebook y otros sitios de medios sociales. Después de reclutar a los líderes de las células en Facebook, Hezbolá y los reclutas utilizaron comunicaciones cifradas para evitar ser detectados, y los líderes continuaron reclutando a otros miembros. Las células terroristas recibieron financiación de Hezbolá y planearon llevar a cabo atentados suicidas y emboscadas y habían comenzado a preparar dispositivos explosivos para los ataques, dijo el servicio de seguridad, que se atribuyó el mérito de prevenir los ataques. El Shin Bet dijo que también detectó múltiples intentos de Hezbolá de reclutar árabes israelíes a través de un perfil de Facebook. [72] [73] [74]
El 16 de octubre de 2023, la cantante y personalidad de Internet Dalal Abu Amneh fue arrestada por la policía israelí por presuntamente promover el discurso de odio e incitar a la violencia en las redes sociales tras una masacre perpetrada por Hamás el 7 de octubre de 2023. [ 75]
En 2016, se estaba preparando una legislación en Israel que permitía multas de 300.000 shekels para Facebook y otras redes sociales como Twitter y YouTube por cada publicación que incitara o alabara el terrorismo que no se eliminara en 48 horas y que pudiera dar lugar a nuevos actos de terrorismo. [76]
En junio de 2017, Facebook publicó una entrada en su blog en la que ofrecía información sobre cómo detecta y combate el contenido terrorista. La empresa afirmó que la mayoría de las cuentas de terrorismo que se encuentran son descubiertas por el propio Facebook, mientras que revisa los informes de contenido terrorista "urgentemente" y, en casos de daño inminente, "informa rápidamente a las autoridades". También desarrolla nuevas herramientas para ayudar en sus esfuerzos, incluido el uso de inteligencia artificial para hacer coincidir imágenes y videos terroristas, detectar cuándo se comparte contenido entre cuentas relacionadas y desarrollar tecnologías para detener a los reincidentes. La empresa afirmó que tiene 150 personas dedicadas a las medidas de lucha contra el terrorismo y trabaja con gobiernos e industrias en un esfuerzo por frenar la propaganda terrorista. Su entrada en el blog afirmaba que "Queremos que Facebook sea un lugar hostil para los terroristas". [77] [78]
En junio de 2017, The Guardian informó que un error de software había expuesto los datos personales de 1.000 trabajadores de Facebook involucrados en la revisión y eliminación de contenido terrorista, al mostrar sus perfiles en los registros de "Actividad" de los grupos de Facebook relacionados con esfuerzos terroristas. En la sede de Facebook en Dublín , Irlanda, se determinó que seis personas eran víctimas de "alta prioridad" del error, después de que la empresa concluyera que sus perfiles probablemente eran vistos por terroristas potenciales en grupos como ISIS , Hezbollah y el Partido de los Trabajadores del Kurdistán . El error en sí, descubierto en noviembre de 2016 y solucionado dos semanas después, estuvo activo durante un mes y también había estado exponiendo retroactivamente cuentas personales censuradas desde agosto de 2016. Un trabajador afectado había huido de Irlanda, se había escondido y solo regresó a Irlanda después de cinco meses debido a la falta de dinero. Sufriendo angustia psicológica, presentó una demanda legal contra Facebook y CPL Resources , una empresa de subcontratación, en busca de una compensación. Un portavoz de Facebook afirmó que "nuestra investigación encontró que solo una pequeña fracción de los nombres probablemente fueron vistos, y nunca tuvimos evidencia de ninguna amenaza para las personas afectadas o sus familias como resultado de este asunto", y Craig D'Souza, jefe de investigaciones globales de Facebook, dijo: "Ten en cuenta que cuando la persona ve tu nombre en la lista, estaba en su registro de actividad, que contiene mucha información ... hay una buena posibilidad de que te asocie con otro administrador del grupo o un hacker". Facebook ofreció instalar un sistema de monitoreo de alarma para el hogar, proporcionar transporte hacia y desde el trabajo y asesoramiento a través de su programa de asistencia a los empleados. Como resultado de la filtración de datos, Facebook está probando el uso de cuentas administrativas alternativas para los trabajadores que revisan el contenido, en lugar de requerir que los trabajadores inicien sesión con sus perfiles personales. [79] [80]
Facebook ha sido criticado por no hacer lo suficiente para limitar la propagación de noticias falsas en su sitio, especialmente después de las elecciones presidenciales de Estados Unidos de 2016 , que algunos han afirmado que Donald Trump no habría ganado si Facebook no hubiera ayudado a difundir lo que afirman que fueron historias falsas que estaban sesgadas a su favor. [81] En una conferencia llamada Techonomy , Mark Zuckerberg declaró con respecto a Donald Trump: "Hay una profunda falta de empatía al afirmar que la única razón por la que alguien podría haber votado de la manera en que lo hizo es porque vio algunas noticias falsas". Zuckerberg afirmó la idea de que las personas no se desvían de sus propios ideales e inclinaciones políticas. Dijo: "No sé qué hacer al respecto" y "Cuando comenzamos, la estrella del norte para nosotros era: estamos construyendo una comunidad segura". [82]
Zuckerberg también ha sido citado en su propia publicación de Facebook: "De todo el contenido de Facebook, más del 99 por ciento de lo que la gente ve es auténtico". [83] Además, el Pew Research Center afirmó que "el 62% de los estadounidenses obtiene algunas o todas sus noticias en las redes sociales, la mayor parte de ellas de Facebook". [84] El ex editor de Facebook filtró información incendiaria sobre el algoritmo de los sitios web que apunta a ciertas falsedades y sesgos en las noticias creadas dentro de Facebook. Aunque Facebook inicialmente negó las afirmaciones de problemas con las noticias falsas y sus algoritmos, despidieron a todo el equipo de tendencias involucrado con una noticia falsa sobre Megyn Kelly siendo una "liberal encubierta". [85]
En 2016, Zuckerberg comenzó a tomar medidas para eliminar la prevalencia de noticias falsas en Facebook como resultado de las críticas a la influencia de Facebook en las elecciones presidenciales. [86] Facebook se asoció inicialmente con ABC News , Associated Press , FactCheck.org , Snopes y PolitiFact para su iniciativa de verificación de datos ; [87] a partir de 2018, tenía más de 40 socios de verificación de datos en todo el mundo, incluido The Weekly Standard . [88] Una revisión de mayo de 2017 realizada por The Guardian encontró que las iniciativas de verificación de datos de Facebook de asociarse con verificadores de datos de terceros y marcar públicamente las noticias falsas eran regularmente ineficaces y parecían tener un impacto mínimo en algunos casos. [89] En 2018, los periodistas que trabajaban como verificadores de datos para Facebook criticaron la asociación, afirmando que había producido resultados mínimos y que la empresa había ignorado sus preocupaciones. [88]
En marzo de 2018, el gobierno de Sri Lanka bloqueó Facebook y otros servicios de redes sociales en un esfuerzo por sofocar la violencia en los disturbios antimusulmanes de 2018 , y Harsha de Silva , viceministra de Políticas Nacionales y Asuntos Económicos, tuiteó: "El discurso de odio en Facebook está aumentando más allá de los niveles aceptables. El gobierno tendrá que actuar de inmediato para salvar vidas". [90] El ministro de telecomunicaciones de Sri Lanka, Harin Fernando , declaró que Facebook había sido demasiado lento en eliminar contenido y prohibir a los usuarios que usaban sus plataformas para facilitar la violencia durante los disturbios. [91] [92] En respuesta, Facebook declaró que había aumentado el número de hablantes de cingalés que emplea para revisar el contenido. [91]
En abril de 2019, después de los atentados de Pascua , el gobierno de Sri Lanka bloqueó el acceso a Facebook, Instagram y WhatsApp en un esfuerzo por detener la difusión de información errónea que podría conducir a más violencia. [93]
En octubre de 2019, Facebook anunció que Breitbart News , un sitio web estadounidense de noticias y opiniones de extrema derecha , se incluiría como una "fuente confiable" en su función Facebook News junto con fuentes como The New York Times y The Washington Post . La decisión provocó controversia debido al estatus de Breitbart News como plataforma para la extrema derecha y su reputación de publicar desinformación. [94] [95] [96] En octubre de 2021, The Wall Street Journal informó que los ejecutivos de Facebook se resistieron a eliminar Breitbart News de la función News Tab de Facebook para evitar enojar a Donald Trump y a los miembros republicanos del Congreso, a pesar de las críticas de los empleados de Facebook. [97] [98] Un estudio interno de Facebook de agosto de 2019 había descubierto que Breitbart News era la fuente de noticias menos confiable, y también clasificada como de baja calidad, en las fuentes que analizó en los EE. UU. y Gran Bretaña. [97]
En febrero de 2021, una investigación de Press Gazette descubrió que Facebook había aceptado contenido promocional de medios de comunicación estatales chinos como China Daily y China Global Television Network que difundían desinformación que negaba la persecución de los uigures en China . [99]
El presidente de la Misión Internacional Independiente de Investigación de las Naciones Unidas sobre Myanmar afirmó que Facebook desempeñó un "papel determinante" en el genocidio de los rohingya. [100] Se ha acusado a Facebook de permitir la difusión de contenido islamófobo dirigido contra el pueblo rohingya . [101] El Consejo de Derechos Humanos de las Naciones Unidas ha calificado a la plataforma de "instrumento útil para quienes buscan difundir el odio". [102]
La iniciativa internet.org llegó a Myanmar en 2015. La relativamente reciente transición democrática de Myanmar no le proporcionó al país tiempo suficiente para formar medios de comunicación profesionales y fiables libres de la intervención del gobierno. Además, aproximadamente el 1% de los residentes de Myanmar tenían acceso a Internet antes de internet.org. Como resultado, Facebook era la principal fuente de información y sin opciones de medios profesionales verificables, Facebook se convirtió en un caldo de cultivo para el discurso de odio y la desinformación . "Los rumores que circulaban entre las redes de familiares o amigos en Facebook eran percibidos como indistinguibles de las noticias verificadas por sus usuarios". [103] Los sentimientos anti-rohingya frecuentes incluían altas tasas de natalidad musulmana, creciente influencia económica y planes para apoderarse del país. La comunidad de Facebook de Myanmar también estaba casi completamente descontrolada por Facebook, que en ese momento solo tenía dos empleados de habla birmana.
En respuesta, Facebook eliminó cuentas que eran propiedad de las Fuerzas Armadas de Myanmar porque anteriormente habían utilizado Facebook para incitar al odio contra el pueblo rohingya , [104] [105] [106] y actualmente estaban "participando en un comportamiento inauténtico coordinado". [107] En febrero de 2021, Facebook expulsó a los militares de Myanmar de su plataforma y estableció reglas para prohibir las empresas vinculadas al Tatmadaw . [108] [109]
El ejército de Myanmar no fue la única cuenta que incitó a la violencia. En una revisión realizada por Facebook en 2018, Facebook “prohibió cuentas y páginas asociadas con personal militar de Myanmar que la ONU señaló como directamente responsables de la limpieza étnica en Rakhine . Las cuentas prohibidas tenían un amplio alcance en el país, ya que eran seguidas por casi 12 millones de cuentas, lo que representa aproximadamente la mitad de todos los usuarios de Facebook de Myanmar”. [103]
El 6 de diciembre de 2021, aproximadamente un centenar de refugiados rohingya presentaron una demanda de 150.000 millones de dólares contra Facebook, alegando que no hizo lo suficiente para evitar la proliferación de discursos de odio contra los rohingya porque estaba interesado en priorizar el compromiso . [110] El 10 de diciembre de 2021, dieciséis jóvenes rohingya que vivían en el campo de refugiados de Cox's Bazar presentaron una denuncia contra Facebook ante el Punto Nacional de Contacto Irlandés para las Directrices de la OCDE para Empresas Multinacionales, alegando que Facebook había violado las directrices y les debía una reparación. [111] [112] Entre los principales denunciantes del caso se encontraban miembros del grupo de la sociedad civil rohingya Arakan Rohingya Society for Peace and Human Rights (ARSPH). Mohibullah , que fundó ARSPH y había encabezado los esfuerzos entre los refugiados rohingya del campo para exigir cuentas a Facebook, había sido asesinado poco más de dos meses antes. [113]
El 27 de diciembre de 2023, cientos de estudiantes de varias universidades de Aceh , Indonesia , como la Universidad Abulyatama, la Universidad Bina Bangsa Getsempena y la Universidad de Muhammadiyah Aceh , irrumpieron en un refugio para refugiados rohingya y los obligaron a salir de un centro de convenciones en la ciudad de Banda Aceh , exigiendo que fueran deportados. [114] [115] Se vio a los estudiantes pateando las pertenencias de los hombres, mujeres y niños rohingya que estaban sentados en el suelo y llorando de miedo. [114] También se les vio quemando neumáticos y coreando varios lemas anti-rohingya. [114] Se cree que la protesta fue causada por Facebook debido a los sentimientos anti-rohingya que se propagaron a través de la aplicación. [116]
Facebook otorga marcas azules a las cuentas verificadas de personalidades públicas, marcas y celebridades (incluidos políticos y artistas). No tienen ninguna política en los casos en que una persona que tiene una cuenta con una marca azul verificada es condenada en un caso penal grave. En 2018, se produjo un caso en la India en el que un político fue condenado y sentenciado a 10 años de cárcel en un caso penal grave de soborno, pero su página de Facebook seguía estando verificada. [117]
Desde aproximadamente 2018 hasta el 27 de marzo de 2019, la política interna de Facebook fue permitir contenido " nacionalista blanco " pero no contenido " supremacista blanco ", a pesar de los consejos que indicaban que no había distinción. [118] En la práctica, albergó mucho contenido supremacista blanco y neonazi. [119] El 27 de marzo de 2019, Facebook dio marcha atrás y declaró que el nacionalismo blanco "no puede separarse significativamente de la supremacía blanca y los grupos de odio organizados ". [118]
En 2020, el Centro para la Lucha contra el Odio Digital (CCDH) descubrió que Facebook albergaba una red de supremacía blanca con más de 80.000 seguidores y vínculos con la extrema derecha del Reino Unido . El CCDH afirmó: "Los líderes de Facebook pusieron en peligro la seguridad pública al permitir que los neonazis financiaran sus actividades a través de Facebook e Instagram... Facebook fue informado por primera vez sobre este problema hace dos años y no actuó". [120]
En febrero de 2020, la Agencia Central de Noticias de Taiwán informó que habían aparecido grandes cantidades de información errónea en Facebook afirmando que la pandemia en Taiwán estaba fuera de control, que el gobierno taiwanés había encubierto el número total de casos y que la presidenta Tsai Ing-wen había sido infectada. [121] [122] La organización de verificación de hechos de Taiwán había sugerido que la información errónea en Facebook compartía similitudes con China continental debido a su uso de caracteres chinos simplificados y vocabulario de China continental. [123] La organización advirtió que el propósito de la información errónea es atacar al gobierno. [124] [125] [126] The Epoch Times , un periódico anti- Partido Comunista Chino (PCCh) afiliado a Falun Gong , ha difundido información errónea relacionada con la pandemia de COVID-19 en forma impresa y a través de redes sociales, incluidos Facebook y YouTube. [127]
En abril de 2020, circularon rumores en Facebook que afirmaban que el gobierno de Estados Unidos había "descubierto y arrestado" a Charles Lieber , director del Departamento de Química y Biología Química de la Universidad de Harvard, por "fabricar y vender" el nuevo coronavirus (COVID-19) a China. Según un informe de Reuters , las publicaciones que difundían el rumor se compartieron en varios idiomas más de 79.000 veces en Facebook. [128] [129]
En enero de 2021, la Oficina de Periodismo de Investigación descubrió que 430 páginas de Facebook, seguidas por 45 millones de personas, estaban difundiendo información falsa sobre la COVID-19 o las vacunas. [130] Esto fue a pesar de una promesa de Facebook en 2020 de que ningún usuario o empresa debería beneficiarse directamente de la información falsa sobre la inmunización contra la COVID-19 . [131] Un portavoz de Facebook dijo que la empresa había "eliminado una pequeña cantidad de las páginas compartidas con nosotros por violar nuestras políticas". [ cita requerida ] En agosto de 2021, Facebook dijo que un artículo que planteaba preocupaciones sobre los efectos potencialmente fatales de una vacuna contra la COVID-19 fue el enlace de mayor rendimiento en los Estados Unidos entre enero y marzo de 2021, y que otro sitio que publicaba información errónea sobre la COVID-19 estaba entre sus 20 páginas más visitadas. [132]
En febrero de 2021, las investigaciones de la BBC revelaron que parcelas de la selva amazónica en tierras reservadas para pueblos indígenas se estaban comercializando ilegalmente en Facebook Marketplace y los vendedores admitieron que no tenían el título de propiedad de la tierra. La BBC informó que Facebook estaba "dispuesta a trabajar con las autoridades locales", pero no estaba dispuesta a tomar medidas independientes. [133]
En febrero de 2022, la Oficina de Periodismo de Investigación y The Observer acusaron a Facebook de permitir que activistas incitaran a masacres étnicas en la guerra de Tigray difundiendo odio y desinformación. [134] Tras el informe, en diciembre de 2022 el hijo de un académico de Tigray asesinado en noviembre de 2021 tras recibir ataques racistas en la plataforma presentó una demanda contra Meta en el Tribunal Superior de Kenia . [135]
Mientras tanto, han comenzado campañas en otros países, sobre todo en Canadá con la campaña La violación no es una broma (RINJ), que no solo ha hecho una campaña feroz sino que también ha elaborado un video de YouTube.
O'Brien dijo que la campaña ahora se centra en los anunciantes de Facebook que les dicen que no permitan que sus anuncios se publiquen en las "páginas de violación".
{{cite web}}
: CS1 maint: numeric names: authors list (link)"Nos han ordenado que rastreemos si los orígenes están vinculados a instrucciones dadas por el Partido Comunista, utilizando todos los medios posibles", dijo el funcionario, y agregó que las autoridades habían aumentado el escrutinio en las plataformas en línea, incluidas las salas de chat.