stringtranslate.com

Controversias en la gestión de contenidos de Facebook

Un ejemplo de una publicación de Facebook censurada debido a un conflicto no especificado con las "Normas de la comunidad"
Mensaje de error generado por Facebook al intentar compartir un enlace a un sitio web censurado por las Normas de la comunidad en un chat privado. Los mensajes que contengan determinados enlaces no se entregarán al destinatario.

Facebook y Meta Platforms han sido criticadas por su gestión de diversos contenidos en publicaciones, fotos y grupos y perfiles enteros. Esto incluye, entre otras cosas, permitir contenido violento, incluido contenido relacionado con crímenes de guerra, y no limitar la difusión de noticias falsas y desinformación sobre la COVID-19 en su plataforma, así como permitir la incitación a la violencia contra múltiples grupos.

Violación de propiedad intelectual

Facebook ha sido criticado por su laxa aplicación de los derechos de autor de terceros para los vídeos subidos al servicio. En 2015, algunas páginas de Facebook fueron acusadas de plagiar vídeos de usuarios de YouTube y volver a publicarlos como su propio contenido utilizando la plataforma de vídeo de Facebook, y en algunos casos, lograr mayores niveles de participación y vistas que las publicaciones originales de YouTube. Los vídeos alojados por Facebook tienen una mayor prioridad y prominencia dentro de la plataforma y su experiencia de usuario (incluida la incrustación directa dentro del News Feed y las páginas), lo que da una desventaja a la hora de publicarlos como un enlace a la fuente externa original. [1] [2] En agosto de 2015, Facebook anunció una tecnología de coincidencia de vídeos destinada a identificar vídeos publicados nuevamente, y también declaró su intención de mejorar sus procedimientos para eliminar el contenido infractor más rápidamente. [3] En abril de 2016, Facebook implementó una función conocida como "Administrador de derechos", que permite a los titulares de derechos gestionar y restringir la subida de su contenido al servicio por parte de terceros. [4]

Contenido violento

En 2013, Facebook fue criticado por permitir a los usuarios subir y compartir videos que mostraban contenido violento, incluidos clips de personas siendo decapitadas. Habiendo rechazado previamente eliminar dichos clips bajo la directriz de que los usuarios tienen derecho a representar el "mundo en el que vivimos", Facebook cambió su postura en mayo, anunciando que eliminaría los videos denunciados mientras evaluaba su política. [5] El siguiente octubre, Facebook declaró que permitiría videos gráficos en la plataforma, siempre que la intención del video fuera "condenar, no glorificar, los actos representados", [6] afirmando además que "A veces, esas experiencias y problemas involucran contenido gráfico que es de interés público o preocupación, como abusos de derechos humanos, actos de terrorismo y otros tipos de violencia. Cuando las personas comparten este tipo de contenido gráfico, a menudo es para condenarlo. Si se comparte por placer sádico o para celebrar la violencia, Facebook lo elimina". [7] Sin embargo, Facebook volvió a recibir críticas, con el Family Online Safety Institute diciendo que tales videos "cruzaban una línea" y potencialmente podían causar daño psicológico entre los jóvenes usuarios de Facebook, [6] y el entonces Primer Ministro del Reino Unido David Cameron calificó la decisión de "irresponsable", citando las mismas preocupaciones con respecto a los usuarios jóvenes. [7] Dos días después, Facebook eliminó un video de una decapitación luego de la "indignación mundial", y si bien reconoció su compromiso de permitir que las personas carguen material sangriento con el propósito de condenar, también declaró que fortalecería aún más su aplicación para evitar la glorificación. [7] Las políticas de la compañía también fueron criticadas como parte de estos desarrollos, y algunos llamaron la atención en particular sobre el permiso de Facebook de contenido gráfico pero la posible eliminación de imágenes de lactancia materna. [8] En enero de 2015, Facebook anunció que se mostrarían nuevas advertencias en el contenido gráfico, requiriendo que los usuarios confirmen explícitamente que desean ver el material. [9] [10]

Crímenes de guerra

Facebook ha sido criticado por no eliminar contenido violento que retrata crímenes de guerra en Libia. Una investigación de 2019 de la BBC [11] encontró evidencia de presuntos crímenes de guerra en Libia que se compartieron ampliamente en Facebook y YouTube. La BBC encontró imágenes y videos en las redes sociales de los cuerpos de combatientes y civiles profanados por combatientes del autodenominado Ejército Nacional Libio. La fuerza, dirigida por el general Khalifa Haftar , controla una franja de territorio en el este de Libia y está tratando de apoderarse de la capital, Trípoli. La BBC en árabe encontró casi cien imágenes y videos de Libia compartidos en Facebook y YouTube, en violación de las pautas de sus empresas. [12] El Ministerio de Relaciones Exteriores del Reino Unido dijo que se tomaba las acusaciones extremadamente en serio y que está preocupado por el impacto que la reciente violencia está teniendo en la población civil. [13]

En 2017, se subió a Facebook un video del comandante de las fuerzas especiales del Ejército Nacional Libio (LNA) Mahmoud al-Werfalli que lo mostraba matando a tiros a tres combatientes capturados. Luego, el video se compartió en YouTube más de diez mil veces. La Corte Penal Internacional lo utilizó como prueba para acusar a al-Werfalli por el crimen de guerra de asesinato. [14] La BBC encontró que el video original todavía estaba en Facebook dos años después de su acusación y también descubrió videos que mostraban los cuerpos de civiles siendo profanados. [ cita requerida ] Estos fueron tomados en Ganfouda, un distrito de Bengasi que estuvo bajo asedio por el LNA entre 2016 y 2017. Más de 300 personas, incluidas docenas de niños, murieron durante el asedio. Un video descubierto por la BBC en árabe mostraba a soldados burlándose de una pila de cadáveres de civiles muertos y pisoteando cuerpos. Entre ellos estaba una mujer de 77 años, Alia Hamza. Su hijo, Ali Hamza, tuvo cinco familiares asesinados en Ganfouda.

Ali Hamza dijo a la BBC en árabe: "Envié enlaces a los abogados para que los envíen a la CPI en La Haya contra Khalifa Haftar y sus comandantes militares en relación con las masacres de civiles", dijo Hamza. En el video, los soldados del LNA etiquetan a los civiles como terroristas. El abogado de derechos humanos y especialista en crímenes de guerra Rodney Dixon QC revisó la evidencia encontrada por la BBC en árabe. "Si los grupos están utilizando esas plataformas para propagar sus campañas, entonces esas plataformas deberían analizar seriamente su papel porque podrían estar ayudando en ese proceso de cometer más crímenes", dijo. [ Esta cita necesita una cita ] Después de presentar nuestros hallazgos a Facebook, eliminaron todos los videos que muestran un presunto crimen de guerra. Sin embargo, optaron por no suspender ninguna de las cuentas que encontramos vinculadas a las imágenes. Erin Saltman, directora de políticas de Facebook para la lucha contra el terrorismo en Europa, Oriente Medio y África, dijo a la BBC en árabe: "A veces hay narrativas muy contradictorias sobre si la víctima es un terrorista o un civil, sobre quién está cometiendo ese acto; no podemos ser los árbitros puros de la verdad". [12] Pero las propias pautas comunitarias de Facebook y YouTube prohíben explícitamente el contenido que promueve o representa actos de violencia. [15]

Facebook en vivo

Facebook Live , introducido en agosto de 2015 para celebridades [16] y desplegado gradualmente para usuarios regulares a partir de enero de 2016, [17] [18] permite a los usuarios transmitir videos en vivo , con la intención de Facebook de que la función presente eventos públicos o celebraciones privadas. [19] Sin embargo, la función se ha utilizado para registrar múltiples crímenes, muertes e incidentes violentos, lo que ha provocado una importante atención de los medios. [20] [21] [22] [23] [24] [25] [26] [27]

Facebook ha recibido críticas por no eliminar videos más rápido, [28] y Facebook Live ha sido descrito como un "monstruo que [Facebook] no puede domar" [29] y "una escena de crimen espantosa para asesinatos". [30] En respuesta, el CEO Mark Zuckerberg anunció en mayo de 2017 que la compañía contrataría a 3.000 moderadores para revisar el contenido e invertir en herramientas para eliminar videos más rápido. [31] [32] [33]

Grupos pro-anorexia

En 2008, Facebook fue criticado por albergar grupos dedicados a promover la anorexia . Los grupos promovían programas de pérdida de peso drásticos, compartían consejos dietéticos extremos y publicaban fotos de chicas demacradas bajo titulares de " Thinspiration ". Los miembros informaron haber cambiado a Facebook desde Myspace , otro servicio de redes sociales, debido a un mayor nivel percibido de seguridad e intimidad en Facebook. [34] En una declaración a BBC News , un portavoz de Facebook afirmó que "Muchos grupos de Facebook se relacionan con temas controvertidos; esto por sí solo no es una razón para deshabilitar un grupo. En los casos en que se denuncia contenido y se descubre que viola los términos de uso del sitio, Facebook lo eliminará". [35]

Caso de los grupos pro mafia

En Italia, en 2009, el descubrimiento de grupos pro- mafia , uno de los cuales reivindicaba la santidad de Bernardo Provenzano , provocó una alerta en el país [36] [37] [38] y llevó al gobierno a promulgar rápidamente una ley que obligaría a los proveedores de servicios de Internet a denegar el acceso a sitios web enteros en caso de que se negara a retirar contenidos ilegales. La enmienda fue aprobada por el Senado italiano y ahora debe ser aprobada sin modificaciones por la Cámara de Diputados para que entre en vigor. [39] [40] [41] [ necesita actualización ]

Facebook criticó los esfuerzos del gobierno, diciéndole a Bloomberg que "sería como cerrar una red ferroviaria entera sólo por un grafiti ofensivo en una estación", y que "Facebook siempre eliminaría cualquier contenido que promoviera la violencia y ya tenía un procedimiento de eliminación en marcha". [42]

Troleo

El 31 de marzo de 2010, The Today Show emitió un segmento que detallaba las muertes de tres adolescentes y las reacciones posteriores de los trolls a sus muertes. Poco después del suicidio de la estudiante de secundaria Alexis Pilkington, los usuarios anónimos comenzaron a buscar reacciones en varios foros de mensajes, refiriéndose a Pilkington como una "MALDICIÓN suicida" y publicando imágenes gráficas en su página conmemorativa de Facebook. El segmento también incluía una exposición de un accidente de 2006, en el que una estudiante de dieciocho años que estaba dando un paseo estrelló fatalmente el coche de su padre contra una torre de alta tensión de la autopista; los trolls enviaron por correo electrónico a su afligida familia las fotos filtradas de su cadáver mutilado. [43]

Se han dado casos de "trolls" de Facebook que han sido encarcelados por sus comunicaciones en Facebook, en particular en las páginas conmemorativas. En otoño de 2010, Colm Coss, de Ardwick (Gran Bretaña), fue condenado a 26 semanas de cárcel en virtud del artículo 127 de la Ley de Comunicaciones de 2003 de Gran Bretaña [44] por "comunicaciones maliciosas" por dejar mensajes considerados obscenos e hirientes en las páginas conmemorativas de Facebook [45] [46]

En abril de 2011, Bradley Paul Hampson fue sentenciado a tres años de prisión tras declararse culpable de dos cargos de uso de un servicio de transporte (Internet) para causar ofensa, por publicaciones en páginas conmemorativas de Facebook, y un cargo de distribución y posesión de pornografía infantil cuando publicó imágenes en las páginas conmemorativas de los fallecidos con falos superpuestos junto a frases como "Woot, estoy muerto". [47] [48]

Páginas de violación

Una serie de contenidos a favor de la violación y de "chistes sobre violaciones" en Facebook atrajeron la atención de los medios de comunicación y de grupos de mujeres. [49] Rape Is No Joke ( RINJ ), un grupo que se opone a las páginas, argumentó que eliminar las páginas "a favor de la violación" de Facebook y otras redes sociales no era una violación de la libertad de expresión en el contexto del Artículo 19 de la Declaración Universal de Derechos Humanos y los conceptos reconocidos en el derecho internacional de los derechos humanos en el Pacto Internacional de Derechos Civiles y Políticos. [50] RINJ desafió repetidamente a Facebook a eliminar las páginas de violación. [51] RINJ luego se dirigió a los anunciantes en Facebook para decirles que no permitieran que su publicidad se publicara en las "páginas de violación" de Facebook. [52]

Tras una campaña en la que participaron Women, Action and the Media, el Everyday Sexism Project y la activista Soraya Chemaly , que se encontraban entre los 100 grupos de defensa, Facebook acordó actualizar su política sobre el discurso de odio. La campaña destacó el contenido que promovía la violencia doméstica y sexual contra las mujeres, y utilizó más de 57.000 tuits y más de 4.900 correos electrónicos para crear resultados como la retirada de la publicidad de Facebook por parte de 15 empresas, entre ellas Nissan UK, House of Burlesque y Nationwide UK. El sitio web de redes sociales respondió inicialmente afirmando que "si bien puede ser vulgar y ofensivo, el contenido desagradable por sí solo no viola nuestras políticas", [53] pero luego acordó tomar medidas el 29 de mayo de 2013, después de que "quedó claro que nuestros sistemas para identificar y eliminar el discurso de odio no han funcionado tan eficazmente como nos gustaría, en particular en torno a cuestiones de odio por motivos de género". [54]

Imágenes de abuso infantil

En junio de 2015, la Sociedad Nacional para la Prevención de la Crueldad contra los Niños del Reino Unido expresó su preocupación por la aparente negativa de Facebook cuando se le pidió que eliminara material de video controvertido que supuestamente mostraba a un bebé en angustia emocional. [55]

En marzo de 2017, BBC News informó en una investigación que Facebook solo eliminó 18 de los 100 grupos y publicaciones que había denunciado por contener imágenes de explotación infantil. A la BBC se le había concedido una entrevista con el director de políticas de Facebook, Simon Milner, con la condición de que proporcionaran pruebas de la actividad. Sin embargo, cuando se le presentaron las imágenes, Facebook canceló la entrevista y le dijo a la BBC que había sido denunciado ante la Agencia Nacional contra el Crimen por distribuir ilegalmente imágenes de explotación infantil (la NCA no pudo confirmar si la BBC estaba siendo realmente investigada). [56] Milner declaró más tarde a la BBC que la investigación había expuesto fallas en su proceso de moderación de imágenes que desde entonces se han abordado, y que todo el contenido denunciado fue eliminado del servicio. [57]

Según datos del Centro Nacional para Niños Desaparecidos y Explotados , en 2020 se denunciaron 20 millones de incidentes de material de abuso sexual infantil en Facebook. Esto representó el 95% del total de incidentes registrados por la organización, mientras que Google registró medio millón de incidentes, Snapchat 150.000 y Twitter 65.000. [58]

Cosificación de la mujer

En julio de 2017, GMA News informó que se habían descubierto "varios" grupos secretos de Facebook que habían estado participando en la actividad ilegal de compartir fotos "obscenas" de mujeres, y la Oficina Nacional de Investigación de Filipinas advirtió a los miembros del grupo de la posibilidad de ser responsables de violar las leyes contra la pornografía infantil y el voyeurismo. Facebook declaró que eliminaría los grupos por violar sus pautas comunitarias. [59] Unos días después, GMA News tuvo una entrevista con una de las víctimas femeninas a las que apuntaba uno de los grupos, quien declaró que había recibido solicitudes de amistad de extraños y mensajes inapropiados. Después de informar a las autoridades, la unidad contra el delito cibernético de la Policía Nacional de Filipinas prometió tomar medidas para encontrar las cuentas responsables. [60] La senadora Risa Hontiveros respondió a los incidentes con la propuesta de una ley que impondría “durísimas sanciones” a los miembros de esos grupos, afirmando que “Estas personas no tienen derecho a disfrutar de nuestra libertad en Internet sólo para abusar de nuestras mujeres y niños. No les permitiremos que avergüencen a nuestras jóvenes, supriman su derecho a expresarse a través de las redes sociales y contribuyan a una cultura de misoginia y odio”. [61]

Violación de los derechos humanos palestinos

Según el estudio encargado por Meta y realizado por Business for Social Responsibility (BSR), las políticas de Facebook e Instagram durante los ataques israelíes a la Franja de Gaza en 2021 perjudicaron los derechos humanos fundamentales de los palestinos. El gigante de las redes sociales había negado a los usuarios palestinos su libertad de expresión al eliminar por error su contenido. El informe de BSR es otra crítica a la capacidad de la empresa para vigilar su espacio público global y equilibrar la libertad de expresión con el potencial de daño en un contexto internacional tenso. [62]

Antisemitismo

Facebook ha sido sospechoso de tener un doble rasero en lo que se refiere a páginas y publicaciones relacionadas con el conflicto árabe-israelí . En lo que se refiere a la supuesta incitación, Facebook ha sido acusado de ser injusto, eliminando sólo publicaciones y páginas que atacan a los palestinos , mientras que hace la vista gorda ante publicaciones similares que son violentamente antisemitas . La ONG Shurat Hadin -Israel Law Center realizó un experimento sobre el tema de la incitación, que buscaba exponer lo que consideraba un doble rasero en lo que respecta al sentimiento antiisraelí en relación con el lanzamiento simultáneo de dos páginas de Facebook: "Stop Palestines" y "Stop Israel". Tras el lanzamiento de las dos páginas casi idénticas, la ONG publicó contenido de odio simultáneamente en ambas páginas. A continuación, Shurat Hadin informó a Facebook de ambas páginas de falsa incitación para ver cuál, si alguna, sería eliminada. Según ellos, a pesar de presentar contenido casi idéntico, sólo una fue eliminada de la plataforma en línea. Dijeron que la página que incitaba contra los palestinos fue cerrada por Facebook (el mismo día en que se informó sobre ella) por "contener una amenaza creíble de violencia" que "violaba los estándares de nuestra comunidad [de Facebook]", pero no la página que incitaba contra los israelíes. Shurat Hadin dijo que Facebook afirmó que esta página "no violaba las reglas de Facebook". El grupo antiisraelí organizado por Shurat Hadin, "Stop Israel", todavía sigue activo en Facebook. [63] ProPublica declaró en septiembre de 2017 que un sitio web podía orientar anuncios a los usuarios de Facebook que estaban interesados ​​en "cómo quemar a un judío" y "odiador de judíos". Facebook eliminó las categorías y dijo que intentaría evitar que aparecieran ante posibles anunciantes. [64]

En marzo de 2019, la subsidiaria de Facebook, Instagram, se negó a eliminar una imagen antisemita publicada por el teórico de la conspiración de derecha Alex Jones , diciendo que no violaba los estándares de su comunidad. [65] [ se necesita una mejor fuente ]

Incitación a la violencia contra israelíes

Se ha acusado a Facebook de ser una plataforma pública que se utiliza para incitar a la violencia. En octubre de 2015, 20.000 israelíes afirmaron que Facebook ignoraba la incitación palestina en su plataforma y presentaron una demanda colectiva exigiendo que Facebook eliminara todas las publicaciones "que contuvieran incitación al asesinato de judíos". [66]

Los políticos israelíes se han quejado de que Facebook no cumple ni ayuda con las solicitudes de la policía para rastrear y denunciar a las personas cuando comparten su intención de matar o cometer cualquier otro acto de violencia en sus páginas de Facebook. En junio de 2016, tras el asesinato de Hallel Ariel , de 13 años, por un terrorista que publicó una publicación en Facebook, el ministro israelí de Seguridad Pública, Gilad Erdan, denunció que "Facebook, que ha traído una revolución positiva al mundo, se ha convertido en un monstruo... El diálogo, la incitación, las mentiras de la joven generación palestina están sucediendo en la plataforma de Facebook". Erdan acusó a Facebook de "sabotear el trabajo de la policía israelí" y "negarse a cooperar" cuando la policía israelí recurre al sitio en busca de ayuda. También "establece un listón muy alto" para eliminar contenido incitador. [67]

En julio de 2016, se presentó una demanda civil por mil millones de dólares en daños en el Tribunal de Distrito de los Estados Unidos para el Distrito Sur de Nueva York en nombre de las víctimas y los familiares de cuatro israelíes-estadounidenses y un ciudadano estadounidense asesinados por militantes de Hamás desde junio de 2014. [68] [69] Las víctimas y los demandantes en el caso son las familias de Yaakov Naftali Fraenkel , un joven de 16 años que fue secuestrado y asesinado por operativos de Hamás en 2014; Taylor Force , un estudiante de MBA estadounidense de 29 años y veterano del ejército de los EE. UU. asesinado en una ola de apuñalamientos en Jaffa en 2016; Chaya Braun , una bebé de tres meses arrojada de su cochecito y estrellada contra el pavimento cuando un atacante de Hamás condujo su automóvil hacia una estación de tren ligero en Jerusalén en octubre de 2014; Richard Lakin, de 76 años , que murió en el ataque con disparos y apuñalamiento de octubre de 2015 en un autobús de Jerusalén ; y Menachem Mendel Rivkin, que resultó gravemente herido en un ataque con apuñalamiento en enero de 2016 en Jerusalén. [69] Los demandantes afirmaron que Facebook proporcionó conscientemente su plataforma de redes sociales y servicios de comunicación a Hamás en violación de las disposiciones de las leyes antiterroristas de Estados Unidos que prohíben a las empresas estadounidenses proporcionar cualquier apoyo material, incluidos servicios, a grupos terroristas designados y sus líderes. El gobierno de los Estados Unidos ha designado a Hamás como una " Organización Terrorista Extranjera " según la definición de la ley estadounidense. La demanda afirma que Hamás "utilizó y se basó en la plataforma de red social en línea de Facebook y los servicios de comunicación para facilitar y llevar a cabo su actividad terrorista, incluidos los ataques terroristas en los que Hamás asesinó e hirió a las víctimas y sus familias en este caso". [68] [69] La demanda legal fue rechazada; El tribunal determinó que Facebook y otras empresas de redes sociales no se consideran editores del material que publican los usuarios cuando las herramientas digitales utilizadas por la empresa hacen coincidir el contenido con lo que la herramienta identifica como consumidores interesados. [70] [71]

En agosto de 2016, el servicio de seguridad israelí, el Shin Bet , informó que había arrestado a nueve palestinos que habían sido reclutados por la organización terrorista Hezbolá con sede en el Líbano . Los agentes de Hezbolá en el Líbano y la Franja de Gaza reclutaron a residentes de Cisjordania, Gaza e Israel a través de Facebook y otros sitios de medios sociales. Después de reclutar a los líderes de las células en Facebook, Hezbolá y los reclutas utilizaron comunicaciones cifradas para evitar ser detectados, y los líderes continuaron reclutando a otros miembros. Las células terroristas recibieron financiación de Hezbolá y planearon llevar a cabo atentados suicidas y emboscadas y habían comenzado a preparar dispositivos explosivos para los ataques, dijo el servicio de seguridad, que se atribuyó el mérito de prevenir los ataques. El Shin Bet dijo que también detectó múltiples intentos de Hezbolá de reclutar árabes israelíes a través de un perfil de Facebook. [72] [73] [74]

El 16 de octubre de 2023, la cantante y personalidad de Internet Dalal Abu Amneh fue arrestada por la policía israelí por presuntamente promover el discurso de odio e incitar a la violencia en las redes sociales tras una masacre perpetrada por Hamás el 7 de octubre de 2023. [ 75]

En 2016, se estaba preparando una legislación en Israel que permitía multas de 300.000 shekels para Facebook y otras redes sociales como Twitter y YouTube por cada publicación que incitara o alabara el terrorismo que no se eliminara en 48 horas y que pudiera dar lugar a nuevos actos de terrorismo. [76]

Esfuerzos de contramedidas

En junio de 2017, Facebook publicó una entrada en su blog en la que ofrecía información sobre cómo detecta y combate el contenido terrorista. La empresa afirmó que la mayoría de las cuentas de terrorismo que se encuentran son descubiertas por el propio Facebook, mientras que revisa los informes de contenido terrorista "urgentemente" y, en casos de daño inminente, "informa rápidamente a las autoridades". También desarrolla nuevas herramientas para ayudar en sus esfuerzos, incluido el uso de inteligencia artificial para hacer coincidir imágenes y videos terroristas, detectar cuándo se comparte contenido entre cuentas relacionadas y desarrollar tecnologías para detener a los reincidentes. La empresa afirmó que tiene 150 personas dedicadas a las medidas de lucha contra el terrorismo y trabaja con gobiernos e industrias en un esfuerzo por frenar la propaganda terrorista. Su entrada en el blog afirmaba que "Queremos que Facebook sea un lugar hostil para los terroristas". [77] [78]

Fuga de datos de empleados

En junio de 2017, The Guardian informó que un error de software había expuesto los datos personales de 1.000 trabajadores de Facebook involucrados en la revisión y eliminación de contenido terrorista, al mostrar sus perfiles en los registros de "Actividad" de los grupos de Facebook relacionados con esfuerzos terroristas. En la sede de Facebook en Dublín , Irlanda, se determinó que seis personas eran víctimas de "alta prioridad" del error, después de que la empresa concluyera que sus perfiles probablemente eran vistos por terroristas potenciales en grupos como ISIS , Hezbollah y el Partido de los Trabajadores del Kurdistán . El error en sí, descubierto en noviembre de 2016 y solucionado dos semanas después, estuvo activo durante un mes y también había estado exponiendo retroactivamente cuentas personales censuradas desde agosto de 2016. Un trabajador afectado había huido de Irlanda, se había escondido y solo regresó a Irlanda después de cinco meses debido a la falta de dinero. Sufriendo angustia psicológica, presentó una demanda legal contra Facebook y CPL Resources , una empresa de subcontratación, en busca de una compensación. Un portavoz de Facebook afirmó que "nuestra investigación encontró que solo una pequeña fracción de los nombres probablemente fueron vistos, y nunca tuvimos evidencia de ninguna amenaza para las personas afectadas o sus familias como resultado de este asunto", y Craig D'Souza, jefe de investigaciones globales de Facebook, dijo: "Ten en cuenta que cuando la persona ve tu nombre en la lista, estaba en su registro de actividad, que contiene mucha información ... hay una buena posibilidad de que te asocie con otro administrador del grupo o un hacker". Facebook ofreció instalar un sistema de monitoreo de alarma para el hogar, proporcionar transporte hacia y desde el trabajo y asesoramiento a través de su programa de asistencia a los empleados. Como resultado de la filtración de datos, Facebook está probando el uso de cuentas administrativas alternativas para los trabajadores que revisan el contenido, en lugar de requerir que los trabajadores inicien sesión con sus perfiles personales. [79] [80]

Noticias falsas

Facebook ha sido criticado por no hacer lo suficiente para limitar la propagación de noticias falsas en su sitio, especialmente después de las elecciones presidenciales de Estados Unidos de 2016 , que algunos han afirmado que Donald Trump no habría ganado si Facebook no hubiera ayudado a difundir lo que afirman que fueron historias falsas que estaban sesgadas a su favor. [81] En una conferencia llamada Techonomy , Mark Zuckerberg declaró con respecto a Donald Trump: "Hay una profunda falta de empatía al afirmar que la única razón por la que alguien podría haber votado de la manera en que lo hizo es porque vio algunas noticias falsas". Zuckerberg afirmó la idea de que las personas no se desvían de sus propios ideales e inclinaciones políticas. Dijo: "No sé qué hacer al respecto" y "Cuando comenzamos, la estrella del norte para nosotros era: estamos construyendo una comunidad segura". [82]

Zuckerberg también ha sido citado en su propia publicación de Facebook: "De todo el contenido de Facebook, más del 99 por ciento de lo que la gente ve es auténtico". [83] Además, el Pew Research Center afirmó que "el 62% de los estadounidenses obtiene algunas o todas sus noticias en las redes sociales, la mayor parte de ellas de Facebook". [84] El ex editor de Facebook filtró información incendiaria sobre el algoritmo de los sitios web que apunta a ciertas falsedades y sesgos en las noticias creadas dentro de Facebook. Aunque Facebook inicialmente negó las afirmaciones de problemas con las noticias falsas y sus algoritmos, despidieron a todo el equipo de tendencias involucrado con una noticia falsa sobre Megyn Kelly siendo una "liberal encubierta". [85]

En 2016, Zuckerberg comenzó a tomar medidas para eliminar la prevalencia de noticias falsas en Facebook como resultado de las críticas a la influencia de Facebook en las elecciones presidenciales. [86] Facebook se asoció inicialmente con ABC News , Associated Press , FactCheck.org , Snopes y PolitiFact para su iniciativa de verificación de datos ; [87] a partir de 2018, tenía más de 40 socios de verificación de datos en todo el mundo, incluido The Weekly Standard . [88] Una revisión de mayo de 2017 realizada por The Guardian encontró que las iniciativas de verificación de datos de Facebook de asociarse con verificadores de datos de terceros y marcar públicamente las noticias falsas eran regularmente ineficaces y parecían tener un impacto mínimo en algunos casos. [89] En 2018, los periodistas que trabajaban como verificadores de datos para Facebook criticaron la asociación, afirmando que había producido resultados mínimos y que la empresa había ignorado sus preocupaciones. [88]

Incitación a la violencia en Sri Lanka

En marzo de 2018, el gobierno de Sri Lanka bloqueó Facebook y otros servicios de redes sociales en un esfuerzo por sofocar la violencia en los disturbios antimusulmanes de 2018 , y Harsha de Silva , viceministra de Políticas Nacionales y Asuntos Económicos, tuiteó: "El discurso de odio en Facebook está aumentando más allá de los niveles aceptables. El gobierno tendrá que actuar de inmediato para salvar vidas". [90] El ministro de telecomunicaciones de Sri Lanka, Harin Fernando , declaró que Facebook había sido demasiado lento en eliminar contenido y prohibir a los usuarios que usaban sus plataformas para facilitar la violencia durante los disturbios. [91] [92] En respuesta, Facebook declaró que había aumentado el número de hablantes de cingalés que emplea para revisar el contenido. [91]

En abril de 2019, después de los atentados de Pascua , el gobierno de Sri Lanka bloqueó el acceso a Facebook, Instagram y WhatsApp en un esfuerzo por detener la difusión de información errónea que podría conducir a más violencia. [93]

Inclusión deNoticias de Breitbartcomo fuente de noticias confiable

En octubre de 2019, Facebook anunció que Breitbart News , un sitio web estadounidense de noticias y opiniones de extrema derecha , se incluiría como una "fuente confiable" en su función Facebook News junto con fuentes como The New York Times y The Washington Post . La decisión provocó controversia debido al estatus de Breitbart News como plataforma para la extrema derecha y su reputación de publicar desinformación. [94] [95] [96] En octubre de 2021, The Wall Street Journal informó que los ejecutivos de Facebook se resistieron a eliminar Breitbart News de la función News Tab de Facebook para evitar enojar a Donald Trump y a los miembros republicanos del Congreso, a pesar de las críticas de los empleados de Facebook. [97] [98] Un estudio interno de Facebook de agosto de 2019 había descubierto que Breitbart News era la fuente de noticias menos confiable, y también clasificada como de baja calidad, en las fuentes que analizó en los EE. UU. y Gran Bretaña. [97]

Desinformación sobre la persecución de los uigures

En febrero de 2021, una investigación de Press Gazette descubrió que Facebook había aceptado contenido promocional de medios de comunicación estatales chinos como China Daily y China Global Television Network que difundían desinformación que negaba la persecución de los uigures en China . [99]

Incitación a la violación de los derechos humanos en Myanmar

El presidente de la Misión Internacional Independiente de Investigación de las Naciones Unidas sobre Myanmar afirmó que Facebook desempeñó un "papel determinante" en el genocidio de los rohingya. [100] Se ha acusado a Facebook de permitir la difusión de contenido islamófobo dirigido contra el pueblo rohingya . [101] El Consejo de Derechos Humanos de las Naciones Unidas ha calificado a la plataforma de "instrumento útil para quienes buscan difundir el odio". [102]

La iniciativa internet.org llegó a Myanmar en 2015. La relativamente reciente transición democrática de Myanmar no le proporcionó al país tiempo suficiente para formar medios de comunicación profesionales y fiables libres de la intervención del gobierno. Además, aproximadamente el 1% de los residentes de Myanmar tenían acceso a Internet antes de internet.org. Como resultado, Facebook era la principal fuente de información y sin opciones de medios profesionales verificables, Facebook se convirtió en un caldo de cultivo para el discurso de odio y la desinformación . "Los rumores que circulaban entre las redes de familiares o amigos en Facebook eran percibidos como indistinguibles de las noticias verificadas por sus usuarios". [103] Los sentimientos anti-rohingya frecuentes incluían altas tasas de natalidad musulmana, creciente influencia económica y planes para apoderarse del país. La comunidad de Facebook de Myanmar también estaba casi completamente descontrolada por Facebook, que en ese momento solo tenía dos empleados de habla birmana.

En respuesta, Facebook eliminó cuentas que eran propiedad de las Fuerzas Armadas de Myanmar porque anteriormente habían utilizado Facebook para incitar al odio contra el pueblo rohingya , [104] [105] [106] y actualmente estaban "participando en un comportamiento inauténtico coordinado". [107] En febrero de 2021, Facebook expulsó a los militares de Myanmar de su plataforma y estableció reglas para prohibir las empresas vinculadas al Tatmadaw . [108] [109]

El ejército de Myanmar no fue la única cuenta que incitó a la violencia. En una revisión realizada por Facebook en 2018, Facebook “prohibió cuentas y páginas asociadas con personal militar de Myanmar que la ONU señaló como directamente responsables de la limpieza étnica en Rakhine . Las cuentas prohibidas tenían un amplio alcance en el país, ya que eran seguidas por casi 12 millones de cuentas, lo que representa aproximadamente la mitad de todos los usuarios de Facebook de Myanmar”. [103]

El 6 de diciembre de 2021, aproximadamente un centenar de refugiados rohingya presentaron una demanda de 150.000 millones de dólares contra Facebook, alegando que no hizo lo suficiente para evitar la proliferación de discursos de odio contra los rohingya porque estaba interesado en priorizar el compromiso . [110] El 10 de diciembre de 2021, dieciséis jóvenes rohingya que vivían en el campo de refugiados de Cox's Bazar presentaron una denuncia contra Facebook ante el Punto Nacional de Contacto Irlandés para las Directrices de la OCDE para Empresas Multinacionales, alegando que Facebook había violado las directrices y les debía una reparación. [111] [112] Entre los principales denunciantes del caso se encontraban miembros del grupo de la sociedad civil rohingya Arakan Rohingya Society for Peace and Human Rights (ARSPH). Mohibullah , que fundó ARSPH y había encabezado los esfuerzos entre los refugiados rohingya del campo para exigir cuentas a Facebook, había sido asesinado poco más de dos meses antes. [113]

El 27 de diciembre de 2023, cientos de estudiantes de varias universidades de Aceh , Indonesia , como la Universidad Abulyatama, la Universidad Bina Bangsa Getsempena y la Universidad de Muhammadiyah Aceh , irrumpieron en un refugio para refugiados rohingya y los obligaron a salir de un centro de convenciones en la ciudad de Banda Aceh , exigiendo que fueran deportados. [114] [115] Se vio a los estudiantes pateando las pertenencias de los hombres, mujeres y niños rohingya que estaban sentados en el suelo y llorando de miedo. [114] También se les vio quemando neumáticos y coreando varios lemas anti-rohingya. [114] Se cree que la protesta fue causada por Facebook debido a los sentimientos anti-rohingya que se propagaron a través de la aplicación. [116]

Marca azul

Facebook otorga marcas azules a las cuentas verificadas de personalidades públicas, marcas y celebridades (incluidos políticos y artistas). No tienen ninguna política en los casos en que una persona que tiene una cuenta con una marca azul verificada es condenada en un caso penal grave. En 2018, se produjo un caso en la India en el que un político fue condenado y sentenciado a 10 años de cárcel en un caso penal grave de soborno, pero su página de Facebook seguía estando verificada. [117]

Contenido neonazi y de supremacía blanca

Desde aproximadamente 2018 hasta el 27 de marzo de 2019, la política interna de Facebook fue permitir contenido " nacionalista blanco " pero no contenido " supremacista blanco ", a pesar de los consejos que indicaban que no había distinción. [118] En la práctica, albergó mucho contenido supremacista blanco y neonazi. [119] El 27 de marzo de 2019, Facebook dio marcha atrás y declaró que el nacionalismo blanco "no puede separarse significativamente de la supremacía blanca y los grupos de odio organizados ". [118]

En 2020, el Centro para la Lucha contra el Odio Digital (CCDH) descubrió que Facebook albergaba una red de supremacía blanca con más de 80.000 seguidores y vínculos con la extrema derecha del Reino Unido . El CCDH afirmó: "Los líderes de Facebook pusieron en peligro la seguridad pública al permitir que los neonazis financiaran sus actividades a través de Facebook e Instagram... Facebook fue informado por primera vez sobre este problema hace dos años y no actuó". [120]

Desinformación sobre el COVID-19

En febrero de 2020, la Agencia Central de Noticias de Taiwán informó que habían aparecido grandes cantidades de información errónea en Facebook afirmando que la pandemia en Taiwán estaba fuera de control, que el gobierno taiwanés había encubierto el número total de casos y que la presidenta Tsai Ing-wen había sido infectada. [121] [122] La organización de verificación de hechos de Taiwán había sugerido que la información errónea en Facebook compartía similitudes con China continental debido a su uso de caracteres chinos simplificados y vocabulario de China continental. [123] La organización advirtió que el propósito de la información errónea es atacar al gobierno. [124] [125] [126] The Epoch Times , un periódico anti- Partido Comunista Chino (PCCh) afiliado a Falun Gong , ha difundido información errónea relacionada con la pandemia de COVID-19 en forma impresa y a través de redes sociales, incluidos Facebook y YouTube. [127]

En abril de 2020, circularon rumores en Facebook que afirmaban que el gobierno de Estados Unidos había "descubierto y arrestado" a Charles Lieber , director del Departamento de Química y Biología Química de la Universidad de Harvard, por "fabricar y vender" el nuevo coronavirus (COVID-19) a China. Según un informe de Reuters , las publicaciones que difundían el rumor se compartieron en varios idiomas más de 79.000 veces en Facebook. [128] [129]

En enero de 2021, la Oficina de Periodismo de Investigación descubrió que 430 páginas de Facebook, seguidas por 45 millones de personas, estaban difundiendo información falsa sobre la COVID-19 o las vacunas. [130] Esto fue a pesar de una promesa de Facebook en 2020 de que ningún usuario o empresa debería beneficiarse directamente de la información falsa sobre la inmunización contra la COVID-19 . [131] Un portavoz de Facebook dijo que la empresa había "eliminado una pequeña cantidad de las páginas compartidas con nosotros por violar nuestras políticas". [ cita requerida ] En agosto de 2021, Facebook dijo que un artículo que planteaba preocupaciones sobre los efectos potencialmente fatales de una vacuna contra la COVID-19 fue el enlace de mayor rendimiento en los Estados Unidos entre enero y marzo de 2021, y que otro sitio que publicaba información errónea sobre la COVID-19 estaba entre sus 20 páginas más visitadas. [132]

Mercado de venta ilegal de productos de la selva amazónica

En febrero de 2021, las investigaciones de la BBC revelaron que parcelas de la selva amazónica en tierras reservadas para pueblos indígenas se estaban comercializando ilegalmente en Facebook Marketplace y los vendedores admitieron que no tenían el título de propiedad de la tierra. La BBC informó que Facebook estaba "dispuesta a trabajar con las autoridades locales", pero no estaba dispuesta a tomar medidas independientes. [133]

Incitación a masacres étnicas en Etiopía

En febrero de 2022, la Oficina de Periodismo de Investigación y The Observer acusaron a Facebook de permitir que activistas incitaran a masacres étnicas en la guerra de Tigray difundiendo odio y desinformación. [134] Tras el informe, en diciembre de 2022 el hijo de un académico de Tigray asesinado en noviembre de 2021 tras recibir ataques racistas en la plataforma presentó una demanda contra Meta en el Tribunal Superior de Kenia . [135]

Véase también

Referencias

  1. ^ Setalvad, Ariha (7 de agosto de 2015). «Por qué el problema del robo de videos en Facebook no puede durar». The Verge . Archivado desde el original el 7 de febrero de 2021. Consultado el 29 de mayo de 2017 .
  2. ^ Oremus, Will (8 de julio de 2015). «El problema de la piratería en Facebook». Slate . The Slate Group . Archivado desde el original el 20 de mayo de 2016 . Consultado el 29 de mayo de 2017 .
  3. ^ Luckerson, Victor (28 de agosto de 2015). «Facebook tomará medidas drásticas contra la piratería de vídeos en línea». Time . Archivado desde el original el 3 de mayo de 2017. Consultado el 29 de mayo de 2017 .
  4. ^ Constine, Josh (12 de abril de 2016). «Facebook lanza un gestor de derechos de vídeo para combatir el pirateo». TechCrunch . AOL . Archivado desde el original el 9 de junio de 2017 . Consultado el 29 de mayo de 2017 .
  5. ^ Kelion, Leo (1 de mayo de 2013). «Facebook cambia de opinión después de que organizaciones benéficas criticaran los vídeos de decapitaciones». BBC News . BBC . Archivado desde el original el 26 de abril de 2017 . Consultado el 3 de junio de 2017 .
  6. ^ ab Winter, Michael (21 de octubre de 2013). «Facebook vuelve a permitir vídeos violentos, con advertencias». USA Today . Archivado desde el original el 18 de julio de 2018. Consultado el 3 de junio de 2017 .
  7. ^ abc «Facebook retira vídeo de decapitación» . The Daily Telegraph . 23 de octubre de 2013. Archivado desde el original el 12 de enero de 2022 . Consultado el 3 de junio de 2017 .
  8. ^ Harrison, Virginia (23 de octubre de 2013). "La indignación estalla por la decisión de Facebook sobre los videos gráficos". CNNMoney . CNN . Archivado desde el original el 3 de junio de 2017 . Consultado el 3 de junio de 2017 .
  9. ^ Gibbs, Samuel (13 de enero de 2015). «Facebook aborda los videos y fotos gráficas con advertencias del tipo '¿Estás seguro?'». The Guardian . Archivado desde el original el 19 de agosto de 2017. Consultado el 3 de junio de 2017 .
  10. ^ Kelion, Leo (13 de enero de 2015). «Facebook restringe los vídeos y fotos violentos». BBC News . BBC . Archivado desde el original el 8 de agosto de 2017. Consultado el 3 de junio de 2017 .
  11. ^ "Vídeos de 'crímenes de guerra' en Libia difundidos en Internet". BBC News . Archivado desde el original el 23 de octubre de 2019 . Consultado el 23 de septiembre de 2019 .
  12. ^ ab "Conflicto libio: presuntos crímenes de guerra compartidos en línea". BBC Newsnight . Archivado desde el original el 2021-12-21 . Consultado el 23 de septiembre de 2019 – vía YouTube.
  13. ^ "BBC: Crímenes de guerra cometidos por las fuerzas de Haftar compartidos en Facebook y YouTube". Libyan Express . 1 de mayo de 2019. Archivado desde el original el 5 de noviembre de 2020 . Consultado el 31 de octubre de 2020 .
  14. ^ "El Fiscal c. Mahmoud Mustafa Busyf Al-Werfalli" (PDF) . Corte Penal Internacional . Archivado (PDF) del original el 5 de diciembre de 2021 . Consultado el 17 de febrero de 2022 .
  15. ^ "Estándares comunitarios | Facebook". Archivado desde el original el 12 de julio de 2019. Consultado el 23 de septiembre de 2019 – vía Facebook.
  16. ^ Mangalindan, JP (5 de agosto de 2015). «Facebook lanza transmisión en vivo, pero solo para personas famosas». Mashable . Archivado desde el original el 25 de abril de 2017. Consultado el 3 de junio de 2017 .
  17. ^ Barrett, Brian (28 de enero de 2016). «La transmisión en vivo de Facebook se abre a todos los que tengan un iPhone». Wired . Archivado desde el original el 4 de mayo de 2017. Consultado el 3 de junio de 2017 .
  18. ^ Newton, Casey (28 de enero de 2016). «Facebook lanza transmisión de video en vivo para todos en los Estados Unidos». The Verge . Archivado desde el original el 5 de junio de 2023. Consultado el 3 de junio de 2017 .
  19. ^ Newton, Casey (3 de diciembre de 2015). «Facebook comienza a probar la transmisión de video en vivo para todos los usuarios». The Verge . Archivado desde el original el 28 de junio de 2017. Consultado el 3 de junio de 2017 .
  20. ^ Chrisafis, Angelique; Willsher, Kim (14 de junio de 2016). «Un policía francés y su compañero fueron asesinados en un «odioso ataque terrorista»». The Guardian . Archivado desde el original el 25 de mayo de 2017. Consultado el 3 de junio de 2017 .
  21. ^ Madden, Justin (17 de junio de 2016). «Hombre de Chicago muerto a tiros mientras transmitía en vivo en Facebook». Reuters . Archivado desde el original el 10 de julio de 2016. Consultado el 3 de junio de 2017 .
  22. ^ Chaykowski, Kathleen (7 de julio de 2016). "La muerte de Philando Castile en Facebook Live pone de relieve los problemas de las aplicaciones de redes sociales". Forbes . Archivado desde el original el 8 de mayo de 2017. Consultado el 3 de junio de 2017 .
  23. ^ McLaughlin, Eliott C.; Blau, Max; Vercammen, Paul (30 de septiembre de 2016). "Policía: Hombre asesinado por un agente que apuntaba con un dispositivo de vapeo, no con una pistola". CNN . Archivado desde el original el 31 de diciembre de 2016. Consultado el 3 de junio de 2017 .
  24. ^ Berman, Mark; Hawkins, Derek (5 de enero de 2017). «Se presentan cargos por delitos de odio después de que un vídeo 'reprobable' muestra el ataque a un hombre con problemas mentales en Chicago». The Washington Post . Nash Holdings . Archivado desde el original el 17 de marzo de 2023 . Consultado el 3 de junio de 2017 .
  25. ^ Steele, Billy (22 de marzo de 2017). «Docenas de personas vieron una transmisión en vivo de Facebook sobre una agresión sexual (actualizado)». Engadget . AOL . Archivado desde el original el 3 de junio de 2017 . Consultado el 3 de junio de 2017 .
  26. ^ Gibbs, Samuel (25 de abril de 2017). "Facebook bajo presión después de que un hombre transmitiera en vivo el asesinato de su hija". The Guardian . Archivado desde el original el 29 de mayo de 2017. Consultado el 3 de junio de 2017 .
  27. ^ Solon, Olivia (27 de enero de 2017). «Por qué un número cada vez mayor de delincuentes están usando Facebook Live para filmar sus actos». The Guardian . Archivado desde el original el 1 de junio de 2017. Consultado el 3 de junio de 2017 .
  28. ^ Solon, Olivia; Levin, Sam (6 de enero de 2017). «Facebook se niega a explicar por qué no se eliminó antes el vídeo de tortura en directo». The Guardian . Archivado desde el original el 1 de junio de 2017. Consultado el 3 de junio de 2017 .
  29. ^ Krasodomski-Jones, Alex (9 de enero de 2017). «Facebook ha creado un monstruo que no puede domar». CNN . Archivado desde el original el 19 de junio de 2017. Consultado el 3 de junio de 2017 .
  30. ^ Bhattacharya, Ananya (18 de junio de 2016). «Facebook Live se está convirtiendo en una escena de crimen espantosa para los asesinatos». Quartz . Archivado desde el original el 26 de abril de 2017. Consultado el 3 de junio de 2017 .
  31. ^ Gibbs, Samuel (3 de mayo de 2017). «Facebook Live: Zuckerberg suma 3.000 moderadores tras los asesinatos». The Guardian . Archivado desde el original el 2 de junio de 2017. Consultado el 3 de junio de 2017 .
  32. ^ Murphy, Mike (3 de mayo de 2017). «Facebook está contratando a 3.000 personas más para monitorear Facebook Live en busca de asesinatos, suicidios y otros videos horribles». Quartz . Archivado desde el original el 8 de mayo de 2017. Consultado el 3 de junio de 2017 .
  33. ^ Ingram, David (3 de mayo de 2017). «Facebook intenta solucionar el problema de los vídeos violentos con 3.000 nuevos trabajadores». Reuters . Archivado desde el original el 1 de junio de 2017. Consultado el 3 de junio de 2017 .
  34. ^ Peng, Tina (22 de noviembre de 2008). «Grupos pro-anorexia se extienden a Facebook». Newsweek . Archivado desde el original el 14 de julio de 2017. Consultado el 13 de junio de 2017 .
  35. ^ "Se insta a tomar medidas drásticas contra los sitios web pro-anorexia". BBC News . BBC . 24 de febrero de 2008. Archivado desde el original el 9 de julio de 2017 . Consultado el 13 de junio de 2017 .
  36. ^ Masciarelli, Alexis (9 de enero de 2009). «La ira contra los grupos pro-mafia en Facebook». France 24. Archivado desde el original el 6 de septiembre de 2009. Consultado el 13 de junio de 2017 .
  37. ^ Donadio, Rachel (20 de enero de 2009). «Las autoridades italianas se muestran cautelosas ante los tributos a la mafia en Facebook». The New York Times International Edition . Archivado desde el original el 24 de enero de 2009. Consultado el 13 de junio de 2017 .
  38. ^ Pullella, Philip (12 de enero de 2009). «Las páginas de Facebook pro-mafia causan alarma en Italia». Reuters . Archivado desde el original el 18 de julio de 2018. Consultado el 13 de junio de 2017 .
  39. ^ Krangel, Eric (11 de febrero de 2009). "Italia está considerando prohibir a nivel nacional Facebook y YouTube con el objetivo de volver a la Edad Oscura". Business Insider . Axel Springer SE . Archivado desde el original el 18 de julio de 2018 . Consultado el 13 de junio de 2017 .
  40. ^ Kington, Tom (16 de febrero de 2009). «Proyecto de ley italiano pretende bloquear los santuarios mafiosos de Facebook». The Guardian . Archivado desde el original el 26 de febrero de 2017. Consultado el 13 de junio de 2017 .
  41. ^ Nicole, Kristen (12 de febrero de 2009). «Mafia Bosses Could Cause Italy's Blocking of Facebook» (Los jefes de la mafia podrían provocar el bloqueo de Facebook en Italia). Adweek . Beringer Capital. Archivado desde el original el 18 de julio de 2018. Consultado el 13 de junio de 2017 .
  42. ^ Oates, John (12 de febrero de 2009). «Facebook contraataca la prohibición italiana». The Register . Situation Publishing. Archivado desde el original el 10 de agosto de 2017. Consultado el 13 de junio de 2017 .
  43. ^ "Trolling: The Today Show explora el lado oscuro de Internet", 31 de marzo de 2010. Consultado el 4 de abril de 2010. Archivado el 8 de junio de 2010 en Wayback Machine .
  44. ^ s127 de la Ley de Comunicaciones de 2003 de Gran Bretaña Archivado el 5 de marzo de 2022 en Wayback Machine . Consultado el 13 de julio de 2011.
  45. ^ Encarcelado un troll que se burlaba de las víctimas de asesinato Archivado el 30 de noviembre de 2019 en Wayback Machine , The Register, 1 de noviembre de 2010. Consultado el 13 de julio de 2011.
  46. ^ El 'troll' del sitio web Jade Goody de Manchester fue encarcelado Archivado el 16 de febrero de 2022 en Wayback Machine , BBC, 29 de octubre de 2010. Consultado el 13 de julio de 2011.
  47. ^ El troll de Facebook Bradley Paul Hampson busca libertad bajo fianza y apela contra la pena de cárcel Archivado el 26 de marzo de 2016 en Wayback Machine , The Courier -Mail, 20 de abril de 2011. Consultado el 13 de julio de 2011.
  48. ^ Se insta a Facebook a prohibir a los adolescentes crear páginas de homenaje Archivado el 21 de enero de 2016 en Wayback Machine , The Australian, 5 de junio de 2010. Consultado el 13 de julio de 2011.
  49. ^ Sherwell, Philip (16 de octubre de 2011). «Cyber ​​anarchists culpó por lanzar una serie de 'páginas de violación' en Facebook». The Daily Telegraph . Londres. Archivado desde el original el 7 de febrero de 2021 . Consultado el 22 de mayo de 2012 .
  50. ^ "La 'página de violación' de Facebook está en la lista blanca y la campaña se vuelve global". Womensviewsonnews.org . Archivado desde el original el 2022-02-16 . Consultado el 2022-02-16 . Mientras tanto, han comenzado campañas en otros países, sobre todo en Canadá con la campaña La violación no es una broma (RINJ), que no solo ha hecho una campaña feroz sino que también ha elaborado un video de YouTube.
  51. ^ "Facebook se niega a eliminar las 'páginas de violación' vinculadas a jóvenes australianas y británicas". Albuquerque Express . 23 de octubre de 2011. Archivado desde el original el 18 de mayo de 2013 . Consultado el 22 de mayo de 2012 .
  52. ^ "Facebook se niega a eliminar las 'páginas de violación' vinculadas a jóvenes australianos y británicos". International Business Times . 18 de octubre de 2011. Archivado desde el original el 17 de julio de 2012 . Consultado el 22 de mayo de 2012 . O'Brien dijo que la campaña ahora se centra en los anunciantes de Facebook que les dicen que no permitan que sus anuncios se publiquen en las "páginas de violación".
  53. ^ Sara C Nelson (28 de mayo de 2013). "#FBrape: ¿Facebook prestará atención a la carta abierta de protesta por el 'apoyo a la violación y la violencia doméstica'?". The Huffington Post UK . Archivado desde el original el 1 de julio de 2018. Consultado el 29 de mayo de 2013 .
  54. ^ Rory Carroll (29 de mayo de 2013). «Facebook da paso a una campaña contra el discurso de odio en sus páginas». The Guardian UK . Londres. Archivado desde el original el 20 de agosto de 2013. Consultado el 29 de mayo de 2013 .
  55. ^ "La NSPCC critica a Facebook por el vídeo en el que se ve a un bebé pateándose". BBC News . 5 de junio de 2015. Archivado desde el original el 16 de febrero de 2022 . Consultado el 16 de febrero de 2022 .
  56. ^ "Facebook no eliminó imágenes sexualizadas de niños". BBC News . 7 de marzo de 2017. Archivado desde el original el 8 de marzo de 2017 . Consultado el 9 de marzo de 2017 .
  57. ^ "Los diputados cuestionan a Facebook, Twitter y Google por su discurso de odio". BBC News . 14 de marzo de 2017. Archivado desde el original el 7 de enero de 2021 . Consultado el 14 de marzo de 2017 .
  58. ^ Hitt, Tarpley (24 de febrero de 2021). "Facebook, un semillero de 'material sobre abuso sexual infantil' con 20,3 millones de denuncias, mucho más que Pornhub". The Daily Beast . Archivado desde el original el 6 de marzo de 2024. Consultado el 23 de agosto de 2021 .
  59. ^ Layug, Margaret Claire (3 de julio de 2017). «Grupos de Facebook del 'Pastor Hokage' intercambian fotos lascivas de mujeres expuestas». GMA News . Archivado desde el original el 9 de julio de 2017. Consultado el 8 de julio de 2017 .
  60. ^ Layug, Margaret Claire (5 de julio de 2017). "Víctima de 'Pastor' FB denuncia acoso, propuestas indecentes". GMA News . Archivado desde el original el 12 de julio de 2017. Consultado el 8 de julio de 2017 .
  61. ^ De Jesus, Julliane Love (6 de julio de 2017). "Hontiveros quiere sanciones severas contra los grupos de Facebook del 'Pastor Hokage'". Philippine Daily Inquirer . Archivado desde el original el 6 de julio de 2017. Consultado el 8 de julio de 2017 .
  62. ^ "INFORME DE FACEBOOK CONCLUYE QUE LA CENSURA DE LA EMPRESA VIOLO LOS DERECHOS HUMANOS DE PALESTINOS". The Intercept . Archivado desde el original el 21 de septiembre de 2022 . Consultado el 21 de septiembre de 2022 .
  63. ^ "Cuando se trata de incitación, ¿Facebook está sesgado contra Israel? – Conflicto árabe-israelí – Jerusalem Post". The Jerusalem Post . Archivado desde el original el 7 de diciembre de 2018. Consultado el 16 de diciembre de 2018 .
  64. ^ "Facebook endurece su política publicitaria tras la controversia de un 'odiador de judíos' — J". Jweekly.com . Agencia Telegráfica Judía. 27 de septiembre de 2016. Archivado desde el original el 29 de septiembre de 2017 . Consultado el 29 de septiembre de 2017 .
  65. ^ Gagliardo-Silver, Victoria (29 de marzo de 2019). «Instagram se niega a eliminar la publicación antisemita de Alex Jones». The Independent . Archivado desde el original el 30 de marzo de 2019. Consultado el 30 de marzo de 2019 .
  66. ^ «20.000 israelíes demandan a Facebook por ignorar la incitación palestina». The Times of Israel . 27 de octubre de 2015. Archivado desde el original el 2 de febrero de 2021. Consultado el 15 de julio de 2016 .
  67. ^ "Israel: Zuckerberg de Facebook tiene sangre de adolescente israelí asesinado en sus manos". The Times of Israel . 2 de julio de 2016. Archivado desde el original el 8 de febrero de 2021. Consultado el 15 de julio de 2016 .
  68. ^ ab Wittes, Benjamin; Bedell, Zoe (12 de julio de 2016). "Facebook, Hamas y por qué una nueva demanda por apoyo material podría tener futuro". Lawfare . Archivado desde el original el 13 de enero de 2024 . Consultado el 23 de febrero de 2024 .
  69. ^ abc Pileggi, Tamar (11 de julio de 2016). "Víctimas del terrorismo en Estados Unidos piden a Facebook 1.000 millones de dólares por publicaciones sobre Hamás". The Times of Israel . Archivado desde el original el 14 de julio de 2016. Consultado el 15 de julio de 2016 .
  70. ^ Dolmetsch, Chris (31 de julio de 2019). "Facebook no es responsable como plataforma terrorista, dice el tribunal". Bloomberg. Archivado desde el original el 31 de julio de 2019. Consultado el 7 de agosto de 2019 .
  71. ^ "Facebook rechaza apelación que afirma que colaboró ​​en los ataques de Hamás". Law360 . 31 de julio de 2019. Archivado desde el original el 6 de agosto de 2019 . Consultado el 6 de agosto de 2019 .
  72. ^ "Hezbolá creó células terroristas palestinas en Facebook, dice Israel tras redada". Agencia Telegráfica Judía. 16 de agosto de 2016. Archivado desde el original el 17 de agosto de 2016 . Consultado el 17 de agosto de 2016 .
  73. ^ Zitun, Yoav (16 de agosto de 2016). «Shin Bet atrapa una célula de reclutamiento de Hezbolá en Cisjordania». Ynet News. Archivado desde el original el 17 de agosto de 2016. Consultado el 17 de agosto de 2016 .
  74. ^ Gross, Judah Ari (16 de agosto de 2016). «El Shin Bet desmantela células terroristas de Hezbolá creadas a través de Facebook en Cisjordania e Israel». The Times of Israel . Archivado desde el original el 17 de agosto de 2016. Consultado el 17 de agosto de 2016 .
  75. ^ "La policía israelí arresta a un cantante e influencer palestino por incitar al odio". The Jerusalem Post | JPost.com . 2023-10-17. Archivado desde el original el 2023-10-17 . Consultado el 2023-10-17 .
  76. ^ "La Knesset aprueba el proyecto de ley sobre Facebook en votación preliminar". The Times of Israel . 20 de julio de 2016. Archivado desde el original el 27 de agosto de 2016. Consultado el 24 de julio de 2016 .
  77. ^ Lecher, Colin (15 de junio de 2017). «Facebook dice que quiere ser un lugar hostil para los terroristas». The Verge . Archivado desde el original el 26 de junio de 2017. Consultado el 16 de junio de 2017 .
  78. ^ "Facebook utiliza inteligencia artificial para luchar contra el terrorismo". CBS News . 15 de junio de 2017. Archivado desde el original el 15 de junio de 2017 . Consultado el 16 de junio de 2017 .
  79. ^ Solon, Olivia (16 de junio de 2017). «Revelado: Facebook expuso identidades de moderadores a presuntos terroristas». The Guardian . Archivado desde el original el 17 de junio de 2017. Consultado el 18 de junio de 2017 .
  80. ^ Wong, Joon Ian (16 de junio de 2017). «Los trabajadores que vigilan el contenido terrorista en Facebook fueron expuestos a los terroristas por Facebook». Quartz . Archivado desde el original el 17 de junio de 2017. Consultado el 18 de junio de 2017 .
  81. ^ Shahani, Aarti (17 de noviembre de 2016). "Del discurso de odio a las noticias falsas: la crisis de contenido que enfrenta Mark Zuckerberg". NPR. Archivado desde el original el 16 de febrero de 2022. Consultado el 16 de febrero de 2022 .
  82. ^ Shahani, Aarti. Zuckerberg niega que las noticias falsas en Facebook hayan tenido impacto en las elecciones. Washington: NPR, 2016. ProQuest.
  83. ^ Kravets, David. Facebook y Google buscan acabar con el flujo de dinero de los sitios de noticias falsas. Nueva York: Condé Nast Publications, Inc., 2016. ProQuest. Web. 5 de diciembre de 2016.
  84. ^ Kravets, David. Facebook y Google buscan acabar con el flujo de dinero de los sitios de noticias falsas. Nueva York: Condé Nast Publications, Inc., 2016. ProQuest. Web. 6 de diciembre de 2016.
  85. ^ Newitz, Annalee. Facebook despide a editores humanos y un algoritmo publica noticias falsas de inmediato. Nueva York: Condé Nast Publications, Inc., 2016. ProQuest. Web. 6 de diciembre de 2016.
  86. ^ Burke, Samuel (19 de noviembre de 2016). «Zuckerberg: Facebook desarrollará herramientas para luchar contra las noticias falsas». CNN Money . Archivado desde el original el 8 de noviembre de 2020. Consultado el 22 de noviembre de 2016 .
  87. ^ Jamieson, Amber; Solon, Olivia (15 de diciembre de 2016). «Facebook comenzará a marcar las noticias falsas en respuesta a las crecientes críticas». The Guardian . Archivado desde el original el 24 de marzo de 2022. Consultado el 7 de abril de 2022 .
  88. ^ ab Levin, Sam (13 de diciembre de 2018). "'No les importa': la verificación de datos en Facebook se descontrola mientras los periodistas presionan para cortar vínculos". The Guardian . San Francisco. Archivado desde el original el 22 de marzo de 2022 . Consultado el 7 de abril de 2022 .
  89. ^ Levin, Sam (16 de mayo de 2017). «Facebook prometió abordar las noticias falsas, pero la evidencia muestra que no está funcionando». The Guardian . Archivado desde el original el 28 de marzo de 2022. Consultado el 7 de abril de 2022 .
  90. ^ Safi, Michael; Perera, Amantha (7 de marzo de 2018). «Sri Lanka bloquea las redes sociales mientras continúa la violencia letal». The Guardian . Archivado desde el original el 11 de enero de 2022. Consultado el 28 de enero de 2022 .
  91. ^ ab Safi, Michael (14 de marzo de 2018). «Sri Lanka acusa a Facebook de incitar al odio tras los disturbios mortales». The Guardian . Archivado desde el original el 16 de febrero de 2022. Consultado el 28 de enero de 2022 .
  92. ^ Taub, Amanda; Fisher, Max (21 de abril de 2018). «Where Countries Are Tinderboxes and Facebook Is a Match» (Los países son polvorines y Facebook es un fósforo). The New York Times . Archivado desde el original el 28 de noviembre de 2018. Consultado el 28 de noviembre de 2018 .
  93. ^ Ellis-Petersen, Hannah (21 de abril de 2019). «Las redes sociales se cierran en Sri Lanka en un intento de frenar la desinformación». The Guardian . Archivado desde el original el 7 de abril de 2022. Consultado el 7 de abril de 2022 .
  94. ^ Darcy, Oliver (26 de octubre de 2019). «Facebook News se lanza con Breitbart como fuente». CNN . Archivado desde el original el 26 de octubre de 2019. Consultado el 20 de junio de 2021 .
  95. ^ Robertson, Adi (25 de octubre de 2019). «Mark Zuckerberg tiene dificultades para explicar por qué Breitbart debería estar en Facebook News». The Verge . Archivado desde el original el 26 de octubre de 2019. Consultado el 20 de junio de 2021 .
  96. ^ Wong, Julia Carrie (25 de octubre de 2019). «Facebook incluye a Breitbart en la nueva pestaña de noticias de «alta calidad»». The Guardian . Archivado desde el original el 25 de octubre de 2019. Consultado el 20 de junio de 2021 .
  97. ^ ab Hagey, Keach; Horwitz, Jeff (24 de octubre de 2021). "Los foros de chat internos de Facebook muestran que la política suele ser el centro de la toma de decisiones". The Wall Street Journal . ISSN  0099-9660. Archivado desde el original el 3 de diciembre de 2021 . Consultado el 11 de diciembre de 2021 .
  98. ^ Feinberg, Andrew (25 de octubre de 2021). «Facebook protegió a Breitbart para evitar enfadar a Trump, revelan nuevas filtraciones». The Independent . Archivado desde el original el 25 de octubre de 2021. Consultado el 11 de diciembre de 2021 .
  99. ^ Turvill, William (18 de febrero de 2021). «Ganancias de la propaganda: Facebook se lleva dinero de China para promover la desinformación uigur». Press Gazette . Archivado desde el original el 26 de febrero de 2021. Consultado el 27 de febrero de 2021 .
  100. ^ "Investigadores de la ONU citan el papel de Facebook en la crisis de Myanmar". Reuters . 12 de marzo de 2018. Archivado desde el original el 17 de febrero de 2022. Consultado el 17 de febrero de 2022 en www.reuters.com.
  101. ^ "En Myanmar, Facebook lucha contra un aluvión de desinformación". The Economist . ISSN  0013-0613. Archivado desde el original el 27 de octubre de 2020 . Consultado el 27 de octubre de 2020 .
  102. ^ "Informe de la misión internacional independiente de investigación sobre Myanmar" (PDF) . Archivado (PDF) desde el original el 5 de septiembre de 2018. Consultado el 16 de febrero de 2022 .
  103. ^ ab Cosentino, Gabriella Cianciolo. Las redes sociales y el orden mundial de la posverdad: la dinámica global de la desinformación. Palgrave Macmillan, 2020.
  104. ^ Stecklow, Steve. "Por qué Facebook está perdiendo la guerra contra el discurso de odio en Myanmar". Reuters . Archivado desde el original el 7 de noviembre de 2018. Consultado el 15 de diciembre de 2018 .
  105. ^ "Facebook prohíbe cuentas militares de Myanmar por 'permitir abusos de derechos humanos'". Social.techcrunch.com . 27 de agosto de 2018. Archivado desde el original el 9 de diciembre de 2018. Consultado el 15 de diciembre de 2018 .
  106. ^ "Algunos en Myanmar temen las consecuencias de la eliminación de páginas militares por parte de Facebook". Radio Free Asia . Archivado desde el original el 29 de marzo de 2019 . Consultado el 15 de diciembre de 2018 .
  107. ^ "Facebook elimina más páginas y grupos vinculados al ejército de Myanmar". Radio Free Asia . Archivado desde el original el 20 de diciembre de 2018. Consultado el 30 de enero de 2019 .
  108. ^ Scott, Liam (4 de agosto de 2022). «La junta de Myanmar lanza propaganda a la población desde helicópteros». Coda Media . Archivado desde el original el 7 de agosto de 2022. Consultado el 7 de agosto de 2022 .
  109. ^ Frankel, Rafael (12 de febrero de 2021). "Actualización sobre la situación en Myanmar". Meta . Archivado desde el original el 17 de febrero de 2021 . Consultado el 7 de agosto de 2022 .
  110. ^ Gilbert, David (7 de diciembre de 2021). «'Crecimiento impulsado por el odio': Facebook demandado por 150.000 millones de dólares por el genocidio en Myanmar». Vice News . Archivado desde el original el 8 de diciembre de 2021 . Consultado el 13 de diciembre de 2021 .
  111. ^ "Refugiados rohingya apoyados por Victim Advocates International contra Facebook". OECD Watch . Archivado desde el original el 2023-03-21 . Consultado el 2023-03-21 .
  112. ^ silicon (23 de noviembre de 2022). "Tu tecnología, nuestras lágrimas: los activistas rohinyá piden a Facebook que remedie su papel en las atrocidades". Silicon Republic . Archivado desde el original el 21 de marzo de 2023. Consultado el 21 de marzo de 2023 .
  113. ^ "Myanmar: Los sistemas de Facebook promovieron la violencia contra los rohinyás; Meta debe reparaciones, según un nuevo informe". Amnistía Internacional . 2022-09-29. Archivado desde el original el 2023-03-21 . Consultado el 2023-03-21 .
  114. ^ abc "Estudiantes indonesios desalojan a rohingya de un refugio y exigen su deportación". Al Jazeera . Archivado desde el original el 2023-12-27 . Consultado el 2023-12-27 .
  115. ^ Liputan6.com (27 de diciembre de 2023). "Ratusan Mahasiswa di Banda Aceh Gelar Demostración Tolak Rohingya". liputan6.com (en indonesio). Archivado desde el original el 27 de diciembre de 2023 . Consultado el 27 de diciembre de 2023 .{{cite web}}: CS1 maint: numeric names: authors list (link)
  116. ^ Sawyeddollah, Maung. "Facebook debería pagar por lo que le hizo a mi pueblo, los rohingya". Al Jazeera . Archivado desde el original el 28 de diciembre de 2023. Consultado el 28 de diciembre de 2023 .
  117. ^ "Etiqueta 'Persona eminente' en Facebook para el convicto Ajay Chautala". 17 de diciembre de 2018. Archivado desde el original el 30 de noviembre de 2019. Consultado el 16 de febrero de 2022 .
  118. ^ ab Beckett, Lois (27 de marzo de 2019). «Facebook prohibirá el contenido sobre nacionalismo blanco y separatismo». The Guardian . Archivado desde el original el 27 de marzo de 2019. Consultado el 28 de marzo de 2019 .
  119. ^ Dearden, Lizzie (24 de marzo de 2019). «Se permite que los grupos neonazis permanezcan en Facebook porque 'no violan las normas de la comunidad'». The Independent . Archivado desde el original el 19 de octubre de 2021. Consultado el 28 de marzo de 2019 .
  120. ^ "Facebook condenado por albergar una red neonazi con vínculos con el Reino Unido". The Guardian . 22 de noviembre de 2020. Archivado desde el original el 14 de febrero de 2021 . Consultado el 31 de enero de 2021 .
  121. ^ Lee Y, Blanchard B (3 de marzo de 2020). «La 'provocadora' China presiona a Taiwán con aviones de combate y noticias falsas en medio del brote del virus». Reuters . Archivado desde el original el 5 de marzo de 2020. Consultado el 5 de marzo de 2020 ."Nos han ordenado que rastreemos si los orígenes están vinculados a instrucciones dadas por el Partido Comunista, utilizando todos los medios posibles", dijo el funcionario, y agregó que las autoridades habían aumentado el escrutinio en las plataformas en línea, incluidas las salas de chat.
  122. ^ "Circula en Internet un bulo que dice que un viejo libro de texto indio enumera tratamientos para la COVID-19". AFP Fact Check . 9 de abril de 2020. Archivado desde el original el 8 de marzo de 2021 . Consultado el 23 de febrero de 2024 .
  123. ^ "¿La solución salina mata al coronavirus chino? Los expertos refutan los rumores en línea". AFP Fact Check . 24 de enero de 2020. Archivado desde el original el 1 de abril de 2020 . Consultado el 9 de abril de 2020 .
  124. ^ 武漢肺炎疫情謠言多 事實查核中心指3大共同點 [Hay muchos rumores sobre la epidemia de neumonía de Wuhan, el centro de verificación de datos señala 3 puntos en común] (en chino (Taiwán)). Agencia Central de Noticias . 26 de febrero de 2020. Archivado desde el original el 11 de marzo de 2020 . Consultado el 23 de febrero de 2024 .
  125. ^ "Brote de virus: trolls chinos denunciados por difundir noticias falsas". Taipei Times . 28 de febrero de 2020. Archivado desde el original el 1 de marzo de 2020 . Consultado el 12 de marzo de 2020 .
  126. ^ "Taiwán acusa a China de librar una 'guerra' cibernética para interrumpir la lucha contra el virus". Reuters . 29 de febrero de 2020. Archivado desde el original el 1 de marzo de 2020 . Consultado el 12 de marzo de 2020 .
  127. ^ Rougerie, Pablo (17 de abril de 2020). «Un vídeo viral promueve la hipótesis no sustentada de que el SARS-CoV-2 es un virus creado mediante bioingeniería y liberado en un laboratorio de investigación de Wuhan». Feedback científico . Feedback sanitario. Archivado desde el original el 16 de septiembre de 2024. Consultado el 16 de septiembre de 2024 .
  128. ^ "Falso titular: Profesor de Harvard arrestado por crear y vender el nuevo coronavirus a China". Reuters . 7 de abril de 2020. Archivado desde el original el 5 de febrero de 2021 . Consultado el 23 de febrero de 2024 .
  129. ^ "Verificación de hechos: ¿Un investigador estadounidense fabricó y vendió el Covid-19 a China?". Deccan Herald . 11 de agosto de 2020. Archivado desde el original el 13 de febrero de 2021 . Consultado el 23 de febrero de 2024 .
  130. ^ "Facebook 'sigue ganando dinero con los sitios antivacunas'". The Guardian . 30 de enero de 2021. Archivado desde el original el 31 de enero de 2021 . Consultado el 31 de enero de 2021 .
  131. ^ Wong, Julia Carrie (10 de abril de 2020). «Los gigantes tecnológicos luchan por frenar la 'infodemia' de afirmaciones falsas sobre el coronavirus». The Guardian . ISSN  0261-3077. Archivado desde el original el 7 de mayo de 2020. Consultado el 31 de enero de 2021 .
  132. ^ Callery, James; Goddard, Jacqui (23 de agosto de 2021). "El enlace más visitado en Facebook difundió dudas sobre la vacuna contra la COVID". The Times . ISSN  0140-0460. Archivado desde el original el 29 de septiembre de 2022 . Consultado el 21 de marzo de 2022 .
  133. ^ Fellet, Joao; Pamment, Charlotte (27 de febrero de 2021). «Parcelas de selva amazónica vendidas a través de anuncios de Facebook Marketplace». BBC . Archivado desde el original el 27 de febrero de 2021 . Consultado el 27 de febrero de 2021 .
  134. ^ Jackson, Jasper; Kassa, Lucy; Townsend, Mark (20 de febrero de 2022). «Facebook «permite a los vigilantes de Etiopía incitar a los asesinatos étnicos»». The Guardian . Archivado desde el original el 12 de octubre de 2022. Consultado el 21 de febrero de 2022 .
  135. ^ Hern, Alex (14 de diciembre de 2022). «Meta enfrenta una demanda de 1.600 millones de dólares por publicaciones en Facebook que incitan a la violencia en la guerra de Tigray». The Guardian . Archivado desde el original el 16 de diciembre de 2022 . Consultado el 16 de diciembre de 2022 .