stringtranslate.com

Discurso de odio en línea

El discurso de odio en línea es un tipo de discurso que tiene lugar en línea con el propósito de atacar a una persona o un grupo por su raza , religión , origen étnico , orientación sexual , discapacidad y/o género . [1] El discurso de odio en línea no se define fácilmente, pero puede reconocerse por la función degradante o deshumanizante que cumple. [2] [3]

Los tratados multilaterales , como el Pacto Internacional de Derechos Civiles y Políticos (PIDCP), han tratado de definir sus contornos. Los procesos de múltiples partes interesadas (por ejemplo, el Plan de Acción de Rabat ) han intentado aportar mayor claridad y han sugerido mecanismos para identificar mensajes de odio. Los organismos nacionales y regionales han tratado de promover interpretaciones del término que estén más arraigadas en las tradiciones locales . [3]

La velocidad y el alcance de Internet dificultan que los gobiernos hagan cumplir la legislación nacional en el mundo virtual . Las redes sociales son un espacio privado para la expresión pública, lo que se lo pone difícil a los reguladores. Algunas de las empresas propietarias de estos espacios se han vuelto más receptivas a la hora de abordar el problema del discurso de odio en línea. [3]

Definiciones

El discurso del odio

El concepto de discurso de odio toca el choque entre la libertad de expresión y los derechos individuales, colectivos y de las minorías , así como los conceptos de dignidad , libertad e igualdad . No se define fácilmente pero se puede reconocer por su función. [3]

In national and international legislation, hate speech refers to expressions that advocate incitement to harm, including acts of discrimination, hostility, radicalization, verbal and/or physical violence, based upon the targets' social and/or demographic identity. Hate speech may include, but is not limited to, speech that advocates, threatens, or encourages violent acts. The concept may extend also to expressions that foster a climate of prejudice and intolerance on the assumption that this may fuel targeted discrimination, hostility, and violent attacks. At critical times, such as during political elections, the concept of hate speech may be prone to manipulation; accusations of instigating hate speech may be traded among political opponents or used by those in power to curb dissent and criticism. Hate speech (be it conveyed through text, images, and/or sound) can be identified by approximation through the degrading or dehumanizing functions that it serves.[2][3]

Legal scholar and political theorist Jeremy Waldron argues that hate speech always contains two messages: first, to let members of the out-group feel unwelcome or afraid; and second, to let members of the in-group feel that their hateful beliefs are legitimate.[4]

Characteristics of online hate speech

The proliferation of hate speech online, observed by the UN Human Rights Council Special Rapporteur on Minority Issues poses a new set of challenges.[5] Both social networking platforms and organizations created to combat hate speech have recognized that hateful messages disseminated online are increasingly common and have elicited unprecedented attention to develop adequate responses.[6] According to HateBase, a web-based application that collects instances of hate speech online worldwide, the majority of cases of hate speech target individuals based on ethnicity and nationality, but incitements to hatred focusing on religion and social class have also been on the rise.[7]

While hate speech online is not intrinsically different from similar expressions found offline, there are peculiar challenges unique to online content and its regulation. Those challenges related to its permanence, itinerancy, anonymity and complex cross-jurisdictional character.

Permanence

El discurso de odio puede permanecer en línea durante mucho tiempo en diferentes formatos en múltiples plataformas, que pueden vincularse repetidamente. Como ha señalado Andre Oboler, director ejecutivo del Online Hate Prevention Institute , "Cuanto más tiempo permanezca disponible el contenido, más daño puede infligir a las víctimas y empoderar a los perpetradores. Si elimina el contenido en una etapa temprana, puede limitar "La exposición. Esto es como limpiar la basura, no impide que la gente la tire, pero si no se soluciona el problema, simplemente se acumula y se agrava aún más". [8] Las conversaciones de Twitter organizadas en torno a temas de actualidad pueden facilitar la difusión rápida y amplia de mensajes de odio, [9] pero también ofrecen la oportunidad a oradores influyentes de evitar mensajes y posiblemente poner fin a hilos populares que incitan a la violencia . Facebook , por el contrario, puede permitir que múltiples hilos continúen en paralelo y pasen desapercibidos; creando espacios más duraderos que ofenden, discriminan y ridiculizan a ciertos individuos y grupos. [3]

itinerancia

El discurso de odio en línea puede ser itinerante. Incluso cuando se elimina el contenido, este puede encontrar expresión en otros lugares, posiblemente en la misma plataforma con un nombre diferente o en diferentes espacios en línea. Si se cierra un sitio web , puede reabrirse rápidamente utilizando un servicio de alojamiento web con regulaciones menos estrictas o mediante la reasignación a un país con leyes que imponen un umbral más alto para el discurso de odio. La naturaleza itinerante del discurso de odio también significa que pensamientos mal formulados, o comportamientos bajo la influencia, que no habrían encontrado expresión y apoyo públicos en el pasado, ahora pueden aterrizar en espacios donde pueden ser visibles para grandes audiencias. [3]

Anonimato

El anonimato también puede presentar un desafío a la hora de abordar el discurso de odio en línea. Las discusiones en Internet pueden ser anónimas o seudónimas , lo que puede hacer que las personas se sientan más seguras al expresar sus opiniones, pero con la misma facilidad pueden acelerar el comportamiento destructivo. [10] Como ha declarado Drew Boyd, Director de Operaciones de The Sentinel Project , "Internet otorga a las personas la capacidad de decir cosas horribles porque piensan que no serán descubiertas. Esto es lo que hace que el discurso de odio en línea sea tan único, porque las personas "Se sienten mucho más cómodos hablando de odio que en la vida real cuando tienen que lidiar con las consecuencias de lo que dicen". [11] China y Corea del Sur aplican políticas de nombres reales para las redes sociales . Facebook , LinkedIn y Quora han buscado activar un sistema de nombres reales para tener más control sobre el discurso de odio en línea. Estas medidas han sido profundamente cuestionadas porque se considera que violan el derecho a la privacidad y su intersección con la libre expresión.

Muchos casos de discurso de odio en línea son publicados por "trolls" de Internet , que suelen ser usuarios seudónimos que publican contenido impactante, vulgar y, en general, falso, con la intención explícita de desencadenar una reacción negativa, aunque también puede tener la intención de influir o reclutar al lector. a sus creencias, si comparten la misma opinión. [12] Las redes sociales también han proporcionado una plataforma para que grupos políticos o religiosos radicales y extremistas se formen, establezcan redes y colaboren para difundir sus mensajes antisistema y anticorrección política, y promover creencias e ideologías racistas , anti- feminista , homofóbica , transfóbica , etc. [13] La comunicación en línea totalmente anónima es rara, ya que requiere que el usuario emplee medidas altamente técnicas para garantizar que no puedan ser identificados fácilmente. [3]

Difusión interjurisdiccional

Una complicación adicional es el alcance transnacional de Internet , lo que plantea cuestiones de cooperación interjurisdiccional con respecto a los mecanismos legales para combatir el discurso de odio. Si bien existen tratados de asistencia jurídica mutua en vigor en Europa , Asia y América del Norte , estos suelen tardar en funcionar. El alcance transnacional de muchos intermediarios de Internet del sector privado puede proporcionar un canal más eficaz para resolver problemas en algunos casos, aunque estos organismos también suelen verse afectados por apelaciones de datos entre jurisdicciones (como la revelación de la identidad de los autores) de un contenido particular). [3] Las diferentes jurisdicciones también tienen definiciones únicas para el discurso de odio, lo que dificulta procesar a los perpetradores que puedan buscar refugio en jurisdicciones menos estrictas. [14]

A diferencia de la difusión del discurso de odio a través de canales convencionales, las víctimas del discurso de odio en línea pueden enfrentar dificultades para saber a quién deben acudir para ayudar, ya que la plataforma, las autoridades locales y las autoridades locales de la persona o personas que utilizan el discurso de odio, Es posible que todos sientan que el tema no cae dentro de su jurisdicción, incluso cuando existen políticas y leyes sobre discurso de odio. Las organizaciones no gubernamentales y los grupos de presión han estado creando conciencia y animando a las diferentes partes interesadas a actuar. [3]

Inteligencia artificial

Algunas empresas de tecnología, como Facebook , utilizan sistemas de Inteligencia Artificial (IA) para monitorear el discurso de odio. [15] Sin embargo, es posible que la IA no siempre sea una forma eficaz de monitorear el discurso de odio, ya que los sistemas carecen de las habilidades de juicio que tienen los humanos. [16] Por ejemplo, un usuario puede publicar o comentar algo que se clasifique como discurso de odio o viole las pautas de la comunidad, pero si la palabra objetivo está mal escrita o algunas letras se reemplazan con símbolos, los sistemas de inteligencia artificial no lo reconocerán. Esta debilidad ha llevado a la proliferación de intentos de eludir los algoritmos de censura utilizando errores ortográficos deliberados, como el uso de "vachscenes" en lugar de "vacunas" por parte de personas que dudan sobre las vacunas durante el COVID-19 . [17] Por lo tanto, los humanos todavía tienen que monitorear los sistemas de inteligencia artificial que monitorean el discurso de odio; un problema común en la tecnología de IA que se conoce como "Última milla de la automatización", [16] lo que significa que el último 10 % o 1 % del trabajo es el más difícil de completar.

Marcos

Precedente del Frente de Tormenta

Tras los incidentes de terrorismo islámico de 2014 , son comunes los pedidos de medidas más restrictivas o intrusivas para contener el potencial de Internet para difundir el odio y la violencia, como si los vínculos entre la violencia en línea y fuera de línea fueran bien conocidos. Por el contrario, como indica el siguiente ejemplo, las apariencias muchas veces engañan. Stormfront es considerado el primer "sitio web de odio". [18] Lanzado en marzo de 1995 por un ex líder del Ku Klux Klan , rápidamente se convirtió en un espacio popular para discutir ideas relacionadas con el neonazismo , el nacionalismo blanco y el separatismo blanco , primero en los Estados Unidos de América y luego a nivel mundial. [19] Los anfitriones del foro piden una guerra santa racial y la incitación al uso de la violencia para resistir la inmigración . [19] y se considera un espacio para reclutar activistas y posiblemente coordinar actos violentos. [20] Los pocos estudios que han explorado las identidades de Stormfront en realidad representan una imagen más compleja. En lugar de verlo como un espacio para coordinar acciones. Conocidos activistas de extrema derecha acusaron al foro de ser sólo una reunión de " guerreros del teclado ". Uno de ellos, por ejemplo, según lo informado por De Koster y Houtman, afirmó: "He leído bastantes artículos en el foro y me sorprende que se arma mucho alboroto, mientras que poco sucede. La sección activismo/política en sí es simplemente ridículo. [...] Por no hablar de las asambleas a las que sólo acuden cuatro personas." [21] Aún más reveladoras son algunas de las respuestas a estas acusaciones proporcionadas por miembros habituales del sitio web. Como argumentó uno de ellos: "Seguramente tengo derecho a tener una opinión sin llevarla a cabo activamente. [...] No asisto a manifestaciones ni me uno a ningún partido político. Si esto me convierte en un guerrero del teclado, eso es Está bien. Me siento bien así. [...] No me avergüenzo de ello". [21] De Koster y Houtman encuestaron solo un capítulo nacional de Stormfront y una muestra no representativa de usuarios, pero respuestas como las anteriores deberían al menos invitar a ser cautelosos ante las hipótesis que conectan expresiones y acciones, incluso en espacios cuya función principal es albergar opiniones extremistas. [3] El Southern Poverty Law Center publicó un estudio en 2014 que encontró que los usuarios del sitio "eran presuntamente responsables de los asesinatos de casi 100 personas en los cinco años anteriores". [22]

Principios Internacionales

El discurso de odio no se menciona explícitamente en muchos documentos y tratados internacionales de derechos humanos , pero sí se invoca indirectamente en algunos de los principios relacionados con la dignidad humana y la libertad de expresión . Por ejemplo, la Declaración Universal de Derechos Humanos (DUDH) de 1948, que fue redactada como respuesta a las atrocidades de la Segunda Guerra Mundial , contiene el derecho a igual protección ante la ley en el artículo 7, que proclama que: "Todos tienen derecho a igual protección contra cualquier discriminación que viole esta Declaración y contra cualquier incitación a tal discriminación." [23] La DUDH también afirma que toda persona tiene derecho a la libertad de expresión, que incluye "la libertad de mantener opiniones sin interferencias y de buscar, recibir y difundir información e ideas a través de cualquier medio y sin consideración de fronteras". [23]

La DUDH fue decisiva a la hora de establecer un marco y una agenda para la protección de los derechos humanos, pero la Declaración no es vinculante . Posteriormente se han creado una serie de documentos vinculantes para ofrecer una protección más sólida de la libertad de expresión y protección contra la discriminación. El Pacto Internacional de Derechos Civiles y Políticos (PIDCP) aborda el discurso de odio y contiene el derecho a la libertad de expresión en el artículo 19 [23] y la prohibición de apología del odio que constituya incitación a la discriminación, la hostilidad o la violencia en el artículo 20. [23 ] Otros instrumentos jurídicos internacionales más adaptados contienen disposiciones que tienen repercusiones en la definición del discurso de odio y la identificación de respuestas al mismo, como: la Convención para la Prevención y la Sanción del Delito de Genocidio (1951), la Convención Internacional para la Eliminación de Todas las Formas de Discriminación Racial , ICERD (1969), y, en menor medida, la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer , CEDAW (1981). [3]

El discurso de odio y el PIDCP

El PIDCP es el instrumento jurídico al que se hace referencia con mayor frecuencia en los debates sobre el discurso de odio y su regulación, aunque no utiliza explícitamente el término "discurso de odio". El artículo 19, al que a menudo se hace referencia como parte del "núcleo del Pacto", [24] establece el derecho a la libertad de expresión. Esto establece el derecho y también incluye restricciones generales a las que debe ajustarse cualquier limitación del derecho para ser legítima. Al artículo 19 le sigue el artículo 20, que limita expresamente la libertad de expresión en casos de "apología del odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia". [25] La decisión de incluir esta disposición, que puede caracterizarse como que incorpora una conceptualización particular del discurso de odio, ha sido profundamente cuestionada. El Comité de Derechos Humanos , el organismo de las Naciones Unidas creado por el Pacto Internacional de Derechos Civiles y Políticos para supervisar su aplicación, consciente de la tensión, ha tratado de subrayar que el artículo 20 es plenamente compatible con el derecho a la libertad de expresión. [26] En el PIDCP, el derecho a la libertad de expresión no es un derecho absoluto. Los estados pueden limitarlo legítimamente en circunstancias restringidas:

"3. El ejercicio de los derechos previstos en el apartado 2 de este artículo conlleva deberes y responsabilidades especiales. Por lo tanto, podrá estar sujeto a ciertas restricciones, pero éstas sólo serán las previstas por la ley y sean necesarias: ) Por el respeto de los derechos o la reputación de otros; (b) Para la protección de la seguridad nacional o del orden público ( orden público ), o de la salud o la moral públicas ." [27]

Entre el artículo 19 (3) y el artículo 20, existe una distinción entre limitaciones opcionales y obligatorias al derecho a la libertad de expresión. El artículo 19 (3) establece que las limitaciones a la libertad de expresión "podrán, por tanto, estar sujetas a ciertas restricciones", siempre que estén previstas por la ley y sean necesarias para ciertos fines legítimos. El artículo 20 establece que toda apología del (cierto tipo de) odio que constituya incitación a la discriminación , la hostilidad o la violencia "estará prohibida por la ley". A pesar de las indicaciones sobre la gravedad de los delitos de expresión que deberían estar prohibidos por ley en virtud del artículo 20, sigue habiendo complejidad. [28] En particular, existe un área gris al conceptualizar distinciones claras entre (i) expresiones de odio, (ii) expresiones que promueven el odio y (iii) discursos de odio que constituyen específicamente una incitación a los daños prácticos de la discriminación, la hostilidad o la violencia. . Si bien los Estados tienen la obligación de prohibir los discursos concebidos como "apología del odio que constituyan incitación a la discriminación, la hostilidad o la violencia", de conformidad con el artículo 20 (2), [29] no está claramente definido cómo interpretarlos. [30]

Otros instrumentos jurídicos internacionales

ICERD

La Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD), que entró en vigor en 1969, también tiene implicaciones para la conceptualización de formas de discurso de odio. La ICERD difiere del PIDCP en tres aspectos. [3] Su conceptualización del discurso de odio se limita específicamente al discurso que se refiere a la raza y el origen étnico . Afirma en el artículo 4, párrafo (a), que los Estados partes:

"Declarará como delito punible por la ley toda difusión de ideas basadas en la superioridad o el odio racial, la incitación a la discriminación racial, así como todos los actos de violencia o incitación a tales actos contra cualquier raza o grupo de personas de otro color u origen étnico. , y también la prestación de cualquier tipo de asistencia a actividades racistas, incluida su financiación; esta obligación impuesta por la ICERD a los Estados partes también es más estricta que el caso del artículo 20 del PIDCP que cubre la criminalización de ideas racistas que no necesariamente incitan a la discriminación. , hostilidad o violencia."

Una diferencia importante está en la cuestión de la intención . El concepto de "defensa del odio" introducido en el PIDCP es más específico que el discurso discriminatorio descrito en la ICERD, ya que se considera que exige la consideración de la intención del autor y no la expresión de forma aislada ; esto se debe a que se interpreta "defensa" en el Pacto Internacional de Derechos Civiles y Políticos exigen la intención de sembrar odio. [31] El Comité para la Eliminación de la Discriminación Racial ha abordado activamente el discurso de odio en su Recomendación General 29, en la que el Comité recomienda a los Estados partes que:

"r) Adoptar medidas contra toda difusión de ideas de superioridad e inferioridad de casta o que intenten justificar la violencia, el odio o la discriminación contra las comunidades basadas en la ascendencia; s) Adoptar medidas estrictas contra toda incitación a la discriminación o la violencia contra las comunidades, incluidas a través de Internet; t) Adopte medidas para concienciar a los profesionales de los medios de comunicación sobre la naturaleza y la incidencia de la discriminación basada en la ascendencia;" [32]

Estos puntos, que reflejan la referencia de la ICERD a la difusión de la expresión, tienen importancia para Internet . La expresión de ideas en algunos contextos en línea puede equivaler inmediatamente a difundirlas. Esto es especialmente relevante para espacios privados que han comenzado a desempeñar un papel público, como es el caso de muchas plataformas de redes sociales . [3]

Convención sobre genocidio

De manera similar a la ICERD, la Convención sobre Genocidio tiene como objetivo proteger a grupos definidos por raza, nacionalidad o etnia, aunque también extiende sus disposiciones a los grupos religiosos. Cuando se trata de discurso de odio, la Convención sobre Genocidio se limita únicamente a actos que inciten públicamente al genocidio , reconocidos como "actos cometidos con la intención de destruir , total o parcialmente, a un grupo nacional, étnico, racial o religioso", independientemente de si tales actos se llevan a cabo en tiempos de paz o de guerra. [3] El discurso de odio específicamente basado en el género (a diferencia de las acciones discriminatorias) no está tratado en profundidad en el derecho internacional . [3]

CEDAW

La Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (CEDAW), que entró en vigor en 1981, impone a los Estados la obligación de condenar la discriminación contra la mujer [33] y "prevenir, investigar, enjuiciar y castigar" actos de discriminación por razones de género. violencia. [34]

Respuestas regionales

La mayoría de los instrumentos regionales no tienen artículos específicos que prescriban la prohibición del discurso de odio, pero en términos más generales permiten a los estados limitar la libertad de expresión, disposiciones que pueden aplicarse a casos específicos. [3]

Convención Americana sobre Derechos Humanos

La Convención Americana sobre Derechos Humanos describe las limitaciones a la libertad de expresión de manera similar al PIDCP en el artículo 19 (3). La Organización de Estados Americanos también ha adoptado otra declaración sobre los principios de la libertad de expresión, que incluye una cláusula específica que establece que "los condicionamientos previos de las expresiones, como la veracidad, oportunidad o imparcialidad , son incompatibles con el derecho a la libertad de expresión reconocido en los tratados internacionales". instrumentos." [35] La Corte Interamericana ha aconsejado que "un abuso de la libertad de información no puede controlarse mediante medidas preventivas sino sólo mediante la posterior imposición de sanciones a quienes sean culpables de los abusos". [36] La Corte también impone una prueba para los Estados que deseen imponer restricciones a la libertad de expresión, ya que deben observar los siguientes requisitos: "a) la existencia de causales de responsabilidad previamente establecidas; b) la definición expresa y precisa de estas motivos establecidos por la ley; c) la legitimidad de los fines que se pretenden alcanzar; d) la demostración de que estos motivos de responsabilidad son 'necesarios para garantizar' los fines antes mencionados". [37] El Sistema Interamericano cuenta con un Relator Especial sobre Libertad de Expresión que realizó un estudio integral sobre el discurso de odio. Concluyó que el Sistema Interamericano de Derechos Humanos difiere del enfoque de las Naciones Unidas y europeo en un punto clave: el sistema Interamericano cubre y restringe el discurso de odio que en realidad conduce a la violencia, y sólo ese discurso puede restringirse. [37]

Carta Africana de Derechos Humanos y Derechos de los Pueblos

The African Charter on Human Rights and Peoples' Rights takes a different approach in Article 9 (2), allowing for restrictions on rights as long as they are "within the law." This concept has been criticized and there is a vast amount of legal scholarship on the so-called "claw-back" clauses and their interpretation.[38] The criticism is mainly aimed at the fact that countries can manipulate their own legislation and weaken the essence of the right to freedom of expression. The Declaration of Principles on Freedom of Expression in Africa elaborates a higher standard for limitations on freedom of expression. It declares that the right "should not be restricted on public order or national security grounds unless there is a real risk of harm to a legitimate interest and there is a close causal link between the risk of harm and the expression."[39]

Cairo Declaration on Human Rights in Islam

In 1990, the Organization of the Islamic Conference (which was later renamed Organization of Islamic Cooperation, OIC) adopted the Cairo Declaration on Human Rights in Islam (CDHRI), which calls for criminalization of speech that extends beyond cases of imminent violence to encompass "acts or speech that denote manifest intolerance and hate."[40]

Arab Charter on Human Rights

The Arab Charter on Human Rights, which was adopted by the Council of the League of Arab States in 2004, includes in Article 32 provisions that are relevant also for online communication as it guarantees the right to "freedom of opinion and expression, and the right to seek, receive and impart information and ideas through any medium, regardless of geographical boundaries."[41] It allows a limitation on a broad basis in paragraph 2 "Such rights and freedoms shall be exercised in conformity with the fundamental values of society."[42]

ASEAN Human Rights Declaration

The ASEAN Human Rights Declaration includes the right to freedom of expression in Article 23. Article 7 of the Declaration provides for general limitations, affirming, "the realization of human rights must be considered in the regional and national context bearing in mind different political, economic, legal, social, cultural, historical and religious backgrounds."[43]

Charter of Fundamental Rights of the European Union

La Carta de Derechos Fundamentales de la Unión Europea que declara el derecho a la libertad de expresión en su artículo 11, tiene una cláusula que prohíbe el abuso de derecho. Afirma que no debe interpretarse que la Carta implica ninguna "limitación mayor que la prevista en ella". [44] Un ejemplo de limitación que implica una prueba estricta de necesidad y proporcionalidad es la disposición sobre libertad de expresión del Convenio Europeo de Derechos Humanos , que subraya que el ejercicio de la libertad de expresión conlleva deberes y responsabilidades. "Podrá estar sujeto a las formalidades, condiciones, restricciones o sanciones prescritas por la ley y que sean necesarias en una sociedad democrática , en interés de la seguridad nacional , la integridad territorial o la seguridad pública , para la prevención del desorden o el delito, para el protección de la salud o la moral, para la protección de la reputación o los derechos de otros, para impedir la divulgación de información recibida confidencialmente o para mantener la autoridad e imparcialidad del poder judicial". [45]

El Tribunal Europeo de Derechos Humanos tiene cuidado en distinguir entre discurso de odio y el derecho de los individuos a expresar sus opiniones libremente, incluso si otros se sienten ofendidos. [46] Hay casos regionales relevantes específicamente para el discurso de odio en línea. En 2000, el Consejo de Europa (CoE) emitió una Recomendación de política general para combatir la difusión de material racista, xenófobo y antisemita a través de Internet. [47] La ​​creación del Convenio del Consejo de Europa sobre Ciberdelincuencia en 2001, que regula la asistencia mutua en materia de poderes de investigación, proporciona a los países signatarios un mecanismo para tratar los datos informáticos , que incluiría el discurso de odio transnacional en línea. [48] ​​En 2003, el Consejo de Europa lanzó un protocolo adicional al Convenio sobre la ciberdelincuencia que aborda la expresión en línea del racismo y la xenofobia. La convención y su protocolo fueron abiertos a la firma y ratificación de países fuera de Europa , y otros países, como Canadá y Sudáfrica , ya forman parte de esta convención. El Protocolo impone a los Estados miembros la obligación de tipificar como delito los insultos racistas y xenófobos en línea contra "i) personas por el hecho de pertenecer a un grupo distinguido por su raza, color, ascendencia u origen nacional o étnico, así como por su religión, si se utilizan como pretexto para cualquiera de estos factores; o (ii) un grupo de personas que se distingue por cualquiera de estas características." [49]

Espacios privados

Los intermediarios de Internet, como las plataformas de redes sociales , los Proveedores de Servicios de Internet o los Motores de Búsqueda , estipulan en sus condiciones de servicio cómo pueden intervenir para permitir, restringir o canalizar la creación y el acceso a contenidos específicos. Una gran cantidad de interacciones en línea ocurren en plataformas de redes sociales que trascienden las jurisdicciones nacionales y cuyas plataformas también han desarrollado sus propias definiciones de discurso de odio y medidas para responder a él. Para un usuario que viola los términos de servicio, el contenido que ha publicado puede eliminarse de la plataforma o su acceso puede restringirse para ser visto sólo por una determinada categoría de usuarios (por ejemplo, usuarios que viven fuera de un país específico). [3]

Los principios que inspiran los acuerdos de términos de servicio y los mecanismos que cada empresa desarrolla para asegurar su implementación tienen importantes repercusiones en la capacidad que tienen las personas para expresarse en línea, así como para estar protegidas del discurso de odio. La mayoría de los intermediarios tienen que entablar negociaciones con los gobiernos nacionales en un grado que varía según el tipo de intermediario, las áreas donde está registrada la empresa y el régimen legal que se aplica. Como explica Tsesis, "si las transmisiones en Internet se envían y reciben en ubicaciones particulares, entonces foros específicos conservan la jurisdicción para procesar las actividades ilegales realizadas en Internet". [3] Los proveedores de servicios de Internet son los más directamente afectados por la legislación nacional porque tienen que estar ubicados en un país específico para operar. Los motores de búsqueda, si bien pueden modificar los resultados de búsqueda por motivos comerciales o de autorregulación, han tendido cada vez más a adaptarse al régimen de responsabilidad de intermediarios tanto de sus jurisdicciones de origen registradas como de otras jurisdicciones en las que prestan sus servicios, ya sea eliminando enlaces a contenidos de forma proactiva o previa solicitud de las autoridades. [50]

También se espera que todos los intermediarios de Internet operados por empresas privadas respeten los derechos humanos . Así se establece en los Principios Rectores sobre Empresas y Derechos Humanos elaborados por la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos . El documento enfatiza la responsabilidad corporativa de respetar los derechos humanos mediante la debida diligencia. En el principio 11, declara que: "Las empresas deben respetar los derechos humanos. Esto significa que deben evitar infringir los derechos humanos de otros y deben abordar los impactos adversos sobre los derechos humanos en los que están involucradas". [51] Los Principios Rectores de las Naciones Unidas también indican que en los casos en que se violan los derechos humanos, las empresas deben "prever o cooperar en su reparación a través de procesos legítimos". [51] En el caso de los intermediarios de Internet y las concepciones del discurso de odio, esto significa que deben garantizar que existan medidas para brindar una respuesta acorde. [3]

Respuestas sociales

Estudios de caso

El Panel de Tendencias Estadounidenses

El Pew Research Center encuestó a más de 10.000 adultos en julio de 2020 para estudiar el efecto de las redes sociales en la política y el activismo por la justicia social . El 23% de los encuestados, que son usuarios adultos de redes sociales, informaron que el contenido de las redes sociales les ha hecho cambiar de opinión, positiva o negativamente, sobre un tema político o de justicia social. [52] El 35% de los encuestados citó el movimiento Black Lives Matter , la reforma policial y/o las relaciones raciales . [52] El 18% de los encuestados informó un cambio de opinión sobre los partidos políticos, las ideologías , los políticos y/o el presidente Donald Trump . [52] El 9 % de los encuestados citó cuestiones de justicia social, como los derechos LGBTQIA+ , el feminismo , la inmigración , etc. [52] El 8 % de los encuestados cambió su opinión sobre la pandemia de COVID-19 y el 10 % citó otras opiniones. [52] Según estos resultados, las redes sociales desempeñan un papel importante a la hora de influir en la opinión pública.

Manipulación de los medios y desinformación en línea

Un estudio realizado por las investigadoras Alice Marwick y Rebecca Lewis observó la manipulación de los medios y exploró cómo la extrema derecha comercializaba, establecía redes y colaboraba para influir en sus creencias controvertidas que podrían haber ayudado a influir en la victoria del presidente Trump en las elecciones de 2016 . A diferencia de los principales medios de comunicación , la extrema derecha no necesita cumplir ninguna regla en lo que respecta a la influencia y no necesita preocuparse por los ratings de las cadenas, las críticas de la audiencia o el sensacionalismo . [53] [ ¿ opinión desequilibrada? ] [ ¿ en comparación con? ] Los grupos de extrema derecha pueden compartir y persuadir a otros de sus creencias controvertidas de manera tan directa y descarada como deseen, en cualquier plataforma, [ ¿ opinión desequilibrada? ] [ ¿ en comparación con? ] que pudo haber jugado un papel en las elecciones de 2016. Aunque el estudio no pudo concluir cuál fue exactamente el efecto en las elecciones, sí proporcionó una investigación exhaustiva sobre las características de la manipulación de los medios y el trolling . [53]

Incitación al odio y elaboración de perfiles lingüísticos en los juegos en línea

La profesora y jugadora Kishonna Gray estudió las opresiones interseccionales en la comunidad de juegos en línea y pidió a Microsoft y a los desarrolladores de juegos "evaluar críticamente las experiencias de los jugadores no tradicionales en las comunidades en línea... reconocer la diversidad ... [y que] la población de jugadores predeterminada están desplegando una blancura y masculinidad hegemónicas en detrimento de los usuarios no blancos y/o no masculinos dentro del espacio". [54] Gray examinó el sexismo y el racismo en la comunidad de juegos en línea . Los jugadores intentan identificar el género, la sexualidad y el origen étnico de sus compañeros de equipo y oponentes a través de perfiles lingüísticos , cuando no se puede ver a los demás jugadores. [54] Debido a la intensa atmósfera de la esfera del juego virtual y a la imposibilidad de no ser vistos, localizados o confrontados físicamente, los jugadores tienden a decir cosas en el juego virtual que probablemente no habrían dicho en un entorno público. Muchos jugadores de comunidades marginadas se han separado de la red global de juegos y se han unido a " clanes ", que consisten únicamente en jugadores del mismo género, sexualidad y/o identidad étnica, para evitar la discriminación mientras juegan. Un estudio encontró que el 78 por ciento de todos los jugadores en línea juegan en "gremios", que son grupos más pequeños de jugadores, similares a los " clanes ". [55] Uno de los " clanes " más notables , Puerto Reekan Killaz, ha creado un espacio de juegos en línea donde las mujeres negras y latinas de la comunidad LGBTQIA+ pueden jugar sin riesgo de racismo , nativismo , homofobia , sexismo y acoso sexual . [54]

Además del discurso de odio, la profesora y jugadora Lisa Nakamura descubrió que muchos jugadores han experimentado turismo de identidad , que es cuando una persona o grupo se apropia y se hace pasar por miembros de otro grupo, ya que Nakamura observó que los jugadores masculinos blancos jugaban como mujeres " geishas " japonesas. [56] El turismo de identidad a menudo conduce a estereotipos , discriminación y apropiación cultural . [56] Nakamura pidió a la comunidad de juegos en línea que reconozca el cibertipo: "la forma en que Internet propaga, difunde y mercantiliza imágenes de raza y racismo". [57]

Retórica antichina empleada por los perpetradores del odio antiasiático

Hasta agosto de 2020, más de 2500 asiático-estadounidenses han informado haber experimentado racismo impulsado por COVID-19 , y el 30,5% de esos casos contienen retórica anti-china, según Stop AAPI (Asian-American/Isleño del Pacífico) Hate . El lenguaje utilizado en estos incidentes se divide en cinco categorías: animosidad virulenta, uso de China como chivo expiatorio , nativismo antiinmigrante , caracterizaciones racistas de los chinos e insultos raciales . El 60,4% de estos incidentes reportados encajan en la categoría de animosidad virulenta, que incluye frases como "¡quítame tu trasero chino!" [58]

Pakistán

El discurso de odio en línea y el acoso cibernético contra minorías religiosas y étnicas , mujeres y otros grupos socialmente marginados han sido durante mucho tiempo una cuestión que se ha minimizado y/o ignorado en la República Islámica de Pakistán . [59] [60] [61] [62]

El discurso de odio contra los áhmadis , tanto en línea [63] como en la vida real [64], ha llevado a su persecución a gran escala . [sesenta y cinco]

BytesForAll , una iniciativa del sur de Asia y un proyecto miembro de APC publicaron un estudio sobre el discurso de odio en línea en Pakistán el 7 de junio de 2014. [66] [67]

La investigación incluyó dos fases independientes:

Según el informe:

Birmania

Internet ha crecido a un ritmo sin precedentes. Myanmar está haciendo una transición hacia una mayor apertura y acceso, lo que genera comentarios negativos en las redes sociales, como el uso de discursos de odio y llamados a la violencia. [68] En 2014, la Relatora Especial del Consejo de Derechos Humanos de la ONU sobre Cuestiones de las Minorías expresó su preocupación por la difusión de información errónea , discursos de odio e incitación a la violencia , la discriminación y la hostilidad en los medios de comunicación e Internet, especialmente dirigidos contra una comunidad minoritaria. [5] La creciente tensión en línea ha ido paralela a casos de violencia real que han dejado cientos de muertos y miles de desplazados. [69] Un desafío en este proceso ha tenido que ver con las minorías étnicas y religiosas. En 2013, 43 personas murieron debido a los enfrentamientos que estallaron tras una disputa en el estado de Rakhine, en la parte occidental del país. [69] Un año antes, más de 200 personas fueron asesinadas y miles fueron desplazadas (37) debido a la violencia étnica, que estalló después de un presunto caso de violación. [70] En este contexto, la rápida aparición de nuevos espacios en línea, aunque para una fracción de la población, ha reflejado algunas de estas tensiones profundamente arraigadas en una nueva forma. [3]

Abordar la intolerancia y el discurso de odio en línea es una cuestión emergente. Facebook se ha convertido rápidamente en la plataforma elegida por aquellos ciudadanos que dan sus primeros pasos en línea. En este ambiente ha habido individuos y grupos, que han abanderado un uso más agresivo del medio, especialmente al sentirse protegidos por un sentido de rectitud y por afirmaciones de estar actuando en defensa del interés nacional . Figuras políticas también han utilizado los medios en línea para causas particulares. En las redes sociales se han utilizado términos despectivos en referencia a las minorías. [71] En esta compleja situación, una variedad de actores han comenzado a movilizarse, buscando ofrecer respuestas que puedan evitar más violencia. Facebook ha tratado de asumir un papel más activo en el seguimiento de los usos de la plataforma de red social en Myanmar, desarrollando asociaciones con organizaciones locales y haciendo que las directrices sobre cómo denunciar problemas sean accesibles en birmano. [72] [3]

La sociedad civil local ha constituido una voz fuerte al condenar abiertamente la difusión del discurso de odio en línea, pero al mismo tiempo pedir alternativas a la censura . Entre las respuestas más innovadoras se encuentra Panzagar, que en birmano significa "discurso floral", una campaña lanzada por el blogger y activista Nay Phone Latt para oponerse abiertamente al discurso de odio. El objetivo de la iniciativa era ofrecer un ejemplo alegre de cómo las personas pueden interactuar, tanto online como offline. [73] Los activistas locales se han centrado en soluciones locales, en lugar de tratar de movilizar a la sociedad civil global sobre estos temas. Esto contrasta con otras campañas en línea que han logrado atraer la atención del mundo hacia problemas relativamente olvidados. Iniciativas como las impulsadas por la Coalición Salvar Darfur para la guerra civil en Sudán , o la organización Niños Invisibles con la campaña Kony2012 que denunció las atrocidades cometidas por el Ejército de Resistencia del Señor , son ejemplos populares. Como lo han señalado los comentarios sobre estas campañas, tales respuestas globales pueden tener repercusiones negativas en la capacidad de encontrar soluciones locales. [74]

Etiopía

2019-2020

La rivalidad étnica de larga data en Etiopía entre los pueblos Oromo y Amhara encontró un campo de batalla en Facebook , lo que generó discursos de odio, amenazas, desinformación y muertes. Facebook no cuenta con verificadores de datos que hablen ninguno de los idiomas dominantes que se hablan en Etiopía ni proporcionan traducciones de las Normas comunitarias, por lo que el discurso de odio en Facebook no se controla en gran medida en Etiopía. En cambio, Facebook depende de los activistas para señalar posibles discursos de odio y desinformación, pero muchos activistas agotados se sienten maltratados. [75]

En octubre de 2019, el activista etíope Jawar Mohammed anunció falsamente en Facebook que la policía iba a detenerlo, alegando tensiones religiosas y étnicas. Esto llevó a la comunidad a protestar por su presunta detención y las tensiones raciales y étnicas, que provocaron más de 70 muertes. [76]

Una campaña de desinformación se originó en Facebook centrada en el popular cantante etíope Hachalu Hundessa , de la etnia Oromo. Los mensajes acusaron a Hundessa de apoyar a su controvertido primer ministro Abiy Ahmed , a quien los nacionalistas oromo rebatieron por atender a otros grupos étnicos. Hundessa fue asesinada en junio de 2020 tras las publicaciones de odio en Facebook, lo que provocó la indignación pública. Los usuarios de Facebook culparon al pueblo amhara por el asesinato de Hundessa sin ninguna evidencia en un largo hilo de contenido de odio. [75] Según The Network Against Hate Speech, muchas publicaciones en Facebook pedían " ataques genocidas contra un grupo étnico o una religión, o ambos al mismo tiempo; y ordenar a las personas que quemaran propiedades de civiles, los mataran brutalmente y los desplazaran". ". [75] La violencia en las calles y en Facebook se intensificó hasta el punto de que el gobierno etíope cerró Internet durante tres semanas. Sin embargo, los países vecinos aún podían publicar y acceder al contenido de odio del asunto, y los activistas voluntarios no podían acceder a Internet para denunciar el discurso de odio. Por eso "hay horas de vídeos procedentes de la comunidad de la diáspora, de contenido extremista, que dicen que tenemos que exterminar a este grupo étnico", según el profesor Endalk Chala de la Universidad Hamline. [75]

Los funcionarios de Facebook se aventuraron a Etiopía para investigar, pero no publicaron sus hallazgos. Facebook anunció que está contratando moderadores que hablen amárico y otros idiomas en Etiopía, pero no proporcionó muchos detalles. [75]

Finales de 2020-2021

El discurso de odio en línea se produjo durante la Guerra de Tigray , en la que el conflicto militar y los crímenes de guerra cometidos por todos los bandos , posiblemente equivalentes a crímenes contra la humanidad , comenzaron en noviembre de 2020. [77] En el discurso de odio en las redes sociales en línea de noviembre de 2021, periodistas, políticos y pro- Activistas del gobierno federal llamaron "traidores" a los tigrayanos étnicos, pidieron a los vecinos que los "eliminen" y pidieron a las autoridades que detengan a los tigrayanos étnicos en "campos de concentración". Se produjeron detenciones masivas de personas de etnia tigray, con justificación legal federal en virtud del estado de emergencia etíope de 2021 . [78]

Compañías privadas

Los intermediarios de Internet han desarrollado definiciones dispares de discurso de odio y directrices para regularlo. Algunas empresas no utilizan el término discurso de odio, pero tienen una lista descriptiva de términos relacionados con él. [3]

Yahoo!

Yahoo! Los términos de servicio de Prohibir la publicación de "contenido que sea ilegal , dañino, amenazante, abusivo, acosador , tortuoso, difamatorio , vulgar, obsceno, calumnioso , invasivo de la privacidad de otra persona, odioso o objetable desde el punto de vista racial, étnico o de otro tipo". [79]

Gorjeo

En diciembre de 2017, Twitter comenzó a aplicar nuevas políticas contra el discurso de odio, prohibiendo múltiples cuentas y estableciendo nuevas pautas sobre lo que se permitirá en su plataforma. [80] Hay una página completa en el Centro de ayuda de Twitter dedicada a describir su Política de conducta de odio, así como sus procedimientos de aplicación. La parte superior de esta página dice: "La libertad de expresión significa poco si las voces se silencian porque la gente tiene miedo de hablar. No toleramos comportamientos que acosen, intimiden o utilicen el miedo para silenciar la voz de otra persona. Si ve algo en Twitter que viola estas reglas, por favor infórmanos." La definición de Twitter de discurso de odio abarca desde "amenazas violentas" y "deseos de daño físico, muerte o enfermedad de individuos o grupos" hasta "insultos, epítetos, tropos racistas y sexistas u otros contenidos repetidos y/o no consensuados que degrada a alguien."

Los castigos por violaciones van desde suspender la capacidad de un usuario de twittear hasta que elimine su publicación ofensiva/de odio hasta la eliminación completa de una cuenta. En un comunicado tras la implementación de sus nuevas políticas, Twitter dijo: "En nuestros esfuerzos por ser más agresivos aquí, podemos cometer algunos errores y estamos trabajando en un proceso de apelación sólido". . . "Evaluaremos y repetiremos estos cambios en los próximos días y semanas, y los mantendremos informados sobre el progreso a lo largo del camino". [81] Estos cambios se producen en un momento en el que se están tomando medidas para prevenir el discurso de odio en todo el mundo, incluidas nuevas leyes en Europa que imponen multas a los sitios que no pueden abordar los informes de discurso de odio en un plazo de 24 horas. [82]

YouTube

YouTube , una filial de la empresa tecnológica Google , permite una fácil distribución y acceso a contenidos para cualquier creador de contenidos, lo que crea oportunidades para que la audiencia acceda a contenidos que se desvían hacia la derecha o hacia la izquierda de la ideología " moderada " común en los principales medios de comunicación . [83] YouTube ofrece incentivos a los creadores de contenido populares, lo que lleva a algunos creadores a optimizar la experiencia de YouTuber y publicar contenido impactante que puede promover ideas extremistas y llenas de odio. [83] [84] La diversidad de contenido y la monetización en YouTube dirigen a una amplia audiencia al contenido potencialmente dañino de los extremistas. [83] [84] YouTube permite a los creadores crear una marca personal, lo que facilita que los suscriptores jóvenes formen una relación parasocial con ellos y actúen como clientes "habituales". [84] En 2019, YouTube desmonetizó las cuentas políticas, [85] pero los creadores de contenido radical todavía tienen sus canales y suscriptores para mantenerlos culturalmente relevantes y financieramente a flote. [84]

YouTube ha delineado una "Política de incitación al odio" clara entre otras políticas de usuario en su sitio web. [86] La política está redactada de la siguiente manera: "Fomentamos la libertad de expresión y tratamos de defender su derecho a expresar puntos de vista impopulares, pero no permitimos el discurso de odio. El discurso de odio se refiere al contenido que promueve la violencia contra o tiene como principal objetivo propósito de incitar al odio contra individuos o grupos basándose en ciertos atributos, tales como: raza u origen étnico, religión, discapacidad, género, edad, condición de veterano, orientación sexual/identidad de género". YouTube ha incorporado un sistema de denuncia de usuarios para contrarrestar la creciente tendencia al discurso de odio. [87] Entre los elementos disuasorios más populares contra el discurso de odio, los usuarios pueden denunciar de forma anónima a otro usuario por contenido que consideren inapropiado. Luego, el contenido se revisa según la política de YouTube y las restricciones de edad, y se elimina o se deja solo.

Facebook

Un mensaje de Facebook mostrado a un usuario cuya cuenta ha sido suspendida debido a violar las pautas de incitación al odio.

Los términos de Facebook prohíben el contenido que sea dañino, amenazante o que tenga potencial para provocar odio e incitar a la violencia. En sus estándares comunitarios, Facebook explica que "Facebook elimina el discurso de odio, que incluye contenido que ataca directamente a las personas en función de su: raza, etnia, origen nacional, afiliación religiosa, orientación sexual, sexo, género o identidad de género, o discapacidades o enfermedades graves". ". [88] Afirma además que "Permitimos el humor, la sátira o los comentarios sociales relacionados con estos temas, y creemos que cuando las personas usan su identidad auténtica, son más responsables cuando comparten este tipo de comentarios. Por esa razón, solicitamos "Que los propietarios de páginas asocien su nombre y perfil de Facebook con cualquier contenido que sea insensible, incluso si ese contenido no viola nuestras políticas. Como siempre, instamos a las personas a ser conscientes de su audiencia al compartir este tipo de contenido". [88]

Instagram , una plataforma para compartir fotos y videos propiedad de Facebook , tiene pautas de discurso de odio similares a las de Facebook, pero no está dividida en niveles. Las Normas comunitarias de Instagram también prohíben la desinformación, la desnudez, la glorificación de las autolesiones y la publicación de contenido protegido por derechos de autor sin autorización. [89]

Las políticas de incitación al odio de Facebook son aplicadas por 7.500 revisores de contenido, así como por muchos monitores de Inteligencia Artificial. Debido a que esto requiere una toma de decisiones difícil, surge controversia entre los revisores de contenido sobre la aplicación de las políticas. Algunos usuarios parecen sentir que la aplicación es inconsistente. Un buen ejemplo del pasado son dos publicaciones separadas pero igualmente gráficas que deseaban la muerte a miembros de una religión específica. Ambas publicaciones fueron marcadas por los usuarios y revisadas por el personal de Facebook. Sin embargo, sólo uno fue eliminado a pesar de que tenían sentimientos casi idénticos. [90] En una cita sobre el discurso de odio en la plataforma, el vicepresidente de Operaciones Globales de Facebook, Justin Osofky, declaró: "Lamentamos los errores que hemos cometido; no reflejan la comunidad que queremos ayudar a construir... Debemos hacerlo mejor." [91]

Ha habido controversia adicional debido a la especificidad de las políticas de incitación al odio de Facebook . En muchas ocasiones ha habido informes de actualizaciones de estado y comentarios que los usuarios consideran insensibles y transmiten odio. Sin embargo, estas publicaciones técnicamente no infringen ninguna política de Facebook porque su discurso no ataca a otros según la lista de clases protegidas de la empresa. Por ejemplo, la afirmación "Las periodistas deportivas deben recibir golpes en la cabeza con discos de hockey" no se consideraría discurso de odio en la plataforma de Facebook y, por lo tanto, no se eliminaría. [92] Si bien la empresa protege contra el odio basado en el género, no protege contra el odio basado en la ocupación.

Facebook ha sido acusado de parcialidad al controlar el discurso de odio, citando anuncios de campañas políticas que pueden promover el odio o la desinformación que han tenido un impacto en la plataforma. [15] Facebook ajustó sus políticas después de recibir reacciones violentas, acusaciones y grandes corporaciones retiraron sus anuncios de la plataforma para protestar por el manejo laxo que hace la plataforma del discurso de odio y la desinformación. [15] A partir de 2020, los anuncios de campañas políticas tienen una función de "bandera" que señala que el contenido es de interés periodístico pero que puede violar algunas pautas de la comunidad. [15]

Facebook también intenta adaptarse a los usuarios que promueven otros contenidos de incitación al odio con la intención de criticarlos. En estos casos, se requiere que los usuarios dejen claro que su intención es educar a otros. Si esta intención no está clara, Facebook se reserva el derecho de censurar el contenido. [93] Cuando Facebook inicialmente marca contenido que puede contener discurso de odio, luego lo designa en una escala de Nivel 1, 2 y 3, según la gravedad del contenido. El nivel 1 es el más grave y el nivel 3 es el menos. El nivel 1 incluye cualquier cosa que transmita "discurso violento o apoyo a la muerte/enfermedad/daño". [94] El nivel 2 se clasifica como contenido que difama la imagen de otro usuario mental, física o moralmente. [95] El Nivel 3 incluye cualquier cosa que potencialmente pueda excluir o discriminar a otros, o que utilice insultos sobre grupos protegidos, pero no necesariamente se aplica a argumentos para restringir la inmigración o críticas a las políticas de inmigración existentes. [95]

En marzo de 2019, Facebook prohibió el contenido que apoyara el nacionalismo blanco y el separatismo blanco , ampliando una prohibición anterior del contenido de supremacía blanca . [96] En mayo de 2019, anunció prohibiciones a varias personas destacadas por violaciones de su prohibición del discurso de odio, incluidos Alex Jones , Louis Farrakhan , Milo Yiannopoulos , Laura Loomer y Paul Nehlen . [97]

En 2020, Facebook agregó pautas al Nivel 1 que prohíben la cara negra , las comparaciones raciales con animales, los estereotipos raciales o religiosos , la negación de eventos históricos y la cosificación de las mujeres y la comunidad LGBTQIA+ . [98]

El discurso de odio en Facebook e Instagram se cuadruplicó en 2020, lo que provocó la eliminación de 22,5 millones de publicaciones en Facebook y 3,3 millones de publicaciones en Instagram solo en el segundo trimestre de 2020. [15]

En octubre de 2022, Media Matters publicó un informe de que Facebook e Instagram todavía se estaban beneficiando de los anuncios que utilizaban el insulto " peluquero " para las personas LGBT . [99] El artículo informó que Meta había confirmado previamente que el uso de esta palabra para la comunidad LGBT viola sus políticas de discurso de odio. [99] La historia fue retomada posteriormente por otros medios de comunicación como el New York Daily News , PinkNews y LGBTQ Nation . [100] [101] [102]

microsoft

Microsoft tiene reglas específicas relativas al discurso de odio para una variedad de sus aplicaciones . Su política para teléfonos móviles prohíbe aplicaciones que "contengan cualquier contenido que promueva la discriminación, el odio o la violencia por motivos de raza, etnia, origen nacional, idioma, género, edad, discapacidad, religión, orientación sexual, condición de veterano o pertenencia a cualquier otro grupo social." [103] La empresa también tiene normas relativas a los juegos en línea, que prohíben cualquier comunicación que indique "discurso de odio, temas religiosos controvertidos y acontecimientos sensibles actuales o históricos". [104]

Tik Tok

TikTok carece de directrices claras y de control sobre el discurso de odio, lo que permite que la intimidación , el acoso , la propaganda y el discurso de odio se conviertan en parte del discurso normal en TikTok . Los grupos de odio de extrema derecha y las organizaciones terroristas prosperan en TikTok difundiendo y fomentando el odio entre una audiencia de tan solo 13 años. [105] Los niños son ingenuos y fácilmente influenciables por otras personas y mensajes, por lo tanto, es más probable que escuchen y repitan lo que se les muestra o les dicen. [106] Internet no cuenta con un espacio excesivamente monitoreado que garantice la seguridad de los niños, por lo que mientras Internet sea público, los niños y adolescentes seguramente se encontrarán con discursos de odio. [106] A partir de ahí, los jóvenes adolescentes tienden a dejar que su curiosidad los lleve a promover su interés y la investigación de ideas radicales. [106]

Sin embargo, los niños no pueden asumir la responsabilidad de sus acciones de la manera que los adultos pueden y deben, [106] culpando no sólo a la persona que publicó el contenido vulgar, sino a la propia plataforma de redes sociales. Por lo tanto, TikTok es criticado por su manejo del discurso de odio en la plataforma. Si bien TikTok prohíbe la intimidación , el acoso y cualquier discurso vulgar u odioso en sus Términos y condiciones, TikTok no ha estado activo el tiempo suficiente para haber desarrollado un método eficaz para monitorear este contenido. [105] Otras plataformas de redes sociales como Instagram , Twitter y Facebook han estado activas el tiempo suficiente para saber cómo combatir el discurso de odio y el contenido vulgar en línea, [105] pero la audiencia en esas plataformas tiene la edad suficiente para asumir la responsabilidad de los mensajes. se propagan. [106]

TikTok , por otro lado, tiene que asumir cierta responsabilidad por el contenido distribuido a su público joven. [105] Los usuarios de TikTok deben tener al menos 13 años de edad; sin embargo, ese requisito se puede eliminar fácilmente, ya que las aplicaciones no pueden acceder físicamente a la edad de los usuarios. El investigador Robert Mark Simpson concluyó que combatir el discurso de odio en los medios dirigidos a los jóvenes "podría parecerse más a las regulaciones que rigen el entretenimiento para adultos que a las prohibiciones de la negación del Holocausto". [106]

Alfabetización mediática e informacional

La alfabetización mediática e informacional tiene como objetivo ayudar a las personas a participar en una sociedad digital siendo capaces de utilizar, comprender, indagar, crear, comunicar y pensar críticamente; al mismo tiempo que puede acceder, organizar, analizar, evaluar y crear mensajes de manera efectiva en una variedad de formas. [107]

La educación para la ciudadanía se centra en preparar a las personas para que sean ciudadanos informados y responsables mediante el estudio de los derechos, libertades y responsabilidades y se ha empleado de diversas formas en sociedades que emergen de conflictos violentos. [108] Uno de sus principales objetivos es crear conciencia sobre los derechos políticos, sociales y culturales de individuos y grupos, incluida la libertad de expresión y las responsabilidades e implicaciones sociales que de ella se derivan. La preocupación de la educación ciudadana con respecto al discurso de odio es doble: abarca el conocimiento y las habilidades para identificar el discurso de odio y debería permitir a las personas contrarrestar los mensajes de odio. [109] Uno de sus desafíos actuales es adaptar sus objetivos y estrategias al mundo digital, proporcionando no solo conocimientos y habilidades argumentativos sino también tecnológicos que un ciudadano puede necesitar para contrarrestar el discurso de odio en línea. [3]

La alfabetización informacional no puede evitar cuestiones como los derechos a la libertad de expresión y a la privacidad, la ciudadanía crítica y el fomento del empoderamiento para la participación política . [110] Las alfabetizaciones múltiples y complementarias se vuelven críticas. La aparición de las nuevas tecnologías y las redes sociales ha jugado un papel importante en este cambio. Los individuos han evolucionado de ser sólo consumidores de mensajes de los medios a productores, creadores y curadores de información, lo que ha dado como resultado nuevos modelos de participación que interactúan con los tradicionales, como votar o unirse a un partido político . Las estrategias de enseñanza están cambiando en consecuencia, desde fomentar la recepción crítica de los mensajes de los medios hasta incluir el empoderamiento de la creación de contenidos mediáticos. [111]

El concepto mismo de alfabetización mediática e informacional continúa evolucionando y se ve reforzado por la dinámica de Internet. Está empezando a abarcar cuestiones de identidad , ética y derechos en el ciberespacio . [112] Algunas de estas habilidades pueden ser particularmente importantes al identificar y responder al discurso de odio en línea.

Serie de iniciativas destinadas tanto a proporcionar información como herramientas prácticas para que los usuarios de Internet sean ciudadanos digitales activos :

La educación también se considera una herramienta contra el discurso de odio. Laura Geraghty del 'Movimiento No Hate Speech' afirmó: "La educación es clave para prevenir el discurso de odio en línea. Es necesario crear conciencia y empoderar a las personas para que se conecten a Internet de manera responsable; sin embargo, aún se necesitan los antecedentes y los instrumentos legales para procesar los delitos de odio, incluido el discurso de odio en línea; de lo contrario, el aspecto preventivo no ayudará". [114] [3]

Fuentes

 Este artículo incorpora texto de un trabajo de contenido gratuito . Licenciado bajo CC BY SA 3.0 IGO (declaración/permiso de licencia). Texto tomado de Countering Online Hate Speech​, 73, Iginio Gagliardone, Danit Gal, Thiago Alves, Gabriela Martinez, UNESCO. UNESCO.

Referencias

  1. ^ Johnson, NF; Leahy, R.; Johnson Restrepo, N.; Velásquez, N.; Zheng, M.; Manrique, P.; Devkota, P.; Wuchty, S. (21 de agosto de 2019). "Resiliencia oculta y dinámica adaptativa de la ecología global del odio en línea". Naturaleza . Investigación de la naturaleza . 573 (7773): 261–265. Código Bib :2019Natur.573..261J. doi :10.1038/s41586-019-1494-7. ISSN  1476-4687. PMID  31435010. S2CID  201118236.
  2. ^ ab Powell, Anastasia; Scott, Adrián J.; Henry, Nicola (marzo de 2020). Treiber, Kyle (ed.). "Acoso y abuso digital: experiencias de sexualidad y adultos de minorías de género". Revista Europea de Criminología . Los Ángeles y Londres : Publicaciones SAGE en nombre de la Sociedad Europea de Criminología . 17 (2): 199–223. doi : 10.1177/1477370818788006 . ISSN  1741-2609. S2CID  149537486. Una característica clave de la sociedad digital contemporánea es la integración de las comunicaciones y otras tecnologías digitales en la vida cotidiana, de modo que muchos de nosotros estamos "constantemente conectados". Sin embargo, el entrelazamiento de lo social y lo digital tiene implicaciones particulares para las relaciones interpersonales. El acoso y el abuso digitales se refieren a una variedad de comportamientos interpersonales dañinos que se experimentan a través de Internet , así como a través de teléfonos móviles y otros dispositivos de comunicación electrónicos. Estos comportamientos en línea incluyen: comentarios ofensivos e insultos, acoso dirigido, abuso verbal y amenazas, así como acoso y abuso sexual, sexualidad y género. El acoso y abuso sexual, de sexualidad y de género se refiere a conductas dañinas y no deseadas, ya sea de naturaleza sexual o dirigidas a una persona en función de su sexualidad o identidad de género .
  3. ^ abcdefghijklmnopqrstu vwxy Gagliardone, Iginio; Gal, Danit; Álves, Thiago; Martínez, Gabriela (2015). Contrarrestar el discurso de odio en línea (PDF) . París : Editorial UNESCO . págs. 7-15. ISBN 978-92-3-100105-5. Archivado desde el original el 13 de marzo de 2022 . Consultado el 13 de marzo de 2022 .
  4. ^ Waldron, Jeremy (2012). El daño del discurso de odio. Prensa de la Universidad de Harvard. ISBN 978-0-674-06589-5. JSTOR  j.ctt2jbrjd.
  5. ^ ab Izsak, Rita (2015). Informe de la Relatora Especial sobre cuestiones de las minorías, Rita Izsák . Consejo de Derechos Humanos.
  6. ^ Véase Consejo de Europa, "Estudio de mapeo de proyectos contra el discurso de odio en línea", 15 de abril de 2012. Véanse también las entrevistas: Christine Chen, directora sénior de políticas públicas, Google, 2 de marzo de 2015; Monika Bickert, jefa de gestión de políticas globales, Facebook, 14 de enero de 2015
  7. ^ Ver HateBase, Estadísticas del discurso de odio, http://www.hatebase.org/popular Archivado el 11 de marzo de 2018 en Wayback Machine.
  8. ^ Entrevista: Andre Oboler, director ejecutivo del Online Hate Prevention Institute, 31 de octubre de 2014.
  9. ^ Mateo, Binny; Dutt, Ritam; Goyal, Pawán; Mukherjee, Animesh. Difusión del discurso de odio en las redes sociales en línea . ACM WebSci 2019. Boston, MA, EE. UU.: ACM. arXiv : 1812.01693 .
  10. ^ Cidra, Danielle Keats; Norton, Helen L. (2011). "Intermediarios y discurso de odio: fomento de la ciudadanía digital para nuestra era de la información". Revista de derecho de la Universidad de Boston . Rochester, Nueva York. 91 . SSRN  1764004.
  11. ^ Entrevista: Drew Boyd, Director de Operaciones, Proyecto Sentinel para la Prevención del Genocidio, 24 de octubre de 2014.
  12. ^ Phillips, Whitney (2015). Es por eso que no podemos tener cosas buenas: mapeo de la relación entre el trolling en línea y la cultura dominante . Prensa del MIT.
  13. ^ Marwick, Alicia; Lewis, Rebeca (2017). Manipulación de medios y desinformación en línea . Instituto de Investigación de Datos y Sociedad.
  14. ^ Banks, James (noviembre de 2010). "Regulación del discurso de odio en línea" (PDF) . Revista Internacional de Derecho, Informática y Tecnología . 24 (3): 4–5. doi :10.1080/13600869.2010.522323. S2CID  61094808.
  15. ^ abcde "Se disparan las publicaciones de odio en Facebook e Instagram". Fortuna . Consultado el 21 de noviembre de 2020 .
  16. ^ ab Gray, María; Suri, Siddharth (2019). "TRABAJO FANTASMA: Cómo evitar que Silicon Valley construya una nueva clase baja global ". Nueva York: Houghton Mifflin Harcourt.
  17. ^ Washington, Distrito de Columbia 1800 I. Street NW; Dc 20006. "PolitiFact: la gente utiliza lenguaje codificado para evitar la moderación de las redes sociales. ¿Está funcionando?". @politifact . Consultado el 5 de julio de 2022 .{{cite web}}: CS1 maint: numeric names: authors list (link)
  18. ^ Meddaugh, Priscilla Marie; Kay, Jack (30 de octubre de 2009). "¿Discurso de odio o" racismo razonable? "El otro en Stormfront". Revista de ética de los medios de comunicación . 24 (4): 251–268. doi :10.1080/08900520903320936. ISSN  0890-0523. S2CID  144527647.
  19. ^ ab Bowman-Grieve, Lorraine (30 de octubre de 2009). "Explorando" Stormfront ": una comunidad virtual de la derecha radical". Estudios sobre conflictos y terrorismo . 32 (11): 989–1007. doi :10.1080/10576100903259951. ISSN  1057-610X. S2CID  145545836.
  20. ^ Nobata, Chikashi; Tetreault, J.; Tomás, A.; Mehdad, Yashar; Chang, Yi (2016). "Detección de lenguaje abusivo en contenido de usuario en línea". Actas de la 25ª Conferencia Internacional sobre la World Wide Web . págs. 145-153. doi :10.1145/2872427.2883062. ISBN 9781450341431. S2CID  11546523.
  21. ^ ab Koster, Willem De; Houtman, Dick (1 de diciembre de 2008). "Stormfront es como un segundo hogar para mí". Información, Comunicación y Sociedad . 11 (8): 1155-1176. doi :10.1080/13691180802266665. ISSN  1369-118X. S2CID  142205186.
  22. ^ Cohen-Almagor, Rafael (2018). "Tomar en serio los grupos supremacistas blancos norteamericanos: el alcance y el desafío del discurso de odio en Internet". La Revista Internacional sobre el Crimen, la Justicia y la Democracia Social . 7 (2): 38–57. doi : 10.5204/ijcjsd.v7i2.517 .
  23. ^ abcd "La Declaración Universal de Derechos Humanos". Naciones Unidas . 1948.
  24. ^ Lillich, Richard B. (abril de 1995). "Pacto de las Naciones Unidas sobre Derechos Civiles y Políticos. Comentario del CCPR. Por Manfred Nowak. Kehl, Estrasburgo, Arlington VA: NP Engel, Publisher, 1993. Pp. xxviii, 939. Índice, $176; £112; DM/sfr. 262". Revista Estadounidense de Derecho Internacional . 89 (2): 460–461. doi :10.2307/2204221. ISSN  0002-9300. JSTOR  2204221.
  25. ^ Leo, Leonard A.; Gaer, Felice D.; Cassidy, Elizabeth K. (2011). "Proteger las religiones de la difamación: una amenaza a las normas universales de derechos humanos". Revista de Derecho y Políticas Públicas de Harvard . 34 : 769.
  26. ^ Comité de Derechos Humanos. Observación general núm. 11, Artículo 20: Prohibición de hacer propaganda para la guerra e incitar al odio nacional, racial o religioso, 29 de julio de 1983, párr. 2. En 2011, el Comité aclaró su opinión sobre la relación entre los artículos 19 y 20 cuando reafirmó que las disposiciones se complementan entre sí y que el artículo 20 "puede considerarse lex specialis con respecto al artículo 19". Comité de Derechos Humanos. Observación general núm. 34, Artículo 19: Libertades de opinión y expresión, CCPR/C/GC/34, 12 de septiembre de 2011, párrs. 48-52.
  27. ^ Artículo 19 (3) del PIDCP.
  28. ^ Incluso el Comité de Derechos Humanos, que ha decidido casos relacionados con el artículo 20, ha evitado dar una definición de incitación al odio. Consejo de Derechos Humanos. Incitación al odio racial y religioso y promoción de la tolerancia: Informe del Alto Comisionado para los Derechos Humanos, A/HRC/2/6, 20 de septiembre de 2006, párr. 36.
  29. ^ Faurisson contra Francia, C. Opinión individual de Elizabeth Evatt y David Kretzmer, cofirmada por Eckart Klein (concurrente), párr. 4.
  30. ^ Consejo de Derechos Humanos. Informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos Addendum, Seminario de expertos sobre los vínculos entre los artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos, A/HRC/10/31/Add.3, 16 de enero de 2009, párr. 1.
  31. ^ Informe del Alto Comisionado para los Derechos Humanos, A/HRC/2/6, párr. 39;
  32. ^ Comité para la Eliminación de la Discriminación Racial, Recomendación general 29, Discriminación basada en la ascendencia (61º período de sesiones, 2002), Doc. de la ONU. A/57/18 en 111 (2002), reimpreso en Compilación de comentarios generales y recomendaciones generales adoptadas por los órganos creados en virtud de tratados de derechos humanos, UNDoc. HRI\GEN\1\Rev.6 en 223 (2003), párrs. r, s y t
  33. ^ Artículo 2 de la CEDAW.
  34. ^ Recomendación general núm. 28 sobre las obligaciones básicas de los Estados partes en virtud del artículo 2 de la Convención sobre la eliminación de todas las formas de discriminación contra la mujer Párr. 19
  35. ^ Comisión Interamericana de Derechos Humanos. Declaración Interamericana de Principios sobre Libertad de Expresión, 20 de octubre de 2000, párr. 7.
  36. ^ Comisión Interamericana de Derechos Humanos, Opinión Consultiva OC-5/85, 13 de noviembre de 1985, párr. 39
  37. ^ ab Comisión Interamericana de Derechos Humanos, Opinión Consultiva OC-5/85, 13 de noviembre de 1985, párrafo 39.
  38. ^ Viljoen, Frans (2007). Derecho internacional de los derechos humanos en África . Oxford: Prensa de la Universidad de Oxford.
  39. ^ Comisión Africana de Derechos Humanos y de los Pueblos. Declaración de Principios sobre la Libertad de Expresión en África, 32.º período de sesiones, Banjul, 17 a 23 de octubre de 2002.
  40. ^ Organización de Cooperación Islámica, Sexto Informe del Observatorio de la OCI sobre la islamofobia, presentado al 40º Consejo de Ministros de Relaciones Exteriores, Conakry, República de Guinea, diciembre de 2013, p.31.
  41. ^ Liga de los Estados Árabes, Carta Árabe de Derechos Humanos, 22 de mayo de 2004, entró en vigor el 15 de marzo de 2008, párr. 32 (1)
  42. ^ Liga de los Estados Árabes, Carta Árabe de Derechos Humanos, 22 de mayo de 2004, entró en vigor el 15 de marzo de 2008, párr. 32 (2).
  43. ^ Artículo 7 de la Declaración de Derechos Humanos de la ASEAN.
  44. ^ Artículo 54 de la Carta de Derechos Fundamentales de la Unión Europea.
  45. ^ Artículo 10 del Convenio Europeo de Derechos Humanos.
  46. ^ Handyside contra el Reino Unido, 7 de diciembre de 1976, párr. 49. Se pueden encontrar más casos de discurso de odio ante el Tribunal Europeo en: http://www.echr.coe.int/Documents/FS_Hate_speech_ENG.pdf Archivado el 18 de octubre de 2019 en Wayback Machine 49
  47. ^ Recomendación de política general núm. 6 de la ECRI, sobre la lucha contra la difusión de material racista, xenófobo y antisemita a través de Internet, adoptada el 15 de diciembre de 2000.
  48. ^ Consejo de Europa, Convenio sobre la ciberdelincuencia, 23 de noviembre de 2001, párrafos 31 a 34.
  49. ^ Consejo de Europa, Protocolo adicional al Convenio sobre ciberdelincuencia, relativo a la penalización de actos de naturaleza racista y xenófoba cometidos a través de sistemas informáticos, 28 de enero de 2003, art 5, párrafo 1.
  50. ^ Mackinnon, David; Lemieux, Christopher; Beazley, Karen; Woodley, Stephen (noviembre de 2015). "Canadá y la Meta 11 de Aichi para la Diversidad Biológica: comprender 'otras medidas eficaces de conservación basadas en áreas' en el contexto de la meta más amplia". Biodiversidad y Conservación . 24 (14): 3559–3581. doi : 10.1007/s10531-015-1018-1 . S2CID  17487707 - vía ResearchGate.
  51. ^ ab Naciones Unidas (2011). Principios Rectores sobre Empresas y Derechos Humanos . Nueva York: Oficina del Nuevo Comisionado.
  52. ^ abcde Perrin, Andrew (15 de octubre de 2020). "El 23% de los usuarios en EE. UU. dicen que las redes sociales los llevaron a cambiar de opinión sobre un tema; algunos citan Black Lives Matter". Centro de Investigación Pew . Consultado el 22 de noviembre de 2020 .
  53. ^ ab Marwick, Alicia; Lewis, Rebeca (2017). Manipulación de medios y desinformación en línea . Instituto de Investigación de Datos y Sociedad.
  54. ^ abc Gray, Kishonna (2012). "Intersección de opresiones y comunidades en línea". Información, Comunicación y Sociedad . 15 (3): 411–428. doi :10.1080/1369118X.2011.642401. S2CID  142726754 - vía Taylor y Francis.
  55. ^ Seay, A. Fleming; Jerome, William J.; Lee, Kevin Sang; Kraut, Robert E. (24 de abril de 2004). "Proyecto masivo". CHI '04 Resúmenes ampliados sobre factores humanos en sistemas informáticos . CHIEA '04. Viena, Austria: Asociación de Maquinaria Informática. págs. 1421-1424. doi :10.1145/985921.986080. ISBN 978-1-58113-703-3. S2CID  24091184.
  56. ^ ab Nakamura, Lisa (2002). "Después de imágenes de identidad: género, tecnología y políticas de identidad". Recargar: Repensar a las mujeres + cibercultura : 321–331 - vía MIT Press.
  57. ^ Nakamura, Lisa (2002). Cibertipos: raza, etnia e identidad en Internet . Nueva York: Routledge.
  58. ^ Jeung, Russell; Popovic, Tara; Lim, Ricardo; Lin, Nelson (2020). "RETÓRICA ANTICHINA EMPLEADA POR PERPETRADORES DEL ODIO ANTIASIÁTICO" (PDF) . Consejo de Planificación y Política de Asia Pacífico .
  59. ^ "Pakistán: el odio en línea empuja a las minorías hacia la periferia". IFEX . Toronto Canada .3 de abril de 2021. Archivado desde el original el 4 de abril de 2021 . Consultado el 30 de marzo de 2022 .
  60. ^ "I Don't Forward Hate: una campaña en línea contra el discurso de odio en Pakistán". www.standup4humanrights.org . Archivado desde el original el 21 de abril de 2021 . Consultado el 30 de marzo de 2022 .
  61. ^ "SC revela que '62 personas han sido condenadas por discurso de odio en línea desde 2015′". PAKISTÁN HOY . Lahore , Pakistán . 17 de febrero de 2022. Archivado desde el original el 17 de febrero de 2022 . Consultado el 30 de marzo de 2022 .
  62. ^ Qamar, Saba (27 de agosto de 2020). "Trolls y discursos de odio inundan las páginas de redes sociales de Pakistán". Crónica de Deccán . Islamabad , Pakistán . Archivado desde el original el 28 de agosto de 2020 . Consultado el 30 de marzo de 2022 .
  63. ^ Azeem, Tehreem (30 de julio de 2021). "Las redes sociales de Pakistán están repletas de discursos de odio contra los áhmadis". El diplomático . Washington, DC Archivado desde el original el 30 de julio de 2021 . Consultado el 30 de marzo de 2022 .
  64. ^ Wilson, Emilie (17 de septiembre de 2020). "El seguimiento del discurso de odio ayuda a generar alarma para los áhmadis en Pakistán". Instituto de Estudios del Desarrollo, Reino Unido . Brighton , Inglaterra . Archivado desde el original el 26 de septiembre de 2020 . Consultado el 30 de marzo de 2022 .
  65. ^ "El costo del discurso de odio: informe de políticas para Punjab". Grupo Internacional de Derechos de las Minorías . Londres , Inglaterra . 29 de marzo de 2021. Archivado desde el original el 29 de marzo de 2021 . Consultado el 30 de marzo de 2022 .
  66. ^ "Estudio innovador sobre el discurso de odio en línea en Pakistán". apc.org . Islamabad , Pakistán . 11 de junio de 2014. Archivado desde el original el 1 de julio de 2014 . Consultado el 30 de marzo de 2022 .
  67. ^ "Discurso de odio: un estudio del ciberespacio de Pakistán". Bytes para todos . Karachi , Pakistan . 7 de junio de 2014. Archivado desde el original el 2 de abril de 2017 . Consultado el 30 de marzo de 2022 .
  68. ^ Hereward Holland, "Facebook en Myanmar: ¿Amplificando el discurso de odio?", Al Jazeera, 14 de junio de 2014, http://www.aljazeera.com/in Depth/features/2014/06/facebook-myanmar-rohingya-amplifying-hatespeech- 2014612112834290144.html
  69. ^ ab "¿Por qué hay violencia comunitaria en Myanmar?", BBC, 3 de julio de 2014. https://www.bbc.co.uk/news/worldasia-18395788
  70. ^ "Informe especial: La difícil situación de la minoría musulmana amenaza la primavera de Myanmar". Reuters . 2012-06-15 . Consultado el 19 de julio de 2023 .
  71. ^ Erika Kinetz, "La nueva numerología del odio crece en Birmania", Irrawaddy, 29 de abril de 2013 http://www.irrawaddy.org/religion/new-numerology-of-hate-grows-in-burma.html. Hereward Holland, "Facebook en Myanmar: ¿Amplificando el discurso de odio?", Al Jazeera, 14 de junio de 2014; Steven Kiersons, "Los orígenes coloniales del discurso de odio en Birmania", The Sentinel Project, 28 de octubre de 2013, https://thesentinelproject.org/2013/10/28/the-colonial-origins-of-hate-speech-in- birmania/ ., http://www.aljazeera.com/in Depth/features/2014/06/facebook-myanmar-rohingya-amplifying-hate-speech-2014612112834290144.html
  72. ^ Tim McLaughlin, "Facebook toma medidas para combatir el discurso de odio", The Myanmar Times, 25 de julio de 2014. http://www.mmtimes.com/index.php/national-news/11114-facebook-standards-marked-for- traducción.html
  73. ^ San Yamin Aung, "Activista birmano en línea analiza la campaña contra el discurso de odio", Irrawaddy, http://www.irrawaddy.org/interview/hate-speech-pours-poison-heart.html
  74. ^ Georg, Schomerus (13 de enero de 2012). "Evolución de las actitudes del público sobre las enfermedades mentales: una revisión sistemática y un metanálisis". Acta Psychiatrica Scandinavica . 125 (6): 423–504. doi :10.1111/j.1600-0447.2012.01826.x. PMID  22242976. S2CID  24546527 - a través de la biblioteca en línea de Wiley.
  75. ^ abcde Gilbert, David (14 de septiembre de 2020). "El discurso de odio en Facebook está acercando peligrosamente a Etiopía a un genocidio". www.vice.com . Consultado el 6 de diciembre de 2020 .
  76. ^ Lashitew, Addisu (8 de noviembre de 2019). "Etiopía explotará si no va más allá de la política étnica". La política exterior . Consultado el 6 de diciembre de 2020 .
  77. ^ Tibebu, Israel (3 de noviembre de 2021). "Informe de la investigación conjunta de la CEDH y el ACNUDH sobre presuntas violaciones del derecho internacional de los derechos humanos, el derecho humanitario y el derecho de los refugiados cometidas por todas las partes en el conflicto en la región de Tigray de la República Democrática Federal de Etiopía" (PDF) . CEDH , ACNUDH . Archivado (PDF) desde el original el 3 de noviembre de 2021 . Consultado el 3 de noviembre de 2021 .
  78. ^ Dahir, Abdi Latif (17 de noviembre de 2021). "Las detenciones masivas de civiles fomentan el 'clima de miedo' en Etiopía". Los New York Times . Archivado desde el original el 17 de noviembre de 2021 . Consultado el 17 de noviembre de 2021 .
  79. ^ "Ayuda para la cuenta de Yahoo". ayuda.yahoo.com . Consultado el 28 de junio de 2019 .
  80. ^ "Twitter comienza a aplicar nuevas políticas sobre violencia, abuso y conductas de odio". El borde . Consultado el 30 de mayo de 2018 .
  81. ^ "Política de conductas de odio" . Consultado el 30 de mayo de 2018 .
  82. ^ "Alemania hará cumplir la ley sobre incitación al odio". Noticias de la BBC . 2018 . Consultado el 30 de mayo de 2018 .
  83. ^ abc Munn, Luke (julio de 2020). "Enojado por diseño: comunicación tóxica y arquitecturas técnicas". Comunicaciones de Humanidades y Ciencias Sociales . 7 : 1–11. doi : 10.1057/s41599-020-00550-7 . S2CID  220855380 - vía ResearchGate.
  84. ^ abcd Munger, Kevin; Phillips, José (2019). Un marco de oferta y demanda para la política de YouTube. University Park: Ciencias Políticas de Penn State. págs. 1–38.
  85. ^ "Nuestro trabajo continuo para combatir el odio". blog.youtube . Consultado el 21 de noviembre de 2020 .
  86. ^ "Política de incitación al odio: ayuda de YouTube". soporte.google.com . Consultado el 30 de mayo de 2018 .
  87. ^ "Denunciar contenido inapropiado - Android - Ayuda de YouTube". soporte.google.com . Consultado el 30 de mayo de 2018 .
  88. ^ ab "Estándares comunitarios | Facebook". www.facebook.com . Consultado el 28 de junio de 2019 .
  89. ^ "Normas de la comunidad | Centro de ayuda de Instagram". www.facebook.com . Consultado el 21 de noviembre de 2020 .
  90. ^ Tobin, Ariana. "La aplicación desigual de las reglas sobre incitación al odio por parte de Facebook permite que las publicaciones viles se mantengan activas". Propublica .
  91. ^ Tobin, Ariana. "La aplicación desigual de las reglas sobre incitación al odio por parte de Facebook permite que las publicaciones viles se mantengan activas".
  92. ^ Carlsen, Audrey (13 de octubre de 2017). "¿Qué considera Facebook el discurso de odio? Responda nuestro cuestionario". Los New York Times .
  93. ^ "Estándares comunitarios: contenido objetable". Facebook .
  94. ^ Mills, Chris (24 de abril de 2018). "Esto es lo que Facebook no te deja publicar".
  95. ^ ab "Pautas de la comunidad: contenido objetable". Facebook .
  96. ^ Ingber, Sasha (27 de marzo de 2019). "Facebook prohíbe el contenido de separatismo y nacionalismo blanco en sus plataformas". NPR.org . Consultado el 28 de junio de 2019 .
  97. ^ Schwartz, Matthew S. (3 de mayo de 2019). "Facebook prohíbe a Alex Jones, Louis Farrakhan y otras personas 'peligrosas'". NPR.org . Consultado el 28 de junio de 2019 .
  98. ^ "Actualizaciones recientes de los estándares comunitarios | Facebook". www.facebook.com . Consultado el 21 de noviembre de 2020 .
  99. ^ ab Carter, Camden (13 de octubre de 2022). "Meta todavía se está beneficiando de los anuncios que utilizan el insulto anti-LGBTQ de 'peluquero', a pesar de la prohibición de la plataforma". Asuntos de los medios . Consultado el 22 de octubre de 2022 .
  100. ^ Assunção, Muri (14 de octubre de 2022). "Meta, la empresa matriz de Facebook, sigue sacando provecho de los anuncios que utilizan insultos anti-LGBTQ a pesar de la prohibición de la plataforma: informe". Noticias diarias de Nueva York . Consultado el 22 de octubre de 2022 .
  101. ^ Wakefield, Lily (14 de octubre de 2022). "Facebook ha ganado miles de dólares con odiosos anuncios de 'peluqueros' en 2022". RosaNoticias . Consultado el 22 de octubre de 2022 .
  102. ^ Villarreal, Daniel (14 de octubre de 2022). "Facebook e Instagram están ganando dinero con anuncios que llaman 'peluqueros' a las personas LGBTQ a pesar de la política". Nación LGBTQ . Consultado el 22 de octubre de 2022 .
  103. ^ "Políticas de contenido". msdn.microsoft.com . Consultado el 28 de junio de 2019 .
  104. ^ "Estándares de la comunidad de Xbox | Xbox". Xbox.com . Consultado el 28 de junio de 2019 .
  105. ^ abcd Weimann, Gabriel; Masri, Natalie (19 de junio de 2020). "Nota de investigación: Difundir el odio en TikTok". Estudios sobre conflictos y terrorismo . 46 (5): 752–765. doi :10.1080/1057610X.2020.1780027. ISSN  1057-610X. S2CID  225776569.
  106. ^ abcdef Simpson, Robert Mark (1 de febrero de 2019). "'¿Alguien podría pensar en los niños?' Discurso de odio, daño e infancia ". Derecho y Filosofía . 38 (1): 79–108. doi : 10.1007/s10982-018-9339-3 . ISSN  1573-0522. S2CID  150223892.
  107. ^ "Alfabetización mediática e informacional". UNESCO . 2016-09-01 . Consultado el 28 de junio de 2019 .
  108. ^ Osler, Audrey; Starkey, Hugh (2006). "Educación para la ciudadanía democrática: una revisión de la investigación, las políticas y la práctica 1995-2005". Artículos de investigación en educación . 24 (4): 433–466. doi :10.1080/02671520600942438. S2CID  219712539 - vía ResearchGate.
  109. ^ Mateo, Binny; Saha, Punyajoy; Tharad, Hardik; Rajgaria, Shubham; Singhania, Prajwal; Goyal, Pawán; Mukherjee, Animesh. No odiarás: contrarrestar el discurso de odio en línea . ICWSM 2019. Múnich, Alemania: AAAI. arXiv : 1808.04409 .
  110. ^ Mossberger, Karen; Tolbert, Carolina; McNeal, Ramona (2007). Ciudadanía digital: Internet, sociedad y participación . Prensa del MIT.
  111. ^ Hoechsmann, Michael; Poyntz, Estuardo (2012). Alfabetizaciones mediáticas: una introducción crítica . West Sussex: Publicación de Blackwell.
  112. ^ Ver Declaración de París: Declaración de París sobre MIL en la era digital. http://www.unesco.org/new/en/communication-andinformation/resources/news-and-in-focus-articles/in-focus-articles/2014/paris-declaration-on-mediaand-information-literacy- adoptado/
  113. ^ El 'Movimiento contra el discurso de odio' es una campaña regional que abarca 50 países mucho más allá del continente europeo. Si bien la campaña tiene objetivos comunes y desarrolla estrategias conjuntas, los proyectos e iniciativas particulares que se ejecutan en cada país son responsabilidad de los coordinadores nacionales y están sujetos a la capacidad y recursos de cada país.
  114. ^ Entrevista: Laura Geraghty, Movimiento No Hate Speech, 25 de noviembre de 2014.