stringtranslate.com

Discurso de odio en línea

El discurso de odio en línea es un tipo de discurso que tiene lugar en línea con el propósito de atacar a una persona o un grupo en función de su raza , religión , origen étnico , orientación sexual , discapacidad y/o género . [1] El discurso de odio en línea no se define fácilmente, pero se puede reconocer por la función degradante o deshumanizadora que cumple. [2] [3]

Los tratados multilaterales , como el Pacto Internacional de Derechos Civiles y Políticos (PIDCP), han tratado de definir sus contornos. Los procesos de múltiples partes interesadas (por ejemplo, el Plan de Acción de Rabat ) han tratado de aportar mayor claridad y han sugerido mecanismos para identificar los mensajes de odio. Los organismos nacionales y regionales han tratado de promover interpretaciones del término que estén más arraigadas en las tradiciones locales . [3]

La velocidad y el alcance de Internet dificultan a los gobiernos la aplicación de la legislación nacional en el mundo virtual . Las redes sociales son un espacio privado para la expresión pública, lo que dificulta la labor de los reguladores. Algunas de las empresas propietarias de estos espacios se han vuelto más receptivas a la hora de abordar el discurso de odio en línea. [3]

Definiciones

Discurso de odio

El concepto de discurso de odio se relaciona con el conflicto entre la libertad de expresión y los derechos individuales, colectivos y de las minorías , así como con los conceptos de dignidad , libertad e igualdad . No es fácil definirlo, pero se puede reconocer por su función. [3]

En la legislación nacional e internacional, el discurso de odio se refiere a expresiones que abogan por la incitación al daño, incluidos los actos de discriminación , hostilidad , radicalización , violencia verbal y/o física , en función de la identidad social y/o demográfica de las personas a las que se dirige. El discurso de odio puede incluir, entre otras cosas, el discurso que aboga, amenaza o alienta actos violentos. El concepto puede extenderse también a expresiones que fomentan un clima de prejuicio e intolerancia bajo el supuesto de que esto puede alimentar la discriminación, la hostilidad y los ataques violentos selectivos. En momentos críticos, como durante las elecciones políticas , el concepto de discurso de odio puede ser propenso a la manipulación; las acusaciones de instigación del discurso de odio pueden intercambiarse entre oponentes políticos o pueden ser utilizadas por quienes están en el poder para frenar la disidencia y la crítica . El discurso de odio (ya sea transmitido a través de texto, imágenes y/o sonido) puede identificarse por aproximación a través de las funciones degradantes o deshumanizadoras que cumple. [2] [3]

El erudito legal y teórico político Jeremy Waldron sostiene que el discurso de odio siempre contiene dos mensajes: primero, hacer que los miembros del grupo externo se sientan incómodos o asustados; y segundo, hacer que los miembros del grupo interno sientan que sus creencias odiosas son legítimas. [4]

Características del discurso de odio en línea

La proliferación de discursos de odio en línea, observada por el Relator Especial del Consejo de Derechos Humanos de la ONU sobre Cuestiones de las Minorías, plantea un nuevo conjunto de desafíos. [5] Tanto las plataformas de redes sociales como las organizaciones creadas para combatir el discurso de odio han reconocido que los mensajes de odio difundidos en línea son cada vez más comunes y han suscitado una atención sin precedentes para desarrollar respuestas adecuadas. [6] Según HateBase , una aplicación basada en la web que recopila instancias de discurso de odio en línea en todo el mundo, la mayoría de los casos de discurso de odio se dirigen a personas en función de su etnia y nacionalidad , pero las incitaciones al odio centradas en la religión y la clase social también han ido en aumento. [7]

Si bien el discurso de odio en línea no es intrínsecamente diferente de expresiones similares que se encuentran fuera de línea, existen desafíos peculiares que son exclusivos del contenido en línea y su regulación. Esos desafíos están relacionados con su permanencia, itinerancia, anonimato y carácter complejo de interjurisdicción.

Permanencia

El discurso de odio puede permanecer en línea durante mucho tiempo en diferentes formatos en múltiples plataformas, que pueden vincularse repetidamente. Como ha señalado Andre Oboler, director ejecutivo del Online Hate Prevention Institute , "cuanto más tiempo esté disponible el contenido, más daño puede infligir a las víctimas y empoderar a los perpetradores. Si eliminas el contenido en una etapa temprana puedes limitar la exposición. Esto es como limpiar la basura, no evita que la gente tire basura, pero si no te ocupas del problema, simplemente se acumula y se agrava aún más". [8] Las conversaciones de Twitter organizadas en torno a temas de tendencia pueden facilitar la rápida y amplia difusión de mensajes de odio, [9] pero también ofrecen la oportunidad de que los oradores influyentes eviten los mensajes y posiblemente pongan fin a los hilos populares que incitan a la violencia . Facebook , por el contrario, puede permitir que varios hilos continúen en paralelo y pasen desapercibidos; creando espacios más duraderos que ofenden, discriminan y ridiculizan a ciertas personas y grupos. [3]

Itinerancia

El discurso de odio en Internet puede ser itinerante. Incluso cuando se elimina un contenido, puede encontrar expresión en otro lugar, posiblemente en la misma plataforma con un nombre diferente o en diferentes espacios en línea. Si se cierra un sitio web , puede reabrirse rápidamente mediante un servicio de alojamiento web con regulaciones menos estrictas o mediante la reasignación a un país con leyes que impongan un umbral más alto para el discurso de odio. La naturaleza itinerante del discurso de odio también significa que los pensamientos mal formulados o el comportamiento bajo la influencia de sustancias, que en el pasado no habrían encontrado expresión pública ni apoyo, ahora pueden llegar a espacios donde pueden ser visibles para grandes audiencias. [3]

Anonimato

El anonimato también puede presentar un desafío para lidiar con el discurso de odio en línea. Las discusiones en Internet pueden ser anónimas o seudónimas , lo que puede hacer que las personas se sientan más seguras al expresar sus opiniones, pero puede acelerar fácilmente el comportamiento destructivo. [10] Como ha afirmado Drew Boyd, director de operaciones de The Sentinel Project , "Internet otorga a las personas la capacidad de decir cosas horribles porque creen que no serán descubiertas. Esto es lo que hace que el discurso de odio en línea sea tan único, porque las personas se sienten mucho más cómodas hablando de odio en comparación con la vida real cuando tienen que lidiar con las consecuencias de lo que dicen". [11] China y Corea del Sur aplican políticas de nombre real para las redes sociales . Facebook , LinkedIn y Quora han buscado activar un sistema de nombre real para tener más control sobre el discurso de odio en línea. Tales medidas han sido profundamente cuestionadas porque se considera que violan el derecho a la privacidad y su intersección con la libertad de expresión.

Muchos casos de discurso de odio en línea son publicados por "trolls" de Internet , que normalmente son usuarios seudónimos que publican contenido impactante, vulgar y en general falso que tiene la intención explícita de provocar una reacción negativa, aunque también puede tener la intención de influir o reclutar al lector para sus creencias, si comparte la misma opinión. [12] Las redes sociales también han proporcionado una plataforma para que grupos políticos o religiosos radicales y extremistas se formen, se conecten y colaboren para difundir sus mensajes antisistema y anticorrección política, y promuevan creencias e ideologías racistas , antifeministas , homofóbicas , transfóbicas , etc. [13] La comunicación en línea completamente anónima es poco común, ya que requiere que el usuario emplee medidas altamente técnicas para garantizar que no se lo pueda identificar fácilmente. [3]

Propagación interjurisdiccional

Otra complicación es el alcance transnacional de Internet , que plantea cuestiones de cooperación entre jurisdicciones en lo que respecta a los mecanismos jurídicos para combatir el discurso de odio. Si bien existen tratados de asistencia jurídica mutua en Europa , Asia y América del Norte , estos suelen funcionar con lentitud. El alcance transnacional de muchos intermediarios de Internet del sector privado puede proporcionar un canal más eficaz para resolver problemas en algunos casos, aunque estos organismos también suelen verse afectados por peticiones de datos entre jurisdicciones (como revelar la identidad del autor o los autores de un contenido en particular). [3] Las diferentes jurisdicciones también tienen definiciones únicas para el discurso de odio, lo que dificulta el procesamiento de los perpetradores que pueden buscar refugio en jurisdicciones menos estrictas. [14]

A diferencia de la difusión del discurso de odio a través de los canales convencionales, las víctimas del discurso de odio en línea pueden tener dificultades para saber a quién deben recurrir en busca de ayuda, ya que la plataforma, la policía local y la policía local de la persona o personas que utilizan el discurso de odio pueden sentir que el asunto no es de su competencia, incluso cuando existen políticas y leyes en materia de discurso de odio. Las organizaciones no gubernamentales y los grupos de presión han estado creando conciencia y alentando a las diferentes partes interesadas a tomar medidas. [3]

Inteligencia artificial

Algunas empresas tecnológicas, como Facebook , utilizan sistemas de Inteligencia Artificial (IA) para monitorear el discurso de odio. [15] Sin embargo, la IA puede no ser siempre una forma eficaz de monitorear el discurso de odio, ya que los sistemas carecen de las habilidades de juicio que tienen los humanos. [16] Por ejemplo, un usuario puede publicar o comentar algo que se clasifique como discurso de odio o que viole las pautas de la comunidad, pero si la palabra objetivo está mal escrita o algunas letras se reemplazan con símbolos, los sistemas de IA no lo reconocerán. Esta debilidad ha llevado a la proliferación de intentos de eludir los algoritmos de censura utilizando errores ortográficos deliberados, como el uso de "vachscenes" en lugar de "vaccines" por parte de personas que dudan en vacunarse durante COVID-19 . [17] Por lo tanto, los humanos aún tienen que monitorear los sistemas de IA que monitorean el discurso de odio; un problema común en la tecnología de IA al que se conoce como "La última milla de la automatización", [16] lo que significa que el último 10% o 1% del trabajo es el más difícil de completar.

Marcos

Frente de tormentaPrecedente

Tras los incidentes de terrorismo islámico de 2014 , son habituales los llamamientos a la adopción de medidas más restrictivas o intrusivas para contener el potencial de Internet para propagar el odio y la violencia, como si los vínculos entre la violencia online y offline fueran bien conocidos. Por el contrario, como indica el siguiente ejemplo, las apariencias pueden engañar a menudo. Stormfront se considera el primer "sitio web del odio". [18] Lanzado en marzo de 1995 por un exlíder del Ku Klux Klan , rápidamente se convirtió en un espacio popular para debatir ideas relacionadas con el neonazismo , el nacionalismo blanco y el separatismo blanco , primero en los Estados Unidos de América y luego a nivel mundial. [19] El foro acoge llamamientos a una guerra santa racial e incitación al uso de la violencia para resistir la inmigración . [19] y se considera un espacio para reclutar activistas y posiblemente coordinar actos violentos. [20] Los pocos estudios que han explorado las identidades de Stormfront en realidad describen un panorama más complejo, en lugar de verlo como un espacio para coordinar acciones. Algunos conocidos activistas de extrema derecha han acusado al foro de ser simplemente un lugar de encuentro para " guerreros del teclado ". Uno de ellos, por ejemplo, según informan De Koster y Houtman, afirmó: "He leído bastantes artículos en el foro y me parece que se arma un gran alboroto, mientras que ocurre muy poco. La sección activismo/política en sí misma es sencillamente ridícula. [...] Por no hablar de las asambleas en las que sólo aparecen cuatro personas". [21] Aún más reveladoras son algunas de las respuestas a estas acusaciones proporcionadas por miembros regulares del sitio web. Como argumentó uno de ellos: "Seguramente tengo derecho a tener una opinión sin llevarla a cabo activamente. [...] No asisto a manifestaciones ni me afilio a un partido político. Si esto me convierte en un guerrero del teclado, está bien. Me siento bien así. [...] No me avergüenzo de ello". [21] De Koster y Houtman encuestaron sólo a un capítulo nacional de Stormfront y a una muestra no representativa de usuarios, pero respuestas como las anteriores deberían al menos invitar a la cautela respecto de las hipótesis que vinculan expresiones y acciones, incluso en espacios cuya función principal es albergar opiniones extremistas. [3] El Southern Poverty Law Center publicó un estudio en 2014 que concluyó que los usuarios del sitio "supuestamente fueron responsables de los asesinatos de casi 100 personas en los cinco años anteriores". [22]

Principios internacionales

El discurso de odio no se menciona explícitamente en muchos documentos y tratados internacionales de derechos humanos , pero se menciona indirectamente en algunos de los principios relacionados con la dignidad humana y la libertad de expresión . Por ejemplo, la Declaración Universal de Derechos Humanos de 1948 (DUDH), que se redactó como respuesta a las atrocidades de la Segunda Guerra Mundial , contiene el derecho a la igualdad de protección ante la ley en el artículo 7, que proclama que: "Todos tienen derecho a igual protección contra toda discriminación que infrinja esta Declaración y contra toda provocación a tal discriminación". [23] La DUDH también establece que toda persona tiene derecho a la libertad de expresión, que incluye "la libertad de sostener opiniones sin interferencia y de investigar y recibir información y opiniones, y de difundirlas por cualquier medio y sin limitación de fronteras". [23]

La DUDH fue decisiva a la hora de establecer un marco y una agenda para la protección de los derechos humanos, pero la Declaración no es vinculante . Posteriormente se han creado una serie de documentos vinculantes para ofrecer una protección más sólida de la libertad de expresión y la protección contra la discriminación. El Pacto Internacional de Derechos Civiles y Políticos (PIDCP) aborda el discurso de odio y contiene el derecho a la libertad de expresión en el artículo 19 [23] y la prohibición de la apología del odio que constituya incitación a la discriminación, la hostilidad o la violencia en el artículo 20. [23] Otros instrumentos jurídicos internacionales más específicos contienen disposiciones que repercuten en la definición del discurso de odio y la identificación de respuestas al mismo, como: la Convención para la Prevención y la Sanción del Delito de Genocidio (1951), la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial , ICERD (1969), y, en menor medida, la Convención sobre la Eliminación de todas las Formas de Discriminación contra la Mujer , CEDAW (1981). [3]

El discurso de odio y el Pacto Internacional de Derechos Civiles y Políticos

El Pacto Internacional de Derechos Civiles y Políticos es el instrumento jurídico al que se hace referencia con más frecuencia en los debates sobre el discurso de odio y su regulación, aunque no utiliza explícitamente el término "discurso de odio". El artículo 19, al que a menudo se hace referencia como parte del "núcleo del Pacto", [24] prevé el derecho a la libertad de expresión. En él se establece el derecho y también se incluyen restricciones generales a las que debe ajustarse cualquier limitación del derecho para ser legítima. El artículo 19 va seguido del artículo 20, que limita expresamente la libertad de expresión en los casos de "apología del odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia". [25] La decisión de incluir esta disposición, que puede caracterizarse como la encarnación de una conceptualización particular del discurso de odio, ha sido profundamente controvertida. El Comité de Derechos Humanos , el organismo de las Naciones Unidas creado por el Pacto Internacional de Derechos Civiles y Políticos para supervisar su aplicación, consciente de la tensión, ha tratado de subrayar que el artículo 20 es plenamente compatible con el derecho a la libertad de expresión. [26] En el Pacto Internacional de Derechos Civiles y Políticos, el derecho a la libertad de expresión no es un derecho absoluto. Los Estados pueden limitarlo legítimamente en circunstancias restringidas:

"3. El ejercicio de los derechos previstos en el apartado 2 del presente artículo entraña deberes y responsabilidades especiales. Podrá, por tanto, estar sujeto a ciertas restricciones, pero éstas sólo serán las previstas por la ley y necesarias: a) Para asegurar el respeto a los derechos o a la reputación de los demás; b) Para proteger la seguridad nacional, el orden público o la salud o la moral públicas ." [27]

Entre el artículo 19 (3) y el artículo 20, existe una distinción entre limitaciones opcionales y obligatorias al derecho a la libertad de expresión. El artículo 19 (3) establece que las limitaciones a la libertad de expresión "podrán, por lo tanto, estar sujetas a ciertas restricciones", siempre que estén previstas por la ley y sean necesarias para ciertos fines legítimos. El artículo 20 establece que cualquier apología de (ciertos tipos de) odio que constituya incitación a la discriminación , la hostilidad o la violencia "estará prohibida por la ley". A pesar de las indicaciones sobre la gravedad de los delitos de expresión que deberían estar prohibidos por ley según el artículo 20, sigue habiendo complejidad. [28] En particular, existe una zona gris en la conceptualización de distinciones claras entre (i) expresiones de odio, (ii) expresiones que propugnan el odio, y (iii) discurso de odio que constituye específicamente una incitación a los daños prácticos de la discriminación, la hostilidad o la violencia. Si bien los Estados tienen la obligación de prohibir el discurso concebido como "apología del odio que constituya incitación a la discriminación, la hostilidad o la violencia", como se establece en el artículo 20 (2), [29] no está claramente definido cómo interpretarlo. [30]

Otros instrumentos jurídicos internacionales

CERD

La Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD), que entró en vigor en 1969, también tiene implicaciones para la conceptualización de las formas de discurso de odio. La ICERD difiere del PIDCP en tres aspectos. [3] Su conceptualización del discurso de odio se limita específicamente al discurso que se refiere a la raza y la etnicidad . Afirma en el artículo 4, párrafo (a), que los Estados partes:

"Declararán como delito punible por la ley toda difusión de ideas basadas en la superioridad o el odio racial, la incitación a la discriminación racial, así como todos los actos de violencia o la incitación a tales actos contra cualquier raza o grupo de personas de otro color u origen étnico, y también la prestación de cualquier asistencia a actividades racistas, incluida su financiación; Esta obligación impuesta por la CERD a los Estados partes es también más estricta que el caso del artículo 20 del Pacto Internacional de Derechos Civiles y Políticos que cubre la criminalización de ideas racistas que no necesariamente inciten a la discriminación, la hostilidad o la violencia."

Una diferencia importante está en la cuestión de la intención . El concepto de "apología del odio" introducido en el PIDCP es más específico que el discurso discriminatorio descrito en la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial, ya que se considera que requiere la consideración de la intención del autor y no de la expresión aislada ; esto se debe a que la "apología" se interpreta en el PIDCP como que requiere la intención de sembrar el odio. [31] El Comité para la Eliminación de la Discriminación Racial ha abordado activamente el discurso de odio en su Recomendación General 29, en la que el Comité recomienda a los Estados Partes que:

"(r) Adoptar medidas contra toda difusión de ideas de superioridad e inferioridad de castas o que intenten justificar la violencia, el odio o la discriminación contra las comunidades basadas en la ascendencia; (s) Adoptar medidas estrictas contra toda incitación a la discriminación o la violencia contra las comunidades, incluso a través de Internet; (t) Adoptar medidas para concienciar a los profesionales de los medios de comunicación sobre la naturaleza y la incidencia de la discriminación basada en la ascendencia;" [32]

Estos puntos, que reflejan la referencia de la ICERD a la difusión de la expresión, tienen importancia para Internet . La expresión de ideas en algunos contextos en línea puede equivaler inmediatamente a su difusión. Esto es especialmente relevante para los espacios privados que han comenzado a desempeñar un papel público, como es el caso de muchas plataformas de redes sociales . [3]

Convención sobre el Genocidio

De manera similar a la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial, la Convención sobre el Genocidio tiene como objetivo proteger a los grupos definidos por su raza, nacionalidad o etnia, aunque también extiende sus disposiciones a los grupos religiosos. En lo que respecta al discurso de odio, la Convención sobre el Genocidio se limita únicamente a los actos que incitan públicamente al genocidio , reconocidos como "actos cometidos con la intención de destruir , total o parcialmente, a un grupo nacional, étnico, racial o religioso", independientemente de que dichos actos se realicen en tiempo de paz o de guerra. [3] En concreto, el discurso de odio basado en el género (a diferencia de las acciones discriminatorias) no está contemplado en profundidad en el derecho internacional . [3]

CEDAW

La Convención sobre la eliminación de todas las formas de discriminación contra la mujer (CEDAW), que entró en vigor en 1981, impone a los Estados obligaciones de condenar la discriminación contra la mujer [33] y de “prevenir, investigar, enjuiciar y sancionar” los actos de violencia de género. [34]

Respuestas regionales

La mayoría de los instrumentos regionales no tienen artículos específicos que prescriban la prohibición del discurso de odio, pero en términos más generales permiten a los Estados limitar la libertad de expresión, disposiciones que pueden aplicarse a casos específicos. [3]

Convención Americana sobre Derechos Humanos

La Convención Americana sobre Derechos Humanos describe las limitaciones a la libertad de expresión de una manera similar al PIDCP en el artículo 19 (3). La Organización de los Estados Americanos también ha adoptado otra declaración sobre los principios de la libertad de expresión, que incluye una cláusula específica que establece que "los condicionamientos previos de las expresiones, tales como la veracidad, la oportunidad o la imparcialidad, son incompatibles con el derecho a la libertad de expresión reconocido en los instrumentos internacionales". [35] La Corte Interamericana ha advertido que "el abuso de la libertad de información no puede, por lo tanto, controlarse mediante medidas preventivas , sino sólo mediante la imposición ulterior de sanciones a quienes son culpables de los abusos". [36] La Corte también impone una prueba para los Estados dispuestos a promulgar restricciones a la libertad de expresión, ya que deben observar los siguientes requisitos: "a) la existencia de causas de responsabilidad previamente establecidas; b) la definición expresa y precisa de esas causas por la ley; c) la legitimidad de los fines que se buscan alcanzar; d) la demostración de que esas causas de responsabilidad son 'necesarias para asegurar' los fines mencionados". [37] El Sistema Interamericano cuenta con un Relator Especial para la Libertad de Expresión que realizó un estudio exhaustivo sobre el discurso de odio. Concluyó que el Sistema Interamericano de Derechos Humanos difiere del enfoque de las Naciones Unidas y de la Unión Europea en un punto clave: el sistema interamericano abarca y restringe el discurso de odio que realmente conduce a la violencia, y sólo ese discurso puede ser restringido. [37]

Carta Africana de Derechos Humanos y de los Pueblos

La Carta Africana de Derechos Humanos y de los Pueblos adopta un enfoque diferente en el artículo 9 (2), que permite restricciones a los derechos siempre que estén "dentro de la ley". Este concepto ha sido criticado y existe una gran cantidad de trabajos jurídicos sobre las llamadas cláusulas de "recuperación" y su interpretación. [38] La crítica se dirige principalmente al hecho de que los países pueden manipular su propia legislación y debilitar la esencia del derecho a la libertad de expresión. La Declaración de Principios sobre la Libertad de Expresión en África elabora un estándar más alto para las limitaciones a la libertad de expresión. Declara que el derecho "no debe restringirse por motivos de orden público o seguridad nacional a menos que exista un riesgo real de daño a un interés legítimo y exista un vínculo causal estrecho entre el riesgo de daño y la expresión". [39]

Declaración de El Cairo sobre los derechos humanos en el Islam

En 1990, la Organización de la Conferencia Islámica (que más tarde pasó a llamarse Organización de Cooperación Islámica, OCI) adoptó la Declaración de El Cairo sobre los Derechos Humanos en el Islam (CDHI), que pide la criminalización de las expresiones que van más allá de los casos de violencia inminente y abarcan "actos o expresiones que denoten intolerancia y odio manifiestos". [40]

Carta Árabe de Derechos Humanos

La Carta Árabe de Derechos Humanos, adoptada por el Consejo de la Liga de los Estados Árabes en 2004, incluye en su artículo 32 disposiciones que son pertinentes también para la comunicación en línea, ya que garantiza el derecho a la "libertad de opinión y expresión, y el derecho a buscar, recibir y difundir información e ideas a través de cualquier medio, independientemente de las fronteras geográficas". [41] Permite una limitación amplia en el párrafo 2: "Dichos derechos y libertades se ejercerán de conformidad con los valores fundamentales de la sociedad". [42]

Declaración de Derechos Humanos de la ASEAN

La Declaración de Derechos Humanos de la ASEAN incluye el derecho a la libertad de expresión en el artículo 23. El artículo 7 de la Declaración establece limitaciones generales, afirmando que "la realización de los derechos humanos debe considerarse en el contexto regional y nacional, teniendo en cuenta los diferentes antecedentes políticos, económicos, jurídicos, sociales, culturales, históricos y religiosos". [43]

Carta de los Derechos Fundamentales de la Unión Europea

La Carta de los Derechos Fundamentales de la Unión Europea , que declara el derecho a la libertad de expresión en su artículo 11, contiene una cláusula que prohíbe el abuso de derechos. Afirma que la Carta no debe interpretarse en el sentido de que implica una "limitación mayor que la prevista en ella". [44] Un ejemplo de una limitación que implica una prueba estricta de necesidad y proporcionalidad es la disposición sobre la libertad de expresión del Convenio Europeo de Derechos Humanos , que subraya que el ejercicio de la libertad de expresión conlleva deberes y responsabilidades. "Podrá estar sujeta a las formalidades, condiciones, restricciones o sanciones que prescriba la ley y que sean necesarias en una sociedad democrática , en interés de la seguridad nacional , de la integridad territorial o de la seguridad pública , para la prevención de desórdenes o infracciones penales, para la protección de la salud o de la moral, para la protección de la reputación o de los derechos de terceros, para impedir la divulgación de información confidencial o para mantener la autoridad y la imparcialidad del poder judicial". [45]

El Tribunal Europeo de Derechos Humanos es cuidadoso al distinguir entre el discurso de odio y el derecho de las personas a expresar sus opiniones libremente, incluso si otros se sienten ofendidos. [46] Hay casos regionales relevantes específicamente para el discurso de odio en línea. El Consejo de Europa (CoE) en 2000 emitió una Recomendación de política general sobre la lucha contra la difusión de material racista, xenófobo y antisemita a través de Internet. [47] La ​​creación de la Convención del CoE sobre ciberdelincuencia en 2001, que regula la asistencia mutua en materia de poderes de investigación, proporciona a los países signatarios un mecanismo para tratar los datos informáticos , que incluiría el discurso de odio transnacional en línea. [48] En 2003, el CoE lanzó un protocolo adicional a la Convención sobre ciberdelincuencia que aborda la expresión en línea del racismo y la xenofobia. La convención y su protocolo se abrieron a la firma y ratificación de países fuera de Europa , y otros países, como Canadá y Sudáfrica , ya son parte de esta convención. El Protocolo impone a los Estados miembros la obligación de tipificar como delito los insultos racistas y xenófobos en línea dirigidos a “(i) personas por el hecho de pertenecer a un grupo que se distinga por su raza, color, ascendencia u origen nacional o étnico, así como por su religión, si se utilizan como pretexto para cualquiera de estos factores; o (ii) un grupo de personas que se distinga por cualquiera de estas características”. [49]

Espacios privados

Los intermediarios de Internet , como las plataformas de redes sociales , los proveedores de servicios de Internet o los motores de búsqueda , estipulan en sus términos de servicio cómo pueden intervenir para permitir, restringir o canalizar la creación y el acceso a contenido específico. Una gran cantidad de interacciones en línea ocurren en plataformas de redes sociales que trascienden las jurisdicciones nacionales y que también han desarrollado sus propias definiciones de discurso de odio y medidas para responder a él. Para un usuario que viola los términos de servicio, el contenido que ha publicado puede ser eliminado de la plataforma, o su acceso puede restringirse para que lo vea solo una cierta categoría de usuarios (por ejemplo, usuarios que viven fuera de un país específico). [3]

Los principios que inspiran los contratos de servicios y los mecanismos que cada empresa desarrolla para asegurar su implementación tienen repercusiones significativas en la capacidad de las personas para expresarse en línea y para estar protegidas del discurso de odio. La mayoría de los intermediarios tienen que entablar negociaciones con los gobiernos nacionales en una medida que varía según el tipo de intermediario, las zonas en las que está registrada la empresa y el régimen jurídico que se aplica. Como explica Tsesis, "si las transmisiones en Internet se envían y reciben en lugares particulares, entonces los foros específicos conservan la jurisdicción para perseguir las actividades ilegales que se realizan en Internet". [3] Los proveedores de servicios de Internet son los más directamente afectados por la legislación nacional porque tienen que estar ubicados en un país específico para operar. Los motores de búsqueda, si bien pueden modificar los resultados de búsqueda por razones comerciales o de autorregulación, han tendido cada vez más a adaptarse al régimen de responsabilidad de los intermediarios tanto de sus jurisdicciones de origen registradas como de otras jurisdicciones en las que prestan sus servicios, ya sea eliminando enlaces a contenidos de manera proactiva o a pedido de las autoridades. [50]

Todos los intermediarios de Internet operados por empresas privadas también deben respetar los derechos humanos . Esto se establece en los Principios Rectores sobre las Empresas y los Derechos Humanos elaborados por la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos . El documento hace hincapié en la responsabilidad corporativa de respetar los derechos humanos mediante la debida diligencia. En el principio 11, declara que: "Las empresas deben respetar los derechos humanos. Esto significa que deben evitar infringir los derechos humanos de otros y deben abordar los impactos adversos sobre los derechos humanos en los que estén involucradas". [51] Los Principios Rectores de las Naciones Unidas también indican que en los casos en que se violan los derechos humanos, las empresas deben "prever o cooperar en su reparación mediante procesos legítimos". [51] En el caso de los intermediarios de Internet y las concepciones del discurso de odio, esto significa que deben asegurarse de que existan medidas para proporcionar una respuesta proporcional. [3]

Respuestas sociales

Estudios de caso

El Pew Research Center encuestó a más de 10,000 adultos en julio de 2020 para estudiar el efecto de las redes sociales en la política y el activismo por la justicia social . El 23% de los encuestados, que son usuarios adultos de las redes sociales, informaron que el contenido de las redes sociales les hizo cambiar su opinión, positiva o negativamente, sobre un tema político o de justicia social. [52] El 35% de los encuestados citó el movimiento Black Lives Matter , la reforma policial y/o las relaciones raciales . [52] El 18% de los encuestados informó un cambio de opinión sobre partidos políticos, ideologías , políticos y/o el presidente Donald Trump . [52] El 9% de los encuestados citó cuestiones de justicia social, como los derechos LGBTQIA+ , el feminismo , la inmigración , etc. [52] El 8% de los encuestados cambió su opinión sobre la pandemia de COVID-19 y el 10% citó otras opiniones. [52] Según estos resultados, las redes sociales juegan un papel importante a la hora de influir en la opinión pública.

Manipulación de los medios y desinformación en línea

Un estudio realizado por los investigadores Alice Marwick y Rebecca Lewis observó la manipulación de los medios y exploró cómo la alt-right comercializó, creó redes y colaboró ​​para influir en sus controvertidas creencias que podrían haber ayudado potencialmente a influir en la victoria del presidente Trump en las elecciones de 2016. A diferencia de los medios tradicionales , la alt-right no necesita cumplir con ninguna regla cuando se trata de influencia y no necesita preocuparse por las calificaciones de la red, las críticas de la audiencia o el sensacionalismo . [53] [¿ opinión desequilibrada? ] [¿ en comparación con? ] Los grupos de alt-right pueden compartir y persuadir a otros de sus controvertidas creencias tan francamente y descaradamente como deseen, en cualquier plataforma, [¿ opinión desequilibrada? ] [ ¿ en comparación con? ] lo que puede haber jugado un papel en las elecciones de 2016. Aunque el estudio no pudo concluir cuál fue exactamente el efecto en la elección, sí proporcionó una investigación extensa sobre las características de la manipulación de los medios y el trolling . [53]

Discurso de odio y perfiles lingüísticos en los juegos en línea

La profesora y jugadora Kishonna Gray estudió las opresiones interseccionales en la comunidad de juegos en línea y pidió a Microsoft y a los desarrolladores de juegos que "evalúen críticamente las experiencias de los jugadores no tradicionales en las comunidades en línea... reconocer la diversidad ... [y que] la población de jugadores por defecto está desplegando la blancura y la masculinidad hegemónicas en detrimento de los usuarios no blancos y/o no masculinos dentro del espacio". [54] Gray examinó el sexismo y el racismo en la comunidad de juegos en línea . Los jugadores intentan identificar el género, la sexualidad y el origen étnico de sus compañeros de equipo y oponentes a través de perfiles lingüísticos , cuando no se puede ver a los otros jugadores. [54] Debido a la intensa atmósfera de la esfera de los juegos virtuales y la incapacidad de no ser vistos, ubicados o confrontados físicamente, los jugadores tienden a decir cosas en el juego virtual que probablemente no habrían dicho en un entorno público. Muchos jugadores de comunidades marginadas se han separado de la red global de juegos y se han unido a " clanes ", que consisten solo en jugadores del mismo género, sexualidad y/o identidad étnica, para evitar la discriminación mientras juegan. Un estudio encontró que el 78 por ciento de todos los jugadores en línea juegan en "gremios", que son grupos más pequeños de jugadores, similares a los " clanes ". [55] Uno de los " clanes " más notables , Puerto Reekan Killaz, ha creado un espacio de juego en línea donde las mujeres negras y latinas de la comunidad LGBTQIA+ pueden jugar sin riesgo de racismo , nativismo , homofobia , sexismo y acoso sexual . [54]

Además del discurso de odio, la profesora y jugadora Lisa Nakamura descubrió que muchos jugadores han experimentado el turismo de identidad , que es cuando una persona o un grupo se apropia y finge ser miembros de otro grupo, como Nakamura observó que los jugadores blancos juegan como mujeres " geishas " japonesas. [56] El turismo de identidad a menudo conduce a estereotipos , discriminación y apropiación cultural . [56] Nakamura hizo un llamado a la comunidad de juegos en línea para que reconozca el cibertipo, "la forma en que Internet propaga, difunde y mercantiliza imágenes de raza y racismo". [57]

Retórica antichina empleada por perpetradores de odio antiasiático

En agosto de 2020, más de 2500 estadounidenses de origen asiático informaron haber sufrido racismo a causa del COVID-19 , y el 30,5 % de esos casos contenían retórica antichina, según Stop AAPI (Asian-American/Pacific Islander) Hate . El lenguaje utilizado en estos incidentes se divide en cinco categorías: animosidad virulenta, chivo expiatorio de China, nativismo antiinmigrante , caracterizaciones racistas de los chinos e insultos raciales . El 60,4 % de estos incidentes denunciados encajan en la categoría de animosidad virulenta, que incluye frases como "¡Aparta tu trasero chino de mí!" [58]

Pakistán

El discurso de odio en línea y el acoso cibernético contra minorías religiosas y étnicas , mujeres y otros grupos socialmente marginados han sido durante mucho tiempo un problema que se minimiza y/o se ignora en la República Islámica del Pakistán . [59] [60] [61] [62]

Los discursos de odio contra los ahmadíes , tanto en línea [63] como en la vida real [64], han llevado a su persecución a gran escala . [65]

BytesForAll , una iniciativa del sur de Asia y un proyecto miembro de APC, publicó un estudio sobre el discurso de odio en línea en Pakistán el 7 de junio de 2014. [66] [67]

La investigación incluyó dos fases independientes:

Según el informe:

Birmania

Internet ha crecido a un ritmo sin precedentes. Myanmar está haciendo una transición hacia una mayor apertura y acceso, lo que lleva a aspectos negativos en las redes sociales, como el uso de discursos de odio y llamadas a la violencia. [68] En 2014, la Relatora Especial del Consejo de Derechos Humanos de las Naciones Unidas sobre cuestiones de las minorías expresó su preocupación por la difusión de información errónea , discursos de odio e incitación a la violencia , discriminación y hostilidad en los medios de comunicación e Internet, especialmente dirigidos contra una comunidad minoritaria. [5] La creciente tensión en línea ha ido en paralelo con casos de violencia real que han dejado cientos de muertos y miles de desplazados. [69] Un desafío en este proceso ha afectado a las minorías étnicas y religiosas. En 2013, 43 personas murieron debido a los enfrentamientos que estallaron después de una disputa en el estado de Rakhine en la parte occidental del país. [69] Un año antes, más de 200 personas murieron y miles fueron desplazadas 37 debido a la violencia étnica, que estalló después de un presunto caso de violación. [70] En este contexto, la rápida aparición de nuevos espacios en línea, aunque sean para una fracción de la población, ha reflejado algunas de estas tensiones profundamente arraigadas en una nueva forma. [3]

La lucha contra la intolerancia y el discurso de odio en Internet es un problema emergente. Facebook se ha convertido rápidamente en la plataforma preferida por los ciudadanos que dan sus primeros pasos en Internet. En este entorno, ha habido individuos y grupos que han defendido un uso más agresivo del medio, especialmente cuando se sienten protegidos por un sentido de rectitud y por afirmaciones de actuar en defensa del interés nacional . Las figuras políticas también han utilizado los medios en línea para causas particulares. En las redes sociales, se han utilizado términos despectivos en referencia a las minorías. [71] En esta situación compleja, una variedad de actores ha comenzado a movilizarse, tratando de ofrecer respuestas que puedan evitar más violencia. Facebook ha tratado de asumir un papel más activo en el seguimiento de los usos de la plataforma de red social en Myanmar, desarrollando alianzas con organizaciones locales y haciendo accesibles en birmano las directrices sobre la denuncia de problemas. [72] [3]

La sociedad civil local ha sido una voz fuerte que condena abiertamente la difusión del discurso de odio en Internet, pero al mismo tiempo pide alternativas a la censura . Entre las respuestas más innovadoras ha estado Panzagar, que en birmano significa "discurso de flores", una campaña lanzada por el bloguero y activista Nay Phone Latt para oponerse abiertamente al discurso de odio. El objetivo de la iniciativa era ofrecer un ejemplo alegre de cómo las personas pueden interactuar, tanto en línea como fuera de línea. [73] Los activistas locales se han centrado en soluciones locales, en lugar de tratar de movilizar a la sociedad civil mundial sobre estas cuestiones. Esto contrasta con algunas otras campañas en línea que han podido atraer la atención del mundo hacia problemas relativamente desatendidos. Iniciativas como las promovidas por la Coalición para Salvar Darfur para la guerra civil en Sudán , o la organización Invisible Children con la campaña Kony2012 que denunció las atrocidades cometidas por el Ejército de Resistencia del Señor , son ejemplos populares. Como lo han señalado los comentarios sobre estas campañas, estas respuestas globales pueden tener repercusiones negativas en la capacidad de encontrar soluciones locales. [74]

Etiopía

2019–2020

La rivalidad étnica de larga data en Etiopía entre el pueblo oromo y el pueblo amhara encontró un campo de batalla en Facebook , lo que dio lugar a discursos de odio, amenazas, desinformación y muertes. Facebook no tiene verificadores de datos que hablen ninguno de los idiomas dominantes que se hablan en Etiopía ni proporciona traducciones de las Normas comunitarias, por lo que el discurso de odio en Facebook no se controla en gran medida en Etiopía. En cambio, Facebook depende de activistas para marcar el posible discurso de odio y la desinformación, pero los numerosos activistas agotados se sienten maltratados. [75]

En octubre de 2019, el activista etíope Jawar Mohammed anunció falsamente en Facebook que la policía lo iba a detener, alegando tensiones religiosas y étnicas. Esto llevó a la comunidad a protestar por su presunta detención y las tensiones raciales y étnicas, que provocaron más de 70 muertes. [76]

Una campaña de desinformación se originó en Facebook centrada en el popular cantante etíope Hachalu Hundessa , del grupo étnico oromo. Las publicaciones acusaron a Hundessa de apoyar a su controvertido primer ministro Abiy Ahmed , a quien los nacionalistas oromo desaprobaron por su complacencia con otros grupos étnicos. Hundessa fue asesinado en junio de 2020 tras las publicaciones de odio en Facebook, lo que provocó la indignación pública. Los usuarios de Facebook culparon al pueblo amhara por el asesinato de Hundessa sin ninguna prueba en un largo hilo de contenido de odio. [75] Según The Network Against Hate Speech, muchas publicaciones de Facebook pedían " ataques genocidas contra un grupo étnico o una religión, o ambos al mismo tiempo; y ordenar a las personas que quemen las propiedades de los civiles, los maten brutalmente y los desplacen". [75] La violencia en las calles y en Facebook se intensificó hasta el punto de que el gobierno etíope cerró Internet durante tres semanas. Sin embargo, los países vecinos aún podían publicar y acceder al contenido odioso del asunto, y los activistas voluntarios no podían acceder a Internet para denunciar el discurso de odio. Por lo tanto, "hay horas de videos provenientes de la comunidad de la diáspora, con contenido extremista, que dicen que debemos exterminar a este grupo étnico", según el profesor Endalk Chala de la Universidad de Hamline. [75]

Los funcionarios de Facebook viajaron a Etiopía para investigar, pero no dieron a conocer sus hallazgos. Facebook anunció que está contratando moderadores que hablen amárico y otros idiomas en Etiopía, pero no proporcionó detalles extensos. [75]

Finales de 2020-2021

El discurso de odio en línea se produjo durante la Guerra de Tigray , en la que se inició el conflicto militar y los crímenes de guerra por parte de todos los bandos , posiblemente equivalentes a crímenes contra la humanidad , en noviembre de 2020. [77] En un discurso de odio en las redes sociales en noviembre de 2021, periodistas, políticos y activistas pro-gobierno federal llamaron a los tigrayanos étnicos "traidores", pidieron a los vecinos que los "eliminaran" y pidieron a las autoridades que detuvieran a los tigrayanos étnicos en "campos de concentración". Se produjeron detenciones masivas de tigrayanos étnicos, con justificación legal federal en virtud del estado de emergencia etíope de 2021. [78]

Empresas privadas

Los intermediarios de Internet han desarrollado definiciones dispares de discurso de odio y directrices para regularlo. Algunas empresas no utilizan el término discurso de odio, pero tienen una lista descriptiva de términos relacionados con él. [3]

¡Yahoo!

Los términos de servicio de Yahoo! prohíben la publicación de "contenido que sea ilegal , dañino, amenazante, abusivo, acosador , tortuoso, difamatorio , vulgar, obsceno, calumnioso , invasivo de la privacidad de otros, odioso o racial, étnicamente o de otro modo objetable". [79]

Gorjeo

En diciembre de 2017, Twitter comenzó a aplicar nuevas políticas contra el discurso de odio, prohibiendo múltiples cuentas y estableciendo nuevas pautas sobre lo que se permitirá en su plataforma. [80] Hay una página completa en el Centro de ayuda de Twitter dedicada a describir su Política de conducta de odio, así como sus procedimientos de aplicación. [81] La parte superior de esta página dice "La libertad de expresión significa poco si las voces se silencian porque la gente tiene miedo de hablar. No toleramos comportamientos que acosen, intimiden o utilicen el miedo para silenciar la voz de otra persona. Si ve algo en Twitter que viole estas reglas, infórmennoslo". La definición de discurso de odio de Twitter varía desde "amenazas violentas" y "deseos de daño físico, muerte o enfermedad de individuos o grupos" hasta "insultos, epítetos, tropos racistas y sexistas repetidos y/o no consensuados, u otro contenido que degrade a alguien".

Las sanciones por infracciones van desde la suspensión de la capacidad de un usuario para tuitear hasta que elimine su publicación ofensiva u ofensiva hasta la eliminación total de una cuenta. En una declaración posterior a la implementación de sus nuevas políticas, Twitter dijo: "En nuestros esfuerzos por ser más agresivos en este aspecto, podemos cometer algunos errores y estamos trabajando en un sólido proceso de apelaciones". . . "Evaluaremos e iteraremos sobre estos cambios en los próximos días y semanas, y los mantendremos informados sobre el progreso a lo largo del camino". [82] Estos cambios llegan en un momento en el que se están tomando medidas para prevenir el discurso de odio en todo el mundo, incluidas nuevas leyes en Europa que imponen multas a los sitios que no puedan abordar los informes de discurso de odio en un plazo de 24 horas. [83]

YouTube

YouTube , una subsidiaria de la empresa tecnológica Google , permite una fácil distribución y acceso a contenido para cualquier creador de contenido, lo que crea la oportunidad para que la audiencia acceda a contenido que se desvía hacia la derecha o hacia la izquierda de la ideología " moderada " común en los medios tradicionales . [84] YouTube ofrece incentivos a los creadores de contenido populares, lo que impulsa a algunos creadores a optimizar la experiencia de YouTuber y publicar contenido con valor de impacto que puede promover ideas extremistas y odiosas. [84] [85] La diversidad de contenido y la monetización en YouTube dirigen a una amplia audiencia al contenido potencialmente dañino de los extremistas. [84] [85] YouTube permite a los creadores marcarse personalmente, lo que facilita que los suscriptores jóvenes formen una relación parasocial con ellos y actúen como clientes "habituales". [85] En 2019, YouTube desmonetizó las cuentas políticas, [86] pero los creadores de contenido radical todavía tienen sus canales y suscriptores para mantenerlos culturalmente relevantes y económicamente a flote. [85]

YouTube ha delineado una clara "Política de discurso de odio" entre varias otras políticas de usuario en su sitio web. [87] La ​​política está redactada de la siguiente manera: "Alentamos la libertad de expresión y tratamos de defender su derecho a expresar puntos de vista impopulares, pero no permitimos el discurso de odio. El discurso de odio se refiere al contenido que promueve la violencia contra o tiene el propósito principal de incitar al odio contra individuos o grupos en función de ciertos atributos, como: raza u origen étnico, religión, discapacidad, género, edad, condición de veterano, orientación sexual / identidad de género". YouTube ha incorporado un sistema de denuncia de usuarios para contrarrestar la creciente tendencia del discurso de odio. [88] Uno de los elementos disuasorios más populares contra el discurso de odio es que los usuarios pueden denunciar anónimamente a otro usuario por contenido que consideren inapropiado. Luego, el contenido se revisa en función de la política de YouTube y las restricciones de edad, y se elimina o se deja como está.

Facebook

Un mensaje de Facebook que se muestra a un usuario cuya cuenta ha sido suspendida debido a la violación de las pautas de incitación al odio.

Los términos de Facebook prohíben el contenido que sea dañino, amenazante o que tenga el potencial de incitar al odio e incitar a la violencia. En sus estándares comunitarios, Facebook explica que "Facebook elimina el discurso de odio, que incluye contenido que ataca directamente a las personas en función de su: raza, etnia, origen nacional, afiliación religiosa, orientación sexual, sexo, género o identidad de género, o discapacidades o enfermedades graves ". [89] Además, afirma que "Permitimos el humor, la sátira o los comentarios sociales relacionados con estos temas, y creemos que cuando las personas usan su identidad auténtica, son más responsables al compartir este tipo de comentarios. Por esa razón, solicitamos que los propietarios de páginas asocien su nombre y perfil de Facebook con cualquier contenido que sea insensible, incluso si ese contenido no viola nuestras políticas. Como siempre, instamos a las personas a ser conscientes de su audiencia al compartir este tipo de contenido". [89]

Instagram , una plataforma para compartir fotos y videos propiedad de Facebook , tiene pautas similares a las de Facebook en materia de discurso de odio, pero no está dividida en niveles. Las Pautas de la comunidad de Instagram también prohíben la desinformación, la desnudez, la glorificación de la autolesión y la publicación de contenido con derechos de autor sin autorización. [90]

Las políticas de Facebook contra el discurso de odio son aplicadas por 7.500 revisores de contenido, así como por muchos monitores de inteligencia artificial. Debido a que esto requiere una toma de decisiones difícil, surge una controversia entre los revisores de contenido sobre la aplicación de las políticas. Algunos usuarios parecen sentir que la aplicación es inconsistente. Un ejemplo del pasado adecuado son dos publicaciones separadas pero igualmente gráficas que deseaban la muerte a miembros de una religión específica. Ambas publicaciones fueron marcadas por los usuarios y revisadas por el personal de Facebook. Sin embargo, solo una fue eliminada a pesar de que transmitían sentimientos casi idénticos. [91] En una cita sobre el discurso de odio en la plataforma, el vicepresidente de operaciones globales de Facebook, Justin Osofky, afirmó: "Lamentamos los errores que hemos cometido; no reflejan la comunidad que queremos ayudar a construir... Debemos hacerlo mejor". [92]

Ha habido una controversia adicional debido a la especificidad de las políticas de Facebook sobre discurso de odio . En muchas ocasiones ha habido informes de actualizaciones de estado y comentarios que los usuarios consideran insensibles y transmiten odio. Sin embargo, estas publicaciones técnicamente no infringen ninguna política de Facebook porque su discurso no ataca a otros según la lista de clases protegidas de la empresa. Por ejemplo, la declaración "Las periodistas deportivas deben ser golpeadas en la cabeza con discos de hockey" no se consideraría discurso de odio en la plataforma de Facebook y, por lo tanto, no se eliminaría. [93] Si bien la empresa protege contra el odio basado en el género, no protege contra el odio basado en la ocupación.

Facebook ha sido acusado de tener prejuicios al controlar el discurso de odio, citando anuncios de campañas políticas que pueden promover el odio o la desinformación que han tenido un impacto en la plataforma. [15] Facebook ajustó sus políticas después de recibir reacciones negativas, acusaciones y grandes corporaciones retiraron sus anuncios de la plataforma para protestar por el manejo poco riguroso de la plataforma del discurso de odio y la desinformación. [15] A partir de 2020, los anuncios de campañas políticas tienen una función de "bandera" que señala que el contenido es de interés periodístico pero que puede violar algunas pautas de la comunidad. [15]

Facebook también intenta dar cabida a los usuarios que promueven otros contenidos de incitación al odio con la intención de criticarlos. En estos casos, se exige a los usuarios que dejen claro que su intención es educar a los demás. Si esta intención no está clara, Facebook se reserva el derecho de censurar el contenido. [94] Cuando Facebook inicialmente marca el contenido que puede contener incitación al odio, lo asigna a una escala de niveles 1, 2 y 3, según la gravedad del contenido. El nivel 1 es el más grave y el nivel 3 es el menos grave. El nivel 1 incluye todo lo que transmita "discurso violento o apoyo a la muerte/enfermedad/daño". [95] El nivel 2 se clasifica como contenido que difama la imagen de otro usuario mental, física o moralmente. [96] El nivel 3 incluye todo lo que pueda excluir o discriminar a otros, o que utilice insultos sobre grupos protegidos, pero no se aplica necesariamente a argumentos para restringir la inmigración o críticas a las políticas de inmigración existentes. [96]

En marzo de 2019, Facebook prohibió el contenido que apoyaba el nacionalismo blanco y el separatismo blanco , extendiendo una prohibición anterior de contenido de supremacía blanca . [97] En mayo de 2019, anunció prohibiciones a varias personas prominentes por violaciones a su prohibición sobre el discurso de odio, incluidos Alex Jones , Louis Farrakhan , Milo Yiannopoulos , Laura Loomer y Paul Nehlen . [98]

En 2020, Facebook agregó pautas al Nivel 1 que prohíben las caras pintadas de negro , las comparaciones raciales con animales, los estereotipos raciales o religiosos , la negación de eventos históricos y la cosificación de las mujeres y la comunidad LGBTQIA+ . [99]

Los discursos de odio en Facebook e Instagram se cuadriplicaron en 2020, lo que llevó a la eliminación de 22,5 millones de publicaciones en Facebook y 3,3 millones de publicaciones en Instagram solo en el segundo trimestre de 2020. [15]

En octubre de 2022, Media Matters publicó un informe que indicaba que Facebook e Instagram seguían beneficiándose de anuncios que utilizaban el insulto " groomer " para referirse a las personas LGBT . [100] El artículo informaba que Meta había confirmado previamente que el uso de esta palabra para referirse a la comunidad LGBT viola sus políticas de incitación al odio. [100] La historia fue posteriormente recogida por otros medios de comunicación como New York Daily News , PinkNews y LGBTQ Nation . [101] [102] [103]

Microsoft

Microsoft tiene reglas específicas sobre el discurso de odio para una variedad de sus aplicaciones . Su política para teléfonos móviles prohíbe las aplicaciones que "contengan cualquier contenido que promueva la discriminación, el odio o la violencia en función de consideraciones de raza, etnia, origen nacional, idioma, género, edad, discapacidad, religión, orientación sexual, condición de veterano o pertenencia a cualquier otro grupo social". [104] La empresa también tiene reglas sobre los juegos en línea, que prohíben cualquier comunicación que sea indicativa de "discurso de odio, temas religiosos controvertidos y eventos actuales o históricos sensibles". [105]

TikTok

TikTok carece de directrices claras y control sobre el discurso de odio, lo que permite que la intimidación , el acoso , la propaganda y el discurso de odio se conviertan en parte del discurso normal en TikTok . Los grupos de odio de extrema derecha y las organizaciones terroristas prosperan en TikTok difundiendo y fomentando el odio a una audiencia de tan solo 13 años. [106] Los niños son ingenuos y se dejan influenciar fácilmente por otras personas y mensajes, por lo que es más probable que escuchen y repitan lo que se les muestra o se les dice. [107] Internet no tiene un espacio excesivamente monitoreado que garantice la seguridad de los niños, por lo que mientras Internet sea público, los niños y adolescentes están obligados a encontrarse con discursos de odio. [107] A partir de ahí, los adolescentes jóvenes tienden a dejar que su curiosidad los lleve a fomentar su interés e investigación en ideas radicales. [107]

Sin embargo, los niños no pueden responsabilizarse de sus acciones de la manera en que los adultos pueden y deben hacerlo, [107] culpando no solo a la persona que publicó el contenido vulgar, sino a la propia plataforma de redes sociales. Por lo tanto, TikTok es criticada por su manejo del discurso de odio en la plataforma. Si bien TikTok prohíbe el acoso , el hostigamiento y cualquier discurso vulgar u odioso en sus Términos y condiciones, TikTok no ha estado activo el tiempo suficiente como para haber desarrollado un método efectivo para monitorear este contenido. [106] Otras plataformas de redes sociales como Instagram , Twitter y Facebook han estado activas el tiempo suficiente como para saber cómo combatir el discurso de odio y el contenido vulgar en línea, [106] pero la audiencia en esas plataformas tiene la edad suficiente para asumir la responsabilidad de los mensajes que difunden. [107]

TikTok , por otro lado, tiene que asumir cierta responsabilidad por el contenido distribuido a su audiencia joven. [106] Los usuarios de TikTok deben tener al menos 13 años de edad, sin embargo, ese requisito se puede obviar fácilmente, ya que las aplicaciones no pueden acceder físicamente a la edad de los usuarios. El investigador Robert Mark Simpson concluyó que combatir el discurso de odio en los medios dirigidos a los jóvenes "podría parecerse más a las regulaciones que rigen el entretenimiento para adultos que a las prohibiciones de negación del Holocausto". [107]

Alfabetización mediática e informativa

La alfabetización mediática e informacional tiene como objetivo ayudar a las personas a participar en una sociedad digital al poder usar, comprender, investigar, crear, comunicar y pensar críticamente; al mismo tiempo que pueden acceder, organizar, analizar, evaluar y crear mensajes de manera efectiva en una variedad de formas. [108]

La educación para la ciudadanía se centra en preparar a los individuos para que sean ciudadanos informados y responsables mediante el estudio de los derechos, las libertades y las responsabilidades, y se ha empleado de diversas maneras en sociedades que emergen de conflictos violentos. [109] Uno de sus principales objetivos es crear conciencia sobre los derechos políticos, sociales y culturales de los individuos y los grupos, incluida la libertad de expresión y las responsabilidades e implicaciones sociales que surgen de ella. La preocupación de la educación para la ciudadanía con respecto al discurso de odio es doble: abarca el conocimiento y las habilidades para identificar el discurso de odio y debe permitir a los individuos contrarrestar los mensajes de odio. [110] Uno de sus desafíos actuales es adaptar sus objetivos y estrategias al mundo digital, proporcionando no solo conocimientos y habilidades argumentativas sino también tecnológicas que un ciudadano puede necesitar para contrarrestar el discurso de odio en línea. [3]

La alfabetización informacional no puede obviar cuestiones como los derechos a la libre expresión y la privacidad, la ciudadanía crítica y el fomento del empoderamiento para la participación política . [111] Las alfabetizaciones múltiples y complementarias se vuelven fundamentales. La aparición de nuevas tecnologías y redes sociales ha desempeñado un papel importante en este cambio. Los individuos han evolucionado desde ser meros consumidores de mensajes mediáticos a productores, creadores y curadores de información, lo que ha dado lugar a nuevos modelos de participación que interactúan con los tradicionales, como votar o unirse a un partido político . Las estrategias de enseñanza están cambiando en consecuencia, desde el fomento de la recepción crítica de los mensajes mediáticos hasta el empoderamiento de la creación de contenidos mediáticos. [112]

El concepto de alfabetización mediática e informacional continúa evolucionando y se ve reforzado por la dinámica de Internet. Está empezando a abarcar cuestiones de identidad , ética y derechos en el ciberespacio . [113] Algunas de estas habilidades pueden ser particularmente importantes a la hora de identificar y responder al discurso de odio en línea.

Serie de iniciativas destinadas a proporcionar información y herramientas prácticas para que los usuarios de Internet sean ciudadanos digitales activos :

La educación también se considera una herramienta contra el discurso de odio. Laura Geraghty, del movimiento No Hate Speech Movement, afirmó: "La educación es fundamental para prevenir el discurso de odio en Internet. Es necesario concienciar y empoderar a las personas para que se conecten a Internet de manera responsable; sin embargo, todavía se necesitan los instrumentos y el marco jurídico para perseguir los delitos motivados por el odio, incluido el discurso de odio en Internet; de lo contrario, el aspecto preventivo no servirá de nada". [115] [3]

Fuentes

 Este artículo incorpora texto de una obra de contenido libre . Licencia CC BY SA 3.0 IGO (declaración de licencia/permiso). Texto extraído de Countering Online Hate Speech​, 73, Iginio Gagliardone, Danit Gal, Thiago Alves, Gabriela Martinez, UNESCO. UNESCO.

Véase también

Referencias

  1. ^ Johnson, NF; Leahy, R.; Johnson Restrepo, N.; Velasquez, N.; Zheng, M.; Manrique, P.; Devkota, P.; Wuchty, S. (21 de agosto de 2019). "Resiliencia oculta y dinámica adaptativa de la ecología global del odio en línea". Nature . 573 (7773). Nature Research : 261–265. Bibcode :2019Natur.573..261J. doi :10.1038/s41586-019-1494-7. ISSN  1476-4687. PMID  31435010. S2CID  201118236.
  2. ^ ab Powell, Anastasia; Scott, Adrian J.; Henry, Nicola (marzo de 2020). Treiber, Kyle (ed.). "Acoso y abuso digital: experiencias de adultos de minorías sexuales y de género". Revista Europea de Criminología . 17 (2). Los Ángeles y Londres : SAGE Publications en nombre de la Sociedad Europea de Criminología : 199–223. doi : 10.1177/1477370818788006 . ISSN  1741-2609. S2CID  149537486. Una característica clave de la sociedad digital contemporánea es la integración de las comunicaciones y otras tecnologías digitales en la vida cotidiana, de modo que muchos de nosotros estamos "conectados constantemente". Sin embargo, el entrelazamiento de lo social y lo digital tiene implicaciones particulares para las relaciones interpersonales. El acoso y el abuso digitales se refieren a una variedad de comportamientos interpersonales dañinos experimentados a través de Internet , así como a través del teléfono móvil y otros dispositivos de comunicación electrónica. Estas conductas en línea incluyen: comentarios ofensivos e insultos, acoso selectivo, abuso verbal y amenazas, así como acoso y abuso sexual, sexual y por motivos de género. El acoso y abuso sexual, sexual y por motivos de género se refiere a conductas dañinas y no deseadas, ya sean de naturaleza sexual o dirigidas a una persona en función de su sexualidad o identidad de género .
  3. ^ abcdefghijklmnopqrstu vwxy Gagliardone, Iginio; Gal, Danit; Álves, Thiago; Martínez, Gabriela (2015). Contrarrestar el discurso de odio en línea (PDF) . París : Editorial UNESCO . págs. 7-15. ISBN 978-92-3-100105-5Archivado desde el original el 13 de marzo de 2022 . Consultado el 13 de marzo de 2022 .
  4. ^ Waldron, Jeremy (2012). El daño del discurso de odio. Harvard University Press. ISBN 978-0-674-06589-5.JSTOR j.ctt2jbrjd  .
  5. ^ ab Izsak, Rita (2015). Informe de la Relatora Especial sobre cuestiones de las minorías, Rita Izsák . Consejo de Derechos Humanos.
  6. ^ Véase Consejo de Europa, "Estudio de mapeo de proyectos contra el discurso de odio en línea", 15 de abril de 2012. Véanse también las entrevistas: Christine Chen, directora sénior de Políticas Públicas, Google, 2 de marzo de 2015; Monika Bickert, directora de Gestión de Políticas Globales, Facebook, 14 de enero de 2015
  7. ^ Véase HateBase, Estadísticas de discurso de odio, http://www.hatebase.org/popular Archivado el 11 de marzo de 2018 en Wayback Machine.
  8. ^ Entrevista: Andre Oboler, director ejecutivo del Online Hate Prevention Institute, 31 de octubre de 2014.
  9. ^ Mathew, Binny; Dutt, Ritam; Goyal, Pawan; Mukherjee, Animesh. Propagación del discurso de odio en las redes sociales en línea . ACM WebSci 2019. Boston, MA, EE. UU.: ACM. arXiv : 1812.01693 .
  10. ^ Citron, Danielle Keats; Norton, Helen L. (2011). "Intermediarios y discurso de odio: fomento de la ciudadanía digital para nuestra era de la información". Boston University Law Review . 91 . Rochester, NY. SSRN  1764004.
  11. ^ Entrevista: Drew Boyd, Director de Operaciones, El Proyecto Centinela para la Prevención del Genocidio, 24 de octubre de 2014.
  12. ^ Phillips, Whitney (2015). Esta es la razón por la que no podemos tener cosas buenas: mapeo de la relación entre el troleo en línea y la cultura dominante . MIT Press.
  13. ^ Marwick, Alice; Lewis, Rebecca (2017). Manipulación de los medios y desinformación en línea . Data & Society Research Institute.
  14. ^ Banks, James (noviembre de 2010). "Regulación del discurso de odio en línea" (PDF) . Revista internacional de derecho, informática y tecnología . 24 (3): 4–5. doi :10.1080/13600869.2010.522323. S2CID  61094808.
  15. ^ abcde "Las publicaciones de odio en Facebook e Instagram se disparan". Fortune . Consultado el 21 de noviembre de 2020 .
  16. ^ ab Gray, Mary; Suri, Siddharth (2019). TRABAJO FANTASMA: Cómo impedir que Silicon Valley construya una nueva subclase global . Nueva York: Houghton Mifflin Harcourt.
  17. ^ Washington, Distrito de Columbia 1800 I. Street NW; Dc 20006. "PolitiFact: la gente está usando un lenguaje codificado para evitar la moderación de las redes sociales. ¿Está funcionando?". @politifact . Consultado el 5 de julio de 2022 .{{cite web}}: CS1 maint: numeric names: authors list (link)
  18. ^ Meddaugh, Priscilla Marie; Kay, Jack (30 de octubre de 2009). "¿Discurso de odio o 'racismo razonable'?" El otro en Stormfront". Revista de ética de los medios de comunicación . 24 (4): 251–268. doi :10.1080/08900520903320936. ISSN  0890-0523. S2CID  144527647.
  19. ^ ab Bowman-Grieve, Lorraine (30 de octubre de 2009). "Explorando "Stormfront": una comunidad virtual de la derecha radical". Estudios sobre conflicto y terrorismo . 32 (11): 989–1007. doi :10.1080/10576100903259951. ISSN  1057-610X. S2CID  145545836.
  20. ^ Nobata, Chikashi; Tetreault, J.; Thomas, A.; Mehdad, Yashar; Chang, Yi (2016). "Detección de lenguaje abusivo en contenido de usuario en línea". Actas de la 25.ª Conferencia Internacional sobre la World Wide Web . págs. 145–153. doi :10.1145/2872427.2883062. ISBN . 9781450341431.S2CID11546523  .​
  21. ^ ab Koster, Willem De; Houtman, Dick (1 de diciembre de 2008). "Stormfront es como un segundo hogar para mí". Información, comunicación y sociedad . 11 (8): 1155–1176. doi :10.1080/13691180802266665. ISSN  1369-118X. S2CID  142205186.
  22. ^ Cohen-Almagor, Raphael (2018). "Tomar en serio a los grupos de supremacía blanca de América del Norte: el alcance y el desafío del discurso de odio en Internet". Revista Internacional sobre Crimen, Justicia y Social Democracia . 7 (2): 38–57. doi : 10.5204/ijcjsd.v7i2.517 .
  23. ^ abcd «La Declaración Universal de Derechos Humanos». Naciones Unidas . 1948.
  24. ^ Lillich, Richard B. (abril de 1995). "Pacto de Derechos Civiles y Políticos de la ONU. Comentario del CCPR. Por Manfred Nowak. Kehl, Estrasburgo, Arlington VA: NP Engel, Publisher, 1993. Pp. xxviii, 939. Índice, $176; £112; DM/sfr. 262". Revista Americana de Derecho Internacional . 89 (2): 460–461. doi :10.2307/2204221. ISSN  0002-9300. JSTOR  2204221.
  25. ^ Leo, Leonard A.; Gaer, Felice D.; Cassidy, Elizabeth K. (2011). "Protección de las religiones contra la difamación: una amenaza a los estándares universales de derechos humanos". Harvard Journal of Law & Public Policy . 34 : 769.
  26. ^ Comité de Derechos Humanos. Observación general núm. 11, artículo 20: Prohibición de la propaganda de guerra y de la incitación al odio nacional, racial o religioso, 29 de julio de 1983, párr. 2. En 2011, el Comité aclaró sus opiniones sobre la relación entre los artículos 19 y 20 cuando reafirmó que las disposiciones se complementan entre sí y que el artículo 20 "puede considerarse como lex specialis con respecto al artículo 19". Comité de Derechos Humanos. Observación general núm. 34, artículo 19: Libertad de opinión y de expresión, CCPR/C/GC/34, 12 de septiembre de 2011, párrs. 48-52.
  27. ^ Artículo 19 (3) del PIDCP.
  28. ^ Incluso el Comité de Derechos Humanos, que ha decidido sobre casos relacionados con el artículo 20, ha evitado dar una definición de incitación al odio. Consejo de Derechos Humanos. Incitación al odio racial y religioso y promoción de la tolerancia: Informe del Alto Comisionado para los Derechos Humanos, A/HRC/2/6, 20 de septiembre de 2006, párr. 36.
  29. ^ Faurisson v. France, C. Opinión individual de Elizabeth Evatt y David Kretzmer, firmada por Eckart Klein (concurrente), párr. 4.
  30. ^ Consejo de Derechos Humanos. Informe del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Adición, Seminario de expertos sobre los vínculos entre los artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos, A/HRC/10/31/Add.3, 16 de enero de 2009, párr. 1.
  31. ^ Informe del Alto Comisionado para los Derechos Humanos, A/HRC/2/6, párr. 39;
  32. ^ Comité para la Eliminación de la Discriminación Racial, Recomendación general 29, Discriminación basada en la ascendencia (61.º período de sesiones, 2002), UN Doc. A/57/18 en 111 (2002), reimpreso en Compilación de Observaciones generales y recomendaciones generales adoptadas por órganos creados en virtud de tratados de derechos humanos, UNDoc. HRI\GEN\1\Rev.6 en 223 (2003), párrs. r, s y t
  33. ^ Artículo 2 de la CEDAW.
  34. ^ Recomendación general Nº 28 sobre las obligaciones básicas de los Estados partes en virtud del artículo 2 de la Convención sobre la eliminación de todas las formas de discriminación contra la mujer Párrafo 19
  35. ^ Comisión Interamericana de Derechos Humanos. Declaración Interamericana de Principios sobre Libertad de Expresión, 20 de octubre de 2000, párr. 7.
  36. ^ Comisión Interamericana de Derechos Humanos, Opinión Consultiva OC-5/85, 13 de noviembre de 1985, párr. 39
  37. ^ ab Comisión Interamericana de Derechos Humanos, Opinión Consultiva OC-5/85, 13 de noviembre de 1985, párrafo 39.
  38. ^ Viljoen, Frans (2007). Derecho internacional de los derechos humanos en África . Oxford: Oxford University Press.
  39. ^ Comisión Africana de Derechos Humanos y de los Pueblos. Declaración de Principios sobre la Libertad de Expresión en África, 32º período de sesiones, Banjul, 17-23 de octubre de 2002.
  40. ^ Organización de Cooperación Islámica, Sexto Informe del Observatorio de la OCI sobre la Islamofobia, presentado al 40º Consejo de Ministros de Asuntos Exteriores, Conakry (República de Guinea), diciembre de 2013, pág. 31.
  41. ^ Liga de los Estados Árabes, Carta Árabe de Derechos Humanos, 22 de mayo de 2004, entró en vigor el 15 de marzo de 2008, párrafo 32 (1)
  42. ^ Liga de los Estados Árabes, Carta Árabe de Derechos Humanos, 22 de mayo de 2004, entró en vigor el 15 de marzo de 2008, párrafo 32 (2).
  43. ^ Artículo 7 de la Declaración de Derechos Humanos de la ASEAN.
  44. ^ Artículo 54 de la Carta de los Derechos Fundamentales de la Unión Europea.
  45. ^ Artículo 10 del Convenio Europeo de Derechos Humanos.
  46. ^ Handyside contra el Reino Unido, 7 de diciembre de 1976, párrafo 49. Se pueden encontrar más casos de discurso de odio ante el Tribunal Europeo en: http://www.echr.coe.int/Documents/FS_Hate_speech_ENG.pdf Archivado el 18 de octubre de 2019 en Wayback Machine. 49
  47. ^ Recomendación de política general Nº 6 del ECRI sobre la lucha contra la difusión de material racista, xenófobo y antisemita a través de Internet, adoptada el 15 de diciembre de 2000.
  48. ^ Consejo de Europa, Convenio sobre la Ciberdelincuencia, 23 de noviembre de 2001, párrafos 31 a 34.
  49. ^ Consejo de Europa, Protocolo adicional al Convenio sobre la ciberdelincuencia relativo a la tipificación como delito de actos de carácter racista y xenófobo cometidos a través de sistemas informáticos, 28 de enero de 2003, art. 5, párrafo 1.
  50. ^ Mackinnon, David; Lemieux, Christopher; Beazley, Karen; Woodley, Stephen (noviembre de 2015). «Canadá y la Meta 11 de Aichi para la Diversidad Biológica: comprensión de 'otras medidas eficaces de conservación basadas en áreas' en el contexto de la meta más amplia». Biodiversidad y conservación . 24 (14): 3559–3581. Bibcode :2015BiCon..24.3559M. doi : 10.1007/s10531-015-1018-1 . S2CID  17487707 – vía ResearchGate.
  51. ^ ab Naciones Unidas (2011). Principios rectores sobre las empresas y los derechos humanos . Nueva York: Oficina del Nuevo Comisionado.
  52. ^ abcde Perrin, Andrew (15 de octubre de 2020). «El 23 % de los usuarios en Estados Unidos afirma que las redes sociales los llevaron a cambiar de opinión sobre un tema; algunos citan el movimiento Black Lives Matter». Pew Research Center . Consultado el 22 de noviembre de 2020 .
  53. ^ ab Marwick, Alice; Lewis, Rebecca (2017). Manipulación de los medios y desinformación en línea . Data & Society Research Institute.
  54. ^ abc Gray, Kishonna (2012). «Intersecciones entre opresiones y comunidades en línea». Información, comunicación y sociedad . 15 (3): 411–428. doi :10.1080/1369118X.2011.642401. S2CID  142726754 – vía Taylor & Francis.
  55. ^ Seay, A. Fleming; Jerome, William J.; Lee, Kevin Sang; Kraut, Robert E. (24 de abril de 2004). "Proyecto masivo". Resúmenes ampliados de CHI '04 sobre factores humanos en sistemas informáticos . CHI EA '04. Viena, Austria: Association for Computing Machinery. págs. 1421–1424. doi :10.1145/985921.986080. ISBN 978-1-58113-703-3.S2CID24091184  .​
  56. ^ ab Nakamura, Lisa (2002). "Después de las imágenes de la identidad: género, tecnología y políticas de identidad". Reload: Rethinking Women + Cyberculture : 321–331 – vía MIT Press.
  57. ^ Nakamura, Lisa (2002). Cibertipos: raza, etnicidad e identidad en Internet . Nueva York: Routledge.
  58. ^ Jeung, Russell; Popovic, Tara; Lim, Richard; Lin, Nelson (2020). "RETÓRICA ANTI-CHINA EMPLEADA POR PERPETRADORES DE ODIO ANTI-ASIÁTICO" (PDF) . Consejo de Política y Planificación del Pacífico Asiático .
  59. ^ "Pakistán: el odio en línea empuja a las minorías a la periferia". IFEX . Toronto , Canadá . 3 de abril de 2021. Archivado desde el original el 4 de abril de 2021 . Consultado el 30 de marzo de 2022 .
  60. ^ "No reenvío el odio: una campaña en línea contra el discurso de odio en Pakistán". www.standup4humanrights.org . Archivado desde el original el 21 de abril de 2021 . Consultado el 30 de marzo de 2022 .
  61. ^ "SC revela que '62 personas han sido condenadas por incitación al odio en línea desde 2015'". PAKISTÁN HOY . Lahore , Pakistán . 17 de febrero de 2022. Archivado desde el original el 17 de febrero de 2022 . Consultado el 30 de marzo de 2022 .
  62. ^ Qamar, Saba (27 de agosto de 2020). «Trolls y discursos de odio inundan las páginas de redes sociales de Pakistán». Deccan Chronicle . Islamabad , Pakistán . Archivado desde el original el 28 de agosto de 2020 . Consultado el 30 de marzo de 2022 .
  63. ^ Azeem, Tehreem (30 de julio de 2021). "Las redes sociales de Pakistán están repletas de discursos de odio contra los ahmadíes". The Diplomat . Washington, DC Archivado desde el original el 30 de julio de 2021 . Consultado el 30 de marzo de 2022 .
  64. ^ Wilson, Emilie (17 de septiembre de 2020). «El monitoreo del discurso de odio ayuda a generar alarma entre los ahmadíes de Pakistán». Instituto de Estudios del Desarrollo, Reino Unido . Brighton , Inglaterra . Archivado desde el original el 26 de septiembre de 2020. Consultado el 30 de marzo de 2022 .
  65. ^ "El costo del discurso de odio: informe de políticas para Punjab". Minority Rights Group International . Londres , Inglaterra . 29 de marzo de 2021. Archivado desde el original el 29 de marzo de 2021. Consultado el 30 de marzo de 2022 .
  66. ^ "Estudio pionero sobre el discurso de odio en línea en Pakistán". apc.org . Islamabad , Pakistán . 11 de junio de 2014. Archivado desde el original el 1 de julio de 2014 . Consultado el 30 de marzo de 2022 .
  67. ^ "Discurso de odio: un estudio del ciberespacio de Pakistán". BytesForAll . Karachi , Pakistán . 7 de junio de 2014. Archivado desde el original el 2 de abril de 2017 . Consultado el 30 de marzo de 2022 .
  68. ^ Hereward Holland, "Facebook en Myanmar: ¿Amplificando el discurso de odio?", Al Jazeera, 14 de junio de 2014, http://www.aljazeera.com/indepth/features/2014/06/facebook-myanmar-rohingya-amplifying-hatespeech-2014612112834290144.html
  69. ^ ab "¿Por qué hay violencia comunitaria en Myanmar?", BBC, 3 de julio de 2014. https://www.bbc.co.uk/news/worldasia-18395788
  70. ^ "Informe especial: La difícil situación de la minoría musulmana amenaza la primavera de Myanmar". Reuters . 2012-06-15 . Consultado el 2023-07-19 .
  71. ^ Erika Kinetz, "Nueva numerología del odio crece en Birmania", Irrawaddy, 29 de abril de 2013 http://www.irrawaddy.org/religion/new-numerology-of-hate-grows-in-burma.html. Hereward Holland, "Facebook en Birmania: ¿Amplificando el discurso del odio?", Al Jazeera, 14 de junio de 2014; Steven Kiersons, "Los orígenes coloniales del discurso de odio en Birmania", The Sentinel Project, 28 de octubre de 2013, https://thesentinelproject.org/2013/10/28/the-colonial-origins-of-hate-speech-in-burma/, http://www.aljazeera.com/indepth/features/2014/06/facebook-myanmar-rohingya-amplifying-hate-speech-2014612112834290144.html
  72. ^ Tim McLaughlin, "Facebook toma medidas para combatir el discurso de odio", The Myanmar Times, 25 de julio de 2014. http://www.mmtimes.com/index.php/national-news/11114-facebook-standards-marked-for-translation.html
  73. ^ San Yamin Aung, "Activista birmano en línea analiza campaña contra el discurso de odio", Irrawaddy, http://www.irrawaddy.org/interview/hate-speech-pours-poison-heart.html
  74. ^ Georg, Schomerus (13 de enero de 2012). "Evolución de las actitudes públicas sobre las enfermedades mentales: una revisión sistemática y un metaanálisis". Acta Psychiatrica Scandinavica . 125 (6): 423–504. doi :10.1111/j.1600-0447.2012.01826.x. PMID  22242976. S2CID  24546527 – vía Wiley Online Library.
  75. ^ abcde Gilbert, David (14 de septiembre de 2020). "El discurso de odio en Facebook está llevando a Etiopía peligrosamente cerca de un genocidio". www.vice.com . Consultado el 6 de diciembre de 2020 .
  76. ^ Lashitew, Addisu (8 de noviembre de 2019). «Etiopía explotará si no va más allá de la política basada en la etnia». Foreign Policy . Consultado el 6 de diciembre de 2020 .
  77. ^ Tibebu, Israel (3 de noviembre de 2021). "Informe de la investigación conjunta de la CEDH y el ACNUDH sobre las presuntas violaciones del derecho internacional de los derechos humanos, el derecho humanitario y el derecho de los refugiados cometidas por todas las partes en el conflicto en la región de Tigray de la República Democrática Federal de Etiopía" (PDF) . CEDH , ACNUDH . Archivado (PDF) desde el original el 3 de noviembre de 2021. Consultado el 3 de noviembre de 2021 .
  78. ^ Dahir, Abdi Latif (17 de noviembre de 2021). «Las detenciones masivas de civiles avivan el «clima de miedo» en Etiopía». The New York Times . Archivado desde el original el 17 de noviembre de 2021. Consultado el 17 de noviembre de 2021 .
  79. ^ "Ayuda para la cuenta de Yahoo". help.yahoo.com . Consultado el 28 de junio de 2019 .
  80. ^ "Twitter comienza a aplicar nuevas políticas sobre violencia, abuso y conductas de odio". The Verge . Consultado el 30 de mayo de 2018 .
  81. ^ "X의 혐오 행위 관련 정책 | X 도움말". gorjeo .
  82. ^ "Política de conducta de odio" . Consultado el 30 de mayo de 2018 .
  83. ^ "Alemania aplicará la ley contra el discurso de odio". BBC News . 2018 . Consultado el 30 de mayo de 2018 .
  84. ^ abc Munn, Luke (julio de 2020). "Enfado por diseño: comunicación tóxica y arquitecturas técnicas". Humanities and Social Sciences Communications . 7 : 1–11. doi : 10.1057/s41599-020-00550-7 . S2CID  220855380 – vía ResearchGate.
  85. ^ abcd Munger, Kevin; Phillips, Joseph (2019). Un marco de oferta y demanda para la política de YouTube. University Park: Penn State Political Science. págs. 1–38.
  86. ^ "Nuestro trabajo continuo para combatir el odio". blog.youtube . Consultado el 21 de noviembre de 2020 .
  87. ^ "Política de incitación al odio - Ayuda de YouTube". support.google.com . Consultado el 30 de mayo de 2018 .
  88. ^ "Informar sobre contenido inapropiado - Android - Ayuda de YouTube". support.google.com . Consultado el 30 de mayo de 2018 .
  89. ^ ab "Estándares de la comunidad | Facebook". www.facebook.com . Consultado el 28 de junio de 2019 .
  90. ^ "Normas de la comunidad | Centro de ayuda de Instagram" www.facebook.com . Consultado el 21 de noviembre de 2020 .
  91. ^ Tobin, Ariana. "La aplicación desigual de las normas sobre discurso de odio por parte de Facebook permite que las publicaciones viles sigan en línea". Propublica .
  92. ^ Tobin, Ariana. "La aplicación desigual de las normas sobre discurso de odio por parte de Facebook permite que las publicaciones viles sigan en línea".
  93. ^ Carlsen, Audrey (13 de octubre de 2017). "¿Qué considera Facebook discurso de odio? Responda nuestro cuestionario". The New York Times .
  94. ^ "Estándares de la comunidad: contenido objetable". Facebook .
  95. ^ Mills, Chris (24 de abril de 2018). "Esto es lo que Facebook no te permite publicar".
  96. ^ ab "Normas de la comunidad: contenido objetable". Facebook .
  97. ^ Ingber, Sasha (27 de marzo de 2019). "Facebook prohíbe el contenido separatista y nacionalista blanco en sus plataformas". NPR.org . Consultado el 28 de junio de 2019 .
  98. ^ Schwartz, Matthew S. (3 de mayo de 2019). "Facebook prohíbe a Alex Jones, Louis Farrakhan y otras personas 'peligrosas'". NPR.org . Consultado el 28 de junio de 2019 .
  99. ^ "Actualizaciones recientes de las normas comunitarias | Facebook" www.facebook.com . Consultado el 21 de noviembre de 2020 .
  100. ^ ab Carter, Camden (13 de octubre de 2022). "Meta sigue beneficiándose de los anuncios que utilizan el insulto anti-LGBTQ 'groomer', a pesar de la prohibición de la plataforma". Media Matters . Consultado el 22 de octubre de 2022 .
  101. ^ Assunção, Muri (14 de octubre de 2022). "La empresa matriz de Facebook, Meta, sigue sacando provecho de los anuncios que utilizan el insulto anti-LGBTQ 'groomers' a pesar de la prohibición de la plataforma: informe". New York Daily News . Consultado el 22 de octubre de 2022 .
  102. ^ Wakefield, Lily (14 de octubre de 2022). "Facebook ha ganado miles de dólares con anuncios de 'cuidadores de niños' llenos de odio en 2022". PinkNews . Consultado el 22 de octubre de 2022 .
  103. ^ Villarreal, Daniel (14 de octubre de 2022). "Facebook e Instagram ganan dinero con anuncios que llaman 'groomers' a las personas LGBTQ a pesar de la política". LGBTQ Nation . Consultado el 22 de octubre de 2022 .
  104. ^ "Políticas de contenido". msdn.microsoft.com . Consultado el 28 de junio de 2019 .
  105. ^ "Normas de la comunidad de Xbox | Xbox". Xbox.com . Consultado el 28 de junio de 2019 .
  106. ^ abcd Weimann, Gabriel; Masri, Natalie (19 de junio de 2020). "Nota de investigación: Difundiendo odio en TikTok". Estudios en conflicto y terrorismo . 46 (5): 752–765. doi :10.1080/1057610X.2020.1780027. ISSN  1057-610X. S2CID  225776569.
  107. ^ abcdef Simpson, Robert Mark (1 de febrero de 2019). «‘¿Alguien podría pensar en los niños, por favor?’ Discurso de odio, daño e infancia». Derecho y filosofía . 38 (1): 79–108. doi : 10.1007/s10982-018-9339-3 . ISSN  1573-0522. S2CID  150223892.
  108. ^ "Alfabetización mediática e informacional". UNESCO . 2016-09-01 . Consultado el 2019-06-28 .
  109. ^ Osler, Audrey; Starkey, Hugh (2006). "Educación para la ciudadanía democrática: una revisión de la investigación, la política y la práctica 1995-2005". Artículos de investigación en educación . 24 (4): 433–466. doi :10.1080/02671520600942438. S2CID  219712539 – vía ResearchGate.
  110. ^ Mateo, Binny; Saha, Punyajoy; Tharad, Hardik; Rajgaria, Shubham; Singhania, Prajwal; Goyal, Pawán; Mukherjee, Animesh. No odiarás: contrarrestar el discurso de odio en línea . ICWSM 2019. Múnich, Alemania: AAAI. arXiv : 1808.04409 .
  111. ^ Mossberger, Karen; Tolbert, Caroline; McNeal, Ramona (2007). Ciudadanía digital: Internet, sociedad y participación . MIT Press.
  112. ^ Hoechsmann, Michael; Poyntz, Stuart (2012). Alfabetización mediática: una introducción crítica . West Sussex: Blackwell Publishing.
  113. ^ Véase la Declaración de París: Declaración de París sobre la alfabetización mediática e informativa en la era digital. http://www.unesco.org/new/en/communication-andinformation/resources/news-and-in-focus-articles/in-focus-articles/2014/paris-declaration-on-mediaand-information-literacy-adopted/
  114. ^ El Movimiento "No al Discurso del Odio" es una campaña regional que abarca 50 países más allá del continente europeo. Aunque la campaña tiene objetivos comunes y desarrolla estrategias conjuntas, los proyectos e iniciativas particulares que se llevan a cabo en cada país son responsabilidad de los coordinadores nacionales y están sujetos a la capacidad y los recursos de cada país.
  115. ^ Entrevista: Laura Geraghty, No Hate Speech Movement, 25 de noviembre de 2014.

Enlaces externos