El discurso de odio en línea es un tipo de discurso que tiene lugar en línea con el propósito de atacar a una persona o un grupo en función de su raza , religión , origen étnico , orientación sexual , discapacidad y/o género . [1] El discurso de odio en línea no se define fácilmente, pero se puede reconocer por la función degradante o deshumanizadora que cumple. [2] [3]
Los tratados multilaterales , como el Pacto Internacional de Derechos Civiles y Políticos (PIDCP), han tratado de definir sus contornos. Los procesos de múltiples partes interesadas (por ejemplo, el Plan de Acción de Rabat ) han tratado de aportar mayor claridad y han sugerido mecanismos para identificar los mensajes de odio. Los organismos nacionales y regionales han tratado de promover interpretaciones del término que estén más arraigadas en las tradiciones locales . [3]
La velocidad y el alcance de Internet dificultan a los gobiernos la aplicación de la legislación nacional en el mundo virtual . Las redes sociales son un espacio privado para la expresión pública, lo que dificulta la labor de los reguladores. Algunas de las empresas propietarias de estos espacios se han vuelto más receptivas a la hora de abordar el discurso de odio en línea. [3]
El concepto de discurso de odio se relaciona con el conflicto entre la libertad de expresión y los derechos individuales, colectivos y de las minorías , así como con los conceptos de dignidad , libertad e igualdad . No es fácil definirlo, pero se puede reconocer por su función. [3]
En la legislación nacional e internacional, el discurso de odio se refiere a expresiones que abogan por la incitación al daño, incluidos los actos de discriminación , hostilidad , radicalización , violencia verbal y/o física , en función de la identidad social y/o demográfica de las personas a las que se dirige. El discurso de odio puede incluir, entre otras cosas, el discurso que aboga, amenaza o alienta actos violentos. El concepto puede extenderse también a expresiones que fomentan un clima de prejuicio e intolerancia bajo el supuesto de que esto puede alimentar la discriminación, la hostilidad y los ataques violentos selectivos. En momentos críticos, como durante las elecciones políticas , el concepto de discurso de odio puede ser propenso a la manipulación; las acusaciones de instigación del discurso de odio pueden intercambiarse entre oponentes políticos o pueden ser utilizadas por quienes están en el poder para frenar la disidencia y la crítica . El discurso de odio (ya sea transmitido a través de texto, imágenes y/o sonido) puede identificarse por aproximación a través de las funciones degradantes o deshumanizadoras que cumple. [2] [3]
El erudito legal y teórico político Jeremy Waldron sostiene que el discurso de odio siempre contiene dos mensajes: primero, hacer que los miembros del grupo externo se sientan incómodos o asustados; y segundo, hacer que los miembros del grupo interno sientan que sus creencias odiosas son legítimas. [4]
La proliferación de discursos de odio en línea, observada por el Relator Especial del Consejo de Derechos Humanos de la ONU sobre Cuestiones de las Minorías, plantea un nuevo conjunto de desafíos. [5] Tanto las plataformas de redes sociales como las organizaciones creadas para combatir el discurso de odio han reconocido que los mensajes de odio difundidos en línea son cada vez más comunes y han suscitado una atención sin precedentes para desarrollar respuestas adecuadas. [6] Según HateBase , una aplicación basada en la web que recopila instancias de discurso de odio en línea en todo el mundo, la mayoría de los casos de discurso de odio se dirigen a personas en función de su etnia y nacionalidad , pero las incitaciones al odio centradas en la religión y la clase social también han ido en aumento. [7]
Si bien el discurso de odio en línea no es intrínsecamente diferente de expresiones similares que se encuentran fuera de línea, existen desafíos peculiares que son exclusivos del contenido en línea y su regulación. Esos desafíos están relacionados con su permanencia, itinerancia, anonimato y carácter complejo de interjurisdicción.
El discurso de odio puede permanecer en línea durante mucho tiempo en diferentes formatos en múltiples plataformas, que pueden vincularse repetidamente. Como ha señalado Andre Oboler, director ejecutivo del Online Hate Prevention Institute , "cuanto más tiempo esté disponible el contenido, más daño puede infligir a las víctimas y empoderar a los perpetradores. Si eliminas el contenido en una etapa temprana puedes limitar la exposición. Esto es como limpiar la basura, no evita que la gente tire basura, pero si no te ocupas del problema, simplemente se acumula y se agrava aún más". [8] Las conversaciones de Twitter organizadas en torno a temas de tendencia pueden facilitar la rápida y amplia difusión de mensajes de odio, [9] pero también ofrecen la oportunidad de que los oradores influyentes eviten los mensajes y posiblemente pongan fin a los hilos populares que incitan a la violencia . Facebook , por el contrario, puede permitir que varios hilos continúen en paralelo y pasen desapercibidos; creando espacios más duraderos que ofenden, discriminan y ridiculizan a ciertas personas y grupos. [3]
El discurso de odio en Internet puede ser itinerante. Incluso cuando se elimina un contenido, puede encontrar expresión en otro lugar, posiblemente en la misma plataforma con un nombre diferente o en diferentes espacios en línea. Si se cierra un sitio web , puede reabrirse rápidamente mediante un servicio de alojamiento web con regulaciones menos estrictas o mediante su reasignación a un país con leyes que impongan un umbral más alto para el discurso de odio. La naturaleza itinerante del discurso de odio también significa que pensamientos mal formulados o comportamientos bajo la influencia de sustancias, que en el pasado no habrían encontrado expresión pública ni apoyo, ahora pueden llegar a espacios donde pueden ser visibles para grandes audiencias. [3]
El anonimato también puede presentar un desafío para lidiar con el discurso de odio en línea. Las discusiones en Internet pueden ser anónimas o seudónimas , lo que puede hacer que las personas se sientan más seguras al expresar sus opiniones, pero puede acelerar fácilmente el comportamiento destructivo. [10] Como ha afirmado Drew Boyd, director de operaciones de The Sentinel Project , "Internet otorga a las personas la capacidad de decir cosas horribles porque creen que no serán descubiertas. Esto es lo que hace que el discurso de odio en línea sea tan único, porque las personas se sienten mucho más cómodas hablando de odio en comparación con la vida real cuando tienen que lidiar con las consecuencias de lo que dicen". [11] China y Corea del Sur aplican políticas de nombre real para las redes sociales . Facebook , LinkedIn y Quora han buscado activar un sistema de nombre real para tener más control sobre el discurso de odio en línea. Tales medidas han sido profundamente cuestionadas porque se considera que violan el derecho a la privacidad y su intersección con la libertad de expresión.
Muchos casos de discurso de odio en línea son publicados por "trolls" de Internet , que normalmente son usuarios seudónimos que publican contenido impactante, vulgar y en general falso que tiene la intención explícita de provocar una reacción negativa, aunque también puede tener la intención de influir o reclutar al lector para sus creencias, si comparte la misma opinión. [12] Las redes sociales también han proporcionado una plataforma para que grupos políticos o religiosos radicales y extremistas se formen, se conecten y colaboren para difundir sus mensajes antisistema y anticorrección política, y promuevan creencias e ideologías racistas , antifeministas , homofóbicas , transfóbicas , etc. [13] La comunicación en línea completamente anónima es poco común, ya que requiere que el usuario emplee medidas altamente técnicas para garantizar que no se lo pueda identificar fácilmente. [3]
Otra complicación es el alcance transnacional de Internet , que plantea cuestiones de cooperación entre jurisdicciones en lo que respecta a los mecanismos jurídicos para combatir el discurso de odio. Si bien existen tratados de asistencia jurídica mutua en Europa , Asia y América del Norte , estos suelen funcionar con lentitud. El alcance transnacional de muchos intermediarios de Internet del sector privado puede proporcionar un canal más eficaz para resolver problemas en algunos casos, aunque estos organismos también suelen verse afectados por peticiones de datos entre jurisdicciones (como revelar la identidad del autor o los autores de un contenido en particular). [3] Las diferentes jurisdicciones también tienen definiciones únicas para el discurso de odio, lo que dificulta el procesamiento de los perpetradores que pueden buscar refugio en jurisdicciones menos estrictas. [14]
A diferencia de la difusión del discurso de odio a través de los canales convencionales, las víctimas del discurso de odio en línea pueden tener dificultades para saber a quién deben recurrir en busca de ayuda, ya que la plataforma, la policía local y la policía local de la persona o personas que utilizan el discurso de odio pueden sentir que el asunto no es de su competencia, incluso cuando existen políticas y leyes en materia de discurso de odio. Las organizaciones no gubernamentales y los grupos de presión han estado creando conciencia y alentando a las diferentes partes interesadas a tomar medidas. [3]
Algunas empresas tecnológicas, como Facebook , utilizan sistemas de Inteligencia Artificial (IA) para monitorear el discurso de odio. [15] Sin embargo, la IA puede no ser siempre una forma eficaz de monitorear el discurso de odio, ya que los sistemas carecen de las habilidades de juicio que tienen los humanos. [16] Por ejemplo, un usuario puede publicar o comentar algo que se clasifique como discurso de odio o que viole las pautas de la comunidad, pero si la palabra objetivo está mal escrita o algunas letras se reemplazan con símbolos, los sistemas de IA no lo reconocerán. Esta debilidad ha llevado a la proliferación de intentos de eludir los algoritmos de censura utilizando errores ortográficos deliberados, como el uso de "vachscenes" en lugar de "vaccines" por parte de personas que dudan en vacunarse durante COVID-19 . [17] Por lo tanto, los humanos aún tienen que monitorear los sistemas de IA que monitorean el discurso de odio; un problema común en la tecnología de IA al que se conoce como "La última milla de la automatización", [16] lo que significa que el último 10% o 1% del trabajo es el más difícil de completar.
Tras los incidentes de terrorismo islámico de 2014 , son habituales los llamamientos a la adopción de medidas más restrictivas o intrusivas para contener el potencial de Internet para propagar el odio y la violencia, como si los vínculos entre la violencia online y offline fueran bien conocidos. Por el contrario, como indica el siguiente ejemplo, las apariencias pueden engañar a menudo. Stormfront se considera el primer "sitio web del odio". [18] Lanzado en marzo de 1995 por un exlíder del Ku Klux Klan , rápidamente se convirtió en un espacio popular para debatir ideas relacionadas con el neonazismo , el nacionalismo blanco y el separatismo blanco , primero en los Estados Unidos de América y luego a nivel mundial. [19] El foro acoge llamamientos a una guerra santa racial e incitación al uso de la violencia para resistir la inmigración . [19] y se considera un espacio para reclutar activistas y posiblemente coordinar actos violentos. [20] Los pocos estudios que han explorado las identidades de Stormfront en realidad describen un panorama más complejo, en lugar de verlo como un espacio para coordinar acciones. Activistas de extrema derecha conocidos han acusado al foro de ser simplemente un lugar de encuentro para " guerreros del teclado ". Uno de ellos, por ejemplo, según informan De Koster y Houtman, afirmó: "He leído bastantes artículos en el foro y me parece que se arma un gran alboroto, mientras que ocurre muy poco. La sección activismo/política en sí misma es sencillamente ridícula. [...] Por no hablar de las asambleas en las que sólo aparecen cuatro personas". [21] Aún más reveladoras son algunas de las respuestas a estas acusaciones proporcionadas por miembros regulares del sitio web. Como argumentó uno de ellos: "Seguramente tengo derecho a tener una opinión sin llevarla a cabo activamente. [...] No asisto a manifestaciones ni me afilio a un partido político. Si esto me convierte en un guerrero del teclado, está bien. Me siento bien así. [...] No me avergüenzo de ello". [21] De Koster y Houtman encuestaron sólo a un capítulo nacional de Stormfront y a una muestra no representativa de usuarios, pero respuestas como las anteriores deberían al menos invitar a la cautela respecto de las hipótesis que vinculan expresiones y acciones, incluso en espacios cuya función principal es albergar opiniones extremistas. [3] El Southern Poverty Law Center publicó un estudio en 2014 que concluyó que los usuarios del sitio "supuestamente fueron responsables de los asesinatos de casi 100 personas en los cinco años anteriores". [22]
El discurso de odio no se menciona explícitamente en muchos documentos y tratados internacionales de derechos humanos , pero se menciona indirectamente en algunos de los principios relacionados con la dignidad humana y la libertad de expresión . Por ejemplo, la Declaración Universal de Derechos Humanos de 1948 (DUDH), que se redactó como respuesta a las atrocidades de la Segunda Guerra Mundial , contiene el derecho a la igualdad de protección ante la ley en el artículo 7, que proclama que: "Todos tienen derecho a igual protección contra toda discriminación que infrinja esta Declaración y contra toda provocación a tal discriminación". [23] La DUDH también establece que toda persona tiene derecho a la libertad de expresión, que incluye "la libertad de sostener opiniones sin interferencia y de investigar y recibir información y opiniones, y de difundirlas por cualquier medio y sin limitación de fronteras". [23]
La DUDH fue decisiva a la hora de establecer un marco y una agenda para la protección de los derechos humanos, pero la Declaración no es vinculante . Posteriormente se han creado una serie de documentos vinculantes para ofrecer una protección más sólida de la libertad de expresión y la protección contra la discriminación. El Pacto Internacional de Derechos Civiles y Políticos (PIDCP) aborda el discurso de odio y contiene el derecho a la libertad de expresión en el artículo 19 [23] y la prohibición de la apología del odio que constituya incitación a la discriminación, la hostilidad o la violencia en el artículo 20. [23] Otros instrumentos jurídicos internacionales más específicos contienen disposiciones que repercuten en la definición del discurso de odio y la identificación de respuestas al mismo, como: la Convención para la Prevención y la Sanción del Delito de Genocidio (1951), la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial , ICERD (1969), y, en menor medida, la Convención sobre la Eliminación de todas las Formas de Discriminación contra la Mujer , CEDAW (1981). [3]
El Pacto Internacional de Derechos Civiles y Políticos es el instrumento jurídico al que se hace referencia con más frecuencia en los debates sobre el discurso de odio y su regulación, aunque no utiliza explícitamente el término "discurso de odio". El artículo 19, al que a menudo se hace referencia como parte del "núcleo del Pacto", [24] establece el derecho a la libertad de expresión. En él se establece el derecho y también se incluyen restricciones generales a las que debe ajustarse cualquier limitación del derecho para ser legítima. El artículo 19 es seguido por el artículo 20, que limita expresamente la libertad de expresión en los casos de "apología del odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia". [25] La decisión de incluir esta disposición, que puede caracterizarse como la encarnación de una conceptualización particular del discurso de odio, ha sido profundamente controvertida. El Comité de Derechos Humanos , el organismo de las Naciones Unidas creado por el Pacto Internacional de Derechos Civiles y Políticos para supervisar su aplicación, consciente de la tensión, ha tratado de subrayar que el artículo 20 es plenamente compatible con el derecho a la libertad de expresión. [26] En el Pacto Internacional de Derechos Civiles y Políticos, el derecho a la libertad de expresión no es un derecho absoluto. Los Estados pueden limitarlo legítimamente en circunstancias restringidas:
"3. El ejercicio de los derechos previstos en el apartado 2 del presente artículo entraña deberes y responsabilidades especiales. Podrá, por tanto, estar sujeto a ciertas restricciones, pero éstas sólo serán las previstas por la ley y necesarias: a) Para asegurar el respeto a los derechos o a la reputación de los demás; b) Para proteger la seguridad nacional, el orden público o la salud o la moral públicas ." [27]
Entre el artículo 19 (3) y el artículo 20, existe una distinción entre limitaciones opcionales y obligatorias al derecho a la libertad de expresión. El artículo 19 (3) establece que las limitaciones a la libertad de expresión "podrán, por lo tanto, estar sujetas a ciertas restricciones", siempre que estén previstas por la ley y sean necesarias para ciertos fines legítimos. El artículo 20 establece que cualquier apología de (ciertos tipos de) odio que constituya incitación a la discriminación , la hostilidad o la violencia "estará prohibida por la ley". A pesar de las indicaciones sobre la gravedad de los delitos de expresión que deberían estar prohibidos por ley según el artículo 20, sigue habiendo complejidad. [28] En particular, existe una zona gris en la conceptualización de distinciones claras entre (i) expresiones de odio, (ii) expresiones que propugnan el odio, y (iii) discurso de odio que constituye específicamente una incitación a los daños prácticos de la discriminación, la hostilidad o la violencia. Si bien los Estados tienen la obligación de prohibir el discurso concebido como "apología del odio que constituya incitación a la discriminación, la hostilidad o la violencia", como se establece en el artículo 20 (2), [29] no está claramente definido cómo interpretarlo. [30]
La Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD), que entró en vigor en 1969, también tiene implicaciones para la conceptualización de las formas de discurso de odio. La ICERD difiere del PIDCP en tres aspectos. [3] Su conceptualización del discurso de odio se limita específicamente al discurso que se refiere a la raza y la etnicidad . Afirma en el artículo 4, párrafo (a), que los Estados partes:
"Declararán como delito punible por la ley toda difusión de ideas basadas en la superioridad o el odio racial, la incitación a la discriminación racial, así como todos los actos de violencia o la incitación a tales actos contra cualquier raza o grupo de personas de otro color u origen étnico, y también la prestación de cualquier asistencia a actividades racistas, incluida su financiación; Esta obligación impuesta por la CERD a los Estados partes es también más estricta que el caso del artículo 20 del Pacto Internacional de Derechos Civiles y Políticos que cubre la criminalización de ideas racistas que no necesariamente inciten a la discriminación, la hostilidad o la violencia."
Una diferencia importante está en la cuestión de la intención . El concepto de "apología del odio" introducido en el PIDCP es más específico que el discurso discriminatorio descrito en la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial, ya que se considera que requiere la consideración de la intención del autor y no de la expresión en forma aislada ; esto se debe a que la "apología" se interpreta en el PIDCP como que requiere la intención de sembrar el odio. [31] El Comité para la Eliminación de la Discriminación Racial ha abordado activamente el discurso de odio en su Recomendación General 29, en la que el Comité recomienda a los Estados Partes que:
"(r) Adoptar medidas contra toda difusión de ideas de superioridad e inferioridad de castas o que intenten justificar la violencia, el odio o la discriminación contra las comunidades basadas en la ascendencia; (s) Adoptar medidas estrictas contra toda incitación a la discriminación o la violencia contra las comunidades, incluso a través de Internet; (t) Adoptar medidas para concienciar a los profesionales de los medios de comunicación sobre la naturaleza y la incidencia de la discriminación basada en la ascendencia;" [32]
Estos puntos, que reflejan la referencia de la ICERD a la difusión de la expresión, tienen importancia para Internet . La expresión de ideas en algunos contextos en línea puede equivaler inmediatamente a su difusión. Esto es especialmente relevante para los espacios privados que han comenzado a desempeñar un papel público, como es el caso de muchas plataformas de redes sociales . [3]
De manera similar a la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial, la Convención sobre el Genocidio tiene como objetivo proteger a los grupos definidos por su raza, nacionalidad o etnia, aunque también extiende sus disposiciones a los grupos religiosos. En lo que respecta al discurso de odio, la Convención sobre el Genocidio se limita únicamente a los actos que incitan públicamente al genocidio , reconocidos como "actos cometidos con la intención de destruir , total o parcialmente, a un grupo nacional, étnico, racial o religioso", independientemente de que dichos actos se realicen en tiempo de paz o de guerra. [3] En concreto, el discurso de odio basado en el género (a diferencia de las acciones discriminatorias) no está contemplado en profundidad en el derecho internacional . [3]
La Convención sobre la eliminación de todas las formas de discriminación contra la mujer (CEDAW), que entró en vigor en 1981, impone a los Estados obligaciones de condenar la discriminación contra la mujer [33] y de “prevenir, investigar, enjuiciar y sancionar” los actos de violencia de género. [34]
La mayoría de los instrumentos regionales no tienen artículos específicos que prescriban la prohibición del discurso de odio, pero en términos más generales permiten a los Estados limitar la libertad de expresión, disposiciones que pueden aplicarse a casos específicos. [3]
La Convención Americana sobre Derechos Humanos describe las limitaciones a la libertad de expresión de una manera similar al PIDCP en el artículo 19 (3). La Organización de los Estados Americanos también ha adoptado otra declaración sobre los principios de la libertad de expresión, que incluye una cláusula específica que establece que "los condicionamientos previos de las expresiones, tales como la veracidad, la oportunidad o la imparcialidad, son incompatibles con el derecho a la libertad de expresión reconocido en los instrumentos internacionales". [35] La Corte Interamericana ha advertido que "el abuso de la libertad de información no puede, por lo tanto, controlarse mediante medidas preventivas , sino sólo mediante la imposición ulterior de sanciones a quienes son culpables de los abusos". [36] La Corte también impone una prueba para los Estados dispuestos a promulgar restricciones a la libertad de expresión, ya que deben observar los siguientes requisitos: "a) la existencia de causas de responsabilidad previamente establecidas; b) la definición expresa y precisa de esas causas por la ley; c) la legitimidad de los fines que se buscan alcanzar; d) la demostración de que esas causas de responsabilidad son 'necesarias para asegurar' los fines mencionados". [37] El Sistema Interamericano cuenta con un Relator Especial para la Libertad de Expresión que realizó un estudio exhaustivo sobre el discurso de odio. Concluyó que el Sistema Interamericano de Derechos Humanos difiere del enfoque de las Naciones Unidas y de la Unión Europea en un punto clave: el sistema interamericano abarca y restringe el discurso de odio que realmente conduce a la violencia, y sólo ese discurso puede ser restringido. [37]
La Carta Africana de Derechos Humanos y de los Pueblos adopta un enfoque diferente en el artículo 9 (2), que permite restricciones a los derechos siempre que estén "dentro de la ley". Este concepto ha sido criticado y existe una gran cantidad de trabajos jurídicos sobre las llamadas cláusulas de "recuperación" y su interpretación. [38] La crítica se dirige principalmente al hecho de que los países pueden manipular su propia legislación y debilitar la esencia del derecho a la libertad de expresión. La Declaración de Principios sobre la Libertad de Expresión en África elabora un estándar más alto para las limitaciones a la libertad de expresión. Declara que el derecho "no debe restringirse por motivos de orden público o seguridad nacional a menos que exista un riesgo real de daño a un interés legítimo y exista un vínculo causal estrecho entre el riesgo de daño y la expresión". [39]
En 1990, la Organización de la Conferencia Islámica (que más tarde pasó a llamarse Organización de Cooperación Islámica, OCI) adoptó la Declaración de El Cairo sobre los Derechos Humanos en el Islam (CDHI), que pide la criminalización de las expresiones que van más allá de los casos de violencia inminente y abarcan "actos o expresiones que denoten intolerancia y odio manifiestos". [40]
La Carta Árabe de Derechos Humanos, adoptada por el Consejo de la Liga de los Estados Árabes en 2004, incluye en su artículo 32 disposiciones que son pertinentes también para la comunicación en línea, ya que garantiza el derecho a la "libertad de opinión y expresión, y el derecho a buscar, recibir y difundir información e ideas a través de cualquier medio, independientemente de las fronteras geográficas". [41] Permite una limitación amplia en el párrafo 2: "Dichos derechos y libertades se ejercerán de conformidad con los valores fundamentales de la sociedad". [42]
La Declaración de Derechos Humanos de la ASEAN incluye el derecho a la libertad de expresión en el artículo 23. El artículo 7 de la Declaración establece limitaciones generales, afirmando que "la realización de los derechos humanos debe considerarse en el contexto regional y nacional, teniendo presentes los diferentes contextos políticos, económicos, jurídicos, sociales, culturales, históricos y religiosos". [43]
La Carta de los Derechos Fundamentales de la Unión Europea , que declara el derecho a la libertad de expresión en su artículo 11, contiene una cláusula que prohíbe el abuso de derechos. Afirma que la Carta no debe interpretarse en el sentido de que implica una "limitación mayor que la prevista en ella". [44] Un ejemplo de una limitación que implica una prueba estricta de necesidad y proporcionalidad es la disposición sobre la libertad de expresión del Convenio Europeo de Derechos Humanos , que subraya que el ejercicio de la libertad de expresión conlleva deberes y responsabilidades. "Podrá estar sujeta a las formalidades, condiciones, restricciones o sanciones que prescriba la ley y que sean necesarias en una sociedad democrática , en interés de la seguridad nacional , de la integridad territorial o de la seguridad pública , para la prevención de desórdenes o infracciones penales, para la protección de la salud o de la moral, para la protección de la reputación o de los derechos de terceros, para impedir la divulgación de información confidencial o para mantener la autoridad y la imparcialidad del poder judicial". [45]
El Tribunal Europeo de Derechos Humanos es cuidadoso al distinguir entre el discurso de odio y el derecho de las personas a expresar sus opiniones libremente, incluso si otros se sienten ofendidos. [46] Hay casos regionales relevantes específicamente para el discurso de odio en línea. El Consejo de Europa (CoE) en 2000 emitió una Recomendación de política general sobre la lucha contra la difusión de material racista, xenófobo y antisemita a través de Internet. [47] La creación de la Convención del CoE sobre ciberdelincuencia en 2001, que regula la asistencia mutua en materia de poderes de investigación, proporciona a los países signatarios un mecanismo para tratar los datos informáticos , que incluiría el discurso de odio transnacional en línea. [48] En 2003, el CoE lanzó un protocolo adicional a la Convención sobre ciberdelincuencia que aborda la expresión en línea del racismo y la xenofobia. La convención y su protocolo se abrieron a la firma y ratificación de países fuera de Europa , y otros países, como Canadá y Sudáfrica , ya son parte de esta convención. El Protocolo impone a los Estados miembros la obligación de tipificar como delito los insultos racistas y xenófobos en línea dirigidos a “(i) personas por el hecho de pertenecer a un grupo que se distinga por su raza, color, ascendencia u origen nacional o étnico, así como por su religión, si se utilizan como pretexto para cualquiera de estos factores; o (ii) un grupo de personas que se distinga por cualquiera de estas características”. [49]
Los intermediarios de Internet , como las plataformas de redes sociales , los proveedores de servicios de Internet o los motores de búsqueda , estipulan en sus términos de servicio cómo pueden intervenir para permitir, restringir o canalizar la creación y el acceso a contenido específico. Una gran cantidad de interacciones en línea ocurren en plataformas de redes sociales que trascienden las jurisdicciones nacionales y que también han desarrollado sus propias definiciones de discurso de odio y medidas para responder a él. Para un usuario que viola los términos de servicio, el contenido que ha publicado puede ser eliminado de la plataforma, o su acceso puede restringirse para que lo vea solo una cierta categoría de usuarios (por ejemplo, usuarios que viven fuera de un país específico). [3]
Los principios que inspiran los acuerdos de condiciones de servicio y los mecanismos que cada empresa desarrolla para asegurar su implementación tienen repercusiones significativas en la capacidad de las personas para expresarse en línea y para estar protegidas del discurso de odio. La mayoría de los intermediarios tienen que entablar negociaciones con los gobiernos nacionales en una medida que varía según el tipo de intermediario, las áreas donde está registrada la empresa y el régimen legal que se aplica. Como explica Tsesis, "si las transmisiones en Internet se envían y reciben en lugares particulares, entonces los foros específicos conservan la jurisdicción para perseguir las actividades ilegales que se realizan en Internet". [3] Los proveedores de servicios de Internet son los más directamente afectados por la legislación nacional porque tienen que estar ubicados en un país específico para operar. Los motores de búsqueda, si bien pueden modificar los resultados de búsqueda por razones comerciales o de autorregulación, han tendido cada vez más a adaptarse al régimen de responsabilidad de los intermediarios tanto de sus jurisdicciones de origen registradas como de otras jurisdicciones en las que prestan sus servicios, ya sea eliminando enlaces a contenidos de manera proactiva o a pedido de las autoridades. [50]
Todos los intermediarios de Internet operados por empresas privadas también deben respetar los derechos humanos . Esto se establece en los Principios Rectores sobre las Empresas y los Derechos Humanos elaborados por la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos . El documento hace hincapié en la responsabilidad corporativa de respetar los derechos humanos mediante la debida diligencia. En el principio 11, declara que: "Las empresas deben respetar los derechos humanos. Esto significa que deben evitar infringir los derechos humanos de otros y deben abordar los impactos adversos sobre los derechos humanos en los que estén involucradas". [51] Los Principios Rectores de las Naciones Unidas también indican que en los casos en que se violan los derechos humanos, las empresas deben "prever o cooperar en su reparación mediante procesos legítimos". [51] En el caso de los intermediarios de Internet y las concepciones del discurso de odio, esto significa que deben asegurarse de que existan medidas para proporcionar una respuesta proporcional. [3]
El Pew Research Center encuestó a más de 10,000 adultos en julio de 2020 para estudiar el efecto de las redes sociales en la política y el activismo por la justicia social . El 23% de los encuestados, que son usuarios adultos de las redes sociales, informaron que el contenido de las redes sociales les hizo cambiar su opinión, positiva o negativamente, sobre un tema político o de justicia social. [52] El 35% de los encuestados citó el movimiento Black Lives Matter , la reforma policial y/o las relaciones raciales . [52] El 18% de los encuestados informó un cambio de opinión sobre partidos políticos, ideologías , políticos y/o el presidente Donald Trump . [52] El 9% de los encuestados citó cuestiones de justicia social, como los derechos LGBTQIA+ , el feminismo , la inmigración , etc. [52] El 8% de los encuestados cambió su opinión sobre la pandemia de COVID-19 y el 10% citó otras opiniones. [52] Según estos resultados, las redes sociales juegan un papel importante a la hora de influir en la opinión pública.
Un estudio realizado por los investigadores Alice Marwick y Rebecca Lewis observó la manipulación de los medios y exploró cómo la alt-right comercializó, creó redes y colaboró para influir en sus controvertidas creencias que podrían haber ayudado potencialmente a influir en la victoria del presidente Trump en las elecciones de 2016. A diferencia de los medios tradicionales , la alt-right no necesita cumplir con ninguna regla cuando se trata de influencia y no necesita preocuparse por las calificaciones de la red, las críticas de la audiencia o el sensacionalismo . [53] [¿ opinión desequilibrada? ] [¿ en comparación con? ] Los grupos de alt-right pueden compartir y persuadir a otros de sus controvertidas creencias tan francamente y descaradamente como deseen, en cualquier plataforma, [¿ opinión desequilibrada? ] [ ¿ en comparación con? ] lo que puede haber jugado un papel en las elecciones de 2016. Aunque el estudio no pudo concluir cuál fue exactamente el efecto en la elección, sí proporcionó una investigación extensa sobre las características de la manipulación de los medios y el trolling . [53]
La profesora y jugadora Kishonna Gray estudió las opresiones interseccionales en la comunidad de juegos en línea y pidió a Microsoft y a los desarrolladores de juegos que "evalúen críticamente las experiencias de los jugadores no tradicionales en las comunidades en línea... reconocer la diversidad ... [y que] la población de jugadores por defecto está desplegando la blancura y la masculinidad hegemónicas en detrimento de los usuarios no blancos y/o no masculinos dentro del espacio". [54] Gray examinó el sexismo y el racismo en la comunidad de juegos en línea . Los jugadores intentan identificar el género, la sexualidad y el origen étnico de sus compañeros de equipo y oponentes a través de perfiles lingüísticos , cuando no se puede ver a los otros jugadores. [54] Debido a la intensa atmósfera de la esfera de los juegos virtuales y la incapacidad de no ser vistos, ubicados o confrontados físicamente, los jugadores tienden a decir cosas en el juego virtual que probablemente no habrían dicho en un entorno público. Muchos jugadores de comunidades marginadas se han separado de la red global de juegos y se han unido a " clanes ", que consisten solo en jugadores del mismo género, sexualidad y/o identidad étnica, para evitar la discriminación mientras juegan. Un estudio encontró que el 78 por ciento de todos los jugadores en línea juegan en "gremios", que son grupos más pequeños de jugadores, similares a los " clanes ". [55] Uno de los " clanes " más notables , Puerto Reekan Killaz, ha creado un espacio de juego en línea donde las mujeres negras y latinas de la comunidad LGBTQIA+ pueden jugar sin riesgo de racismo , nativismo , homofobia , sexismo y acoso sexual . [54]
Además del discurso de odio, la profesora y jugadora Lisa Nakamura descubrió que muchos jugadores han experimentado el turismo de identidad , que es cuando una persona o un grupo se apropia y finge ser miembros de otro grupo, como Nakamura observó que los jugadores blancos juegan como mujeres " geishas " japonesas. [56] El turismo de identidad a menudo conduce a estereotipos , discriminación y apropiación cultural . [56] Nakamura hizo un llamado a la comunidad de juegos en línea para que reconozca el cibertipo, "la forma en que Internet propaga, difunde y mercantiliza imágenes de raza y racismo". [57]
En agosto de 2020, más de 2500 estadounidenses de origen asiático informaron haber sufrido racismo a causa del COVID-19 , y el 30,5 % de esos casos contenían retórica antichina, según Stop AAPI (Asian-American/Pacific Islander) Hate . El lenguaje utilizado en estos incidentes se divide en cinco categorías: animosidad virulenta, chivo expiatorio de China, nativismo antiinmigrante , caracterizaciones racistas de los chinos e insultos raciales . El 60,4 % de estos incidentes denunciados encajan en la categoría de animosidad virulenta, que incluye frases como "¡Aparta tu trasero chino de mí!" [58]
El discurso de odio en línea y el acoso cibernético contra minorías religiosas y étnicas , mujeres y otros grupos socialmente marginados han sido durante mucho tiempo un problema que se minimiza y/o se ignora en la República Islámica del Pakistán . [59] [60] [61] [62]
Los discursos de odio contra los ahmadíes , tanto en línea [63] como en la vida real [64], han llevado a su persecución a gran escala . [65]
BytesForAll , una iniciativa del sur de Asia y un proyecto miembro de APC, publicó un estudio sobre el discurso de odio en línea en Pakistán el 7 de junio de 2014. [66] [67]
La investigación incluyó dos fases independientes:
Según el informe:
Internet ha crecido a un ritmo sin precedentes. Myanmar está haciendo una transición hacia una mayor apertura y acceso, lo que lleva a aspectos negativos en las redes sociales, como el uso de discursos de odio y llamadas a la violencia. [68] En 2014, la Relatora Especial del Consejo de Derechos Humanos de las Naciones Unidas sobre cuestiones de las minorías expresó su preocupación por la difusión de información errónea , discursos de odio e incitación a la violencia , discriminación y hostilidad en los medios de comunicación e Internet, especialmente dirigidos contra una comunidad minoritaria. [5] La creciente tensión en línea ha ido en paralelo con casos de violencia real que han dejado cientos de muertos y miles de desplazados. [69] Un desafío en este proceso ha afectado a las minorías étnicas y religiosas. En 2013, 43 personas murieron debido a los enfrentamientos que estallaron después de una disputa en el estado de Rakhine en la parte occidental del país. [69] Un año antes, más de 200 personas murieron y miles fueron desplazadas 37 debido a la violencia étnica, que estalló después de un presunto caso de violación. [70] En este contexto, la rápida aparición de nuevos espacios en línea, aunque sean para una fracción de la población, ha reflejado algunas de estas tensiones profundamente arraigadas en una nueva forma. [3]
La lucha contra la intolerancia y el discurso de odio en Internet es un problema emergente. Facebook se ha convertido rápidamente en la plataforma preferida por los ciudadanos que dan sus primeros pasos en Internet. En este entorno, ha habido individuos y grupos que han defendido un uso más agresivo del medio, especialmente cuando se sienten protegidos por un sentido de rectitud y por afirmaciones de actuar en defensa del interés nacional . Las figuras políticas también han utilizado los medios en línea para causas particulares. En las redes sociales, se han utilizado términos despectivos en referencia a las minorías. [71] En esta situación compleja, una variedad de actores ha comenzado a movilizarse, tratando de ofrecer respuestas que puedan evitar más violencia. Facebook ha tratado de asumir un papel más activo en el seguimiento de los usos de la plataforma de red social en Myanmar, desarrollando alianzas con organizaciones locales y haciendo accesibles en birmano las directrices sobre la denuncia de problemas. [72] [3]
La sociedad civil local ha sido una voz fuerte que condena abiertamente la propagación del discurso de odio en línea, pero al mismo tiempo pide alternativas a la censura . Una de las respuestas más innovadoras ha sido Panzagar, que en birmano significa "discurso de flores", una campaña lanzada por el bloguero y activista Nay Phone Latt para oponerse abiertamente al discurso de odio. El objetivo de la iniciativa era ofrecer un ejemplo alegre de cómo las personas pueden interactuar, tanto en línea como fuera de línea. [73] Los activistas locales se han centrado en soluciones locales, en lugar de tratar de movilizar a la sociedad civil mundial sobre estas cuestiones. Esto contrasta con algunas otras campañas en línea que han podido atraer la atención del mundo hacia problemas relativamente desatendidos. Iniciativas como las promovidas por la Coalición para Salvar Darfur para la guerra civil en Sudán , o la organización Invisible Children con la campaña Kony2012 que denunció las atrocidades cometidas por el Ejército de Resistencia del Señor , son ejemplos populares. Como lo han señalado los comentarios sobre estas campañas, esas respuestas globales pueden tener repercusiones negativas en la capacidad de encontrar soluciones locales. [74]
La rivalidad étnica de larga data en Etiopía entre el pueblo oromo y el pueblo amhara encontró un campo de batalla en Facebook , lo que dio lugar a discursos de odio, amenazas, desinformación y muertes. Facebook no tiene verificadores de datos que hablen ninguno de los idiomas dominantes que se hablan en Etiopía ni proporciona traducciones de las Normas comunitarias, por lo que el discurso de odio en Facebook no se controla en gran medida en Etiopía. En cambio, Facebook depende de activistas para marcar el posible discurso de odio y la desinformación, pero los numerosos activistas agotados se sienten maltratados. [75]
En octubre de 2019, el activista etíope Jawar Mohammed anunció falsamente en Facebook que la policía lo iba a detener, alegando tensiones religiosas y étnicas. Esto llevó a la comunidad a protestar por su presunta detención y las tensiones raciales y étnicas, que provocaron más de 70 muertes. [76]
Una campaña de desinformación se originó en Facebook centrada en el popular cantante etíope Hachalu Hundessa , del grupo étnico oromo. Las publicaciones acusaron a Hundessa de apoyar a su controvertido primer ministro Abiy Ahmed , a quien los nacionalistas oromo desaprobaron por su complacencia con otros grupos étnicos. Hundessa fue asesinado en junio de 2020 tras las publicaciones de odio en Facebook, lo que provocó la indignación pública. Los usuarios de Facebook culparon al pueblo amhara por el asesinato de Hundessa sin ninguna prueba en un largo hilo de contenido de odio. [75] Según The Network Against Hate Speech, muchas publicaciones de Facebook llamaron a " ataques genocidas contra un grupo étnico o una religión, o ambos al mismo tiempo; y ordenaron a las personas que quemaran las propiedades de los civiles, los mataran brutalmente y los desplazaran". [75] La violencia en las calles y en Facebook se intensificó hasta el punto de que el gobierno etíope cerró Internet durante tres semanas. Sin embargo, los países vecinos aún podían publicar y acceder al contenido odioso del asunto, y los activistas voluntarios no podían acceder a Internet para denunciar el discurso de odio. Por lo tanto, "hay horas de videos provenientes de la comunidad de la diáspora, con contenido extremista, que dicen que debemos exterminar a este grupo étnico", según el profesor Endalk Chala de la Universidad de Hamline. [75]
Los funcionarios de Facebook viajaron a Etiopía para investigar, pero no dieron a conocer sus hallazgos. Facebook anunció que está contratando moderadores que hablen amárico y otros idiomas en Etiopía, pero no proporcionó detalles extensos. [75]
El discurso de odio en línea se produjo durante la Guerra de Tigray , en la que se inició el conflicto militar y los crímenes de guerra por parte de todos los bandos , posiblemente equivalentes a crímenes contra la humanidad , en noviembre de 2020. [77] En un discurso de odio en las redes sociales en noviembre de 2021, periodistas, políticos y activistas pro-gobierno federal llamaron a los tigrayanos étnicos "traidores", pidieron a los vecinos que los "eliminaran" y pidieron a las autoridades que detuvieran a los tigrayanos étnicos en "campos de concentración". Se produjeron detenciones masivas de tigrayanos étnicos, con justificación legal federal en virtud del estado de emergencia etíope de 2021. [78]
Los intermediarios de Internet han desarrollado definiciones dispares de discurso de odio y directrices para regularlo. Algunas empresas no utilizan el término discurso de odio, pero tienen una lista descriptiva de términos relacionados con él. [3]
Los términos de servicio de Yahoo! prohíben la publicación de "contenido que sea ilegal , dañino, amenazante, abusivo, acosador , tortuoso, difamatorio , vulgar, obsceno, calumnioso , invasivo de la privacidad de otros, odioso o racial, étnicamente o de otro modo objetable". [79]
En diciembre de 2017, Twitter comenzó a aplicar nuevas políticas contra el discurso de odio, prohibiendo múltiples cuentas y estableciendo nuevas pautas sobre lo que se permitirá en su plataforma. [80] Hay una página completa en el Centro de ayuda de Twitter dedicada a describir su Política de conducta de odio, así como sus procedimientos de aplicación. [81] La parte superior de esta página dice "La libertad de expresión significa poco si las voces se silencian porque la gente tiene miedo de hablar. No toleramos comportamientos que acosen, intimiden o utilicen el miedo para silenciar la voz de otra persona. Si ve algo en Twitter que viole estas reglas, infórmennoslo". La definición de discurso de odio de Twitter varía desde "amenazas violentas" y "deseos de daño físico, muerte o enfermedad de individuos o grupos" hasta "insultos, epítetos, tropos racistas y sexistas repetidos y/o no consensuados, u otro contenido que degrade a alguien".
Las sanciones por infracciones van desde la suspensión de la capacidad de un usuario para tuitear hasta que elimine su publicación ofensiva u ofensiva hasta la eliminación total de una cuenta. En una declaración posterior a la implementación de sus nuevas políticas, Twitter dijo: "En nuestros esfuerzos por ser más agresivos en este aspecto, podemos cometer algunos errores y estamos trabajando en un sólido proceso de apelaciones". . . "Evaluaremos e iteraremos sobre estos cambios en los próximos días y semanas, y los mantendremos informados sobre el progreso a lo largo del camino". [82] Estos cambios llegan en un momento en el que se están tomando medidas para prevenir el discurso de odio en todo el mundo, incluidas nuevas leyes en Europa que imponen multas a los sitios que no puedan abordar los informes de discurso de odio en un plazo de 24 horas. [83]
YouTube , una subsidiaria de la empresa de tecnología Google , permite una fácil distribución y acceso a contenido para cualquier creador de contenido, lo que crea la oportunidad para que la audiencia acceda a contenido que se desvía hacia la derecha o hacia la izquierda de la ideología " moderada " común en los medios tradicionales . [84] YouTube ofrece incentivos a los creadores de contenido populares, lo que impulsa a algunos creadores a optimizar la experiencia de YouTuber y publicar contenido de valor impactante que puede promover ideas extremistas y odiosas. [84] [85] La diversidad de contenido y la monetización en YouTube dirigen a una amplia audiencia al contenido potencialmente dañino de los extremistas. [84] [85] YouTube permite a los creadores marcarse personalmente, lo que facilita que los suscriptores jóvenes formen una relación parasocial con ellos y actúen como clientes "habituales". [85] En 2019, YouTube desmonetizó las cuentas políticas, [86] pero los creadores de contenido radical todavía tienen sus canales y suscriptores para mantenerlos culturalmente relevantes y económicamente a flote. [85]
YouTube ha delineado una clara "Política de discurso de odio" entre varias otras políticas de usuario en su sitio web. [87] La política está redactada de la siguiente manera: "Alentamos la libertad de expresión y tratamos de defender su derecho a expresar puntos de vista impopulares, pero no permitimos el discurso de odio. El discurso de odio se refiere al contenido que promueve la violencia contra o tiene el propósito principal de incitar al odio contra individuos o grupos en función de ciertos atributos, como: raza u origen étnico, religión, discapacidad, género, edad, condición de veterano, orientación sexual / identidad de género". YouTube ha incorporado un sistema de denuncia de usuarios para contrarrestar la creciente tendencia del discurso de odio. [88] Uno de los elementos disuasorios más populares contra el discurso de odio es que los usuarios pueden denunciar anónimamente a otro usuario por contenido que consideren inapropiado. Luego, el contenido se revisa en función de la política de YouTube y las restricciones de edad, y se elimina o se deja como está.
Los términos de Facebook prohíben contenido que sea dañino, amenazante o que tenga potencial para incitar al odio e incitar a la violencia. En sus estándares comunitarios, Facebook explica que "Facebook elimina el discurso de odio, que incluye contenido que ataca directamente a las personas en función de su: raza, etnia, origen nacional, afiliación religiosa, orientación sexual, sexo, género o identidad de género, o discapacidades o enfermedades graves ". [89] Además, afirma que "Permitimos el humor, la sátira o los comentarios sociales relacionados con estos temas, y creemos que cuando las personas usan su identidad auténtica, son más responsables al compartir este tipo de comentarios. Por esa razón, solicitamos que los propietarios de páginas asocien su nombre y perfil de Facebook con cualquier contenido que sea insensible, incluso si ese contenido no viola nuestras políticas. Como siempre, instamos a las personas a ser conscientes de su audiencia al compartir este tipo de contenido". [89]
Instagram , una plataforma para compartir fotos y videos propiedad de Facebook , tiene pautas similares a las de Facebook en materia de discurso de odio, pero no está dividida en niveles. Las Pautas de la comunidad de Instagram también prohíben la desinformación, la desnudez, la glorificación de la autolesión y la publicación de contenido con derechos de autor sin autorización. [90]
Las políticas de Facebook contra el discurso de odio son aplicadas por 7.500 revisores de contenido, así como por muchos monitores de inteligencia artificial. Debido a que esto requiere una toma de decisiones difícil, surge una controversia entre los revisores de contenido sobre la aplicación de las políticas. Algunos usuarios parecen sentir que la aplicación es inconsistente. Un ejemplo del pasado adecuado son dos publicaciones separadas pero igualmente gráficas que deseaban la muerte a miembros de una religión específica. Ambas publicaciones fueron marcadas por los usuarios y revisadas por el personal de Facebook. Sin embargo, solo una fue eliminada a pesar de que transmitían sentimientos casi idénticos. [91] En una cita sobre el discurso de odio en la plataforma, el vicepresidente de operaciones globales de Facebook, Justin Osofky, afirmó: "Lamentamos los errores que hemos cometido; no reflejan la comunidad que queremos ayudar a construir... Debemos hacerlo mejor". [92]
Ha habido una controversia adicional debido a la especificidad de las políticas de Facebook sobre discurso de odio . En muchas ocasiones ha habido informes de actualizaciones de estado y comentarios que los usuarios consideran insensibles y transmiten odio. Sin embargo, estas publicaciones técnicamente no infringen ninguna política de Facebook porque su discurso no ataca a otros según la lista de clases protegidas de la empresa. Por ejemplo, la declaración "Las periodistas deportivas deben recibir golpes en la cabeza con discos de hockey" no se consideraría discurso de odio en la plataforma de Facebook y, por lo tanto, no se eliminaría. [93] Si bien la empresa protege contra el odio basado en el género, no protege contra el odio basado en la ocupación.
Facebook ha sido acusado de tener prejuicios al controlar el discurso de odio, citando anuncios de campañas políticas que pueden promover el odio o la desinformación que han tenido un impacto en la plataforma. [15] Facebook ajustó sus políticas después de recibir reacciones negativas, acusaciones y grandes corporaciones retiraron sus anuncios de la plataforma para protestar por el manejo poco riguroso de la plataforma del discurso de odio y la desinformación. [15] A partir de 2020, los anuncios de campañas políticas tienen una función de "bandera" que señala que el contenido es de interés periodístico pero que puede violar algunas pautas de la comunidad. [15]
Facebook también intenta dar cabida a los usuarios que promueven otros contenidos de incitación al odio con la intención de criticarlos. En estos casos, se exige a los usuarios que dejen claro que su intención es educar a los demás. Si esta intención no está clara, Facebook se reserva el derecho de censurar el contenido. [94] Cuando Facebook inicialmente marca el contenido que puede contener incitación al odio, lo asigna a una escala de niveles 1, 2 y 3, según la gravedad del contenido. El nivel 1 es el más grave y el nivel 3 es el menos grave. El nivel 1 incluye todo lo que transmita "discurso violento o apoyo a la muerte/enfermedad/daño". [95] El nivel 2 se clasifica como contenido que difama la imagen de otro usuario mental, física o moralmente. [96] El nivel 3 incluye todo lo que pueda excluir o discriminar a otros, o que utilice insultos sobre grupos protegidos, pero no se aplica necesariamente a argumentos para restringir la inmigración o críticas a las políticas de inmigración existentes. [96]
En marzo de 2019, Facebook prohibió el contenido que apoyaba el nacionalismo blanco y el separatismo blanco , extendiendo una prohibición anterior de contenido de supremacía blanca . [97] En mayo de 2019, anunció prohibiciones a varias personas prominentes por violaciones a su prohibición sobre el discurso de odio, incluidos Alex Jones , Louis Farrakhan , Milo Yiannopoulos , Laura Loomer y Paul Nehlen . [98]
En 2020, Facebook agregó pautas al Nivel 1 que prohíben las caras pintadas de negro , las comparaciones raciales con animales, los estereotipos raciales o religiosos , la negación de eventos históricos y la cosificación de las mujeres y la comunidad LGBTQIA+ . [99]
Los discursos de odio en Facebook e Instagram se cuadriplicaron en 2020, lo que llevó a la eliminación de 22,5 millones de publicaciones en Facebook y 3,3 millones de publicaciones en Instagram solo en el segundo trimestre de 2020. [15]
En octubre de 2022, Media Matters publicó un informe que indicaba que Facebook e Instagram seguían beneficiándose de anuncios que utilizaban el insulto " groomer " para referirse a las personas LGBT . [100] El artículo informaba que Meta había confirmado previamente que el uso de esta palabra para referirse a la comunidad LGBT viola sus políticas de incitación al odio. [100] La historia fue posteriormente recogida por otros medios de comunicación como New York Daily News , PinkNews y LGBTQ Nation . [101] [102] [103]
Microsoft tiene reglas específicas sobre el discurso de odio para una variedad de sus aplicaciones . Su política para teléfonos móviles prohíbe las aplicaciones que "contengan cualquier contenido que promueva la discriminación, el odio o la violencia en función de consideraciones de raza, etnia, origen nacional, idioma, género, edad, discapacidad, religión, orientación sexual, condición de veterano o pertenencia a cualquier otro grupo social". [104] La empresa también tiene reglas sobre los juegos en línea, que prohíben cualquier comunicación que sea indicativa de "discurso de odio, temas religiosos controvertidos y eventos actuales o históricos sensibles". [105]
TikTok carece de directrices claras y control sobre el discurso de odio, lo que permite que la intimidación , el acoso , la propaganda y el discurso de odio se conviertan en parte del discurso normal en TikTok . Los grupos de odio de extrema derecha y las organizaciones terroristas prosperan en TikTok difundiendo y fomentando el odio a una audiencia de tan solo 13 años. [106] Los niños son ingenuos y se dejan influenciar fácilmente por otras personas y mensajes, por lo que es más probable que escuchen y repitan lo que se les muestra o se les dice. [107] Internet no tiene un espacio excesivamente monitoreado que garantice la seguridad de los niños, por lo que mientras Internet sea público, los niños y adolescentes están obligados a encontrarse con discursos de odio. [107] A partir de ahí, los adolescentes jóvenes tienden a dejar que su curiosidad los lleve a fomentar su interés e investigación en ideas radicales. [107]
Sin embargo, los niños no pueden responsabilizarse de sus acciones de la manera en que los adultos pueden y deben hacerlo, [107] culpando no solo a la persona que publicó el contenido vulgar, sino a la propia plataforma de redes sociales. Por lo tanto, TikTok es criticada por su manejo del discurso de odio en la plataforma. Si bien TikTok prohíbe el acoso , el hostigamiento y cualquier discurso vulgar u odioso en sus Términos y condiciones, TikTok no ha estado activo el tiempo suficiente como para haber desarrollado un método efectivo para monitorear este contenido. [106] Otras plataformas de redes sociales como Instagram , Twitter y Facebook han estado activas el tiempo suficiente como para saber cómo combatir el discurso de odio y el contenido vulgar en línea, [106] pero la audiencia en esas plataformas tiene la edad suficiente para asumir la responsabilidad de los mensajes que difunden. [107]
TikTok , por otro lado, tiene que asumir cierta responsabilidad por el contenido distribuido a su audiencia joven. [106] Los usuarios de TikTok deben tener al menos 13 años de edad, sin embargo, ese requisito se puede obviar fácilmente, ya que las aplicaciones no pueden acceder físicamente a la edad de los usuarios. El investigador Robert Mark Simpson concluyó que combatir el discurso de odio en los medios dirigidos a los jóvenes "podría parecerse más a las regulaciones que rigen el entretenimiento para adultos que a las prohibiciones sobre la negación del Holocausto". [107]
La alfabetización mediática e informacional tiene como objetivo ayudar a las personas a participar en una sociedad digital al poder usar, comprender, investigar, crear, comunicar y pensar críticamente; al mismo tiempo que pueden acceder, organizar, analizar, evaluar y crear mensajes de manera efectiva en una variedad de formas. [108]
La educación para la ciudadanía se centra en preparar a los individuos para que sean ciudadanos informados y responsables mediante el estudio de los derechos, las libertades y las responsabilidades, y se ha empleado de diversas maneras en sociedades que emergen de conflictos violentos. [109] Uno de sus principales objetivos es crear conciencia sobre los derechos políticos, sociales y culturales de los individuos y los grupos, incluida la libertad de expresión y las responsabilidades e implicaciones sociales que surgen de ella. La preocupación de la educación para la ciudadanía con respecto al discurso de odio es doble: abarca el conocimiento y las habilidades para identificar el discurso de odio y debe permitir a los individuos contrarrestar los mensajes de odio. [110] Uno de sus desafíos actuales es adaptar sus objetivos y estrategias al mundo digital, proporcionando no solo conocimientos y habilidades argumentativas sino también tecnológicas que un ciudadano puede necesitar para contrarrestar el discurso de odio en línea. [3]
La alfabetización informacional no puede obviar cuestiones como los derechos a la libre expresión y la privacidad, la ciudadanía crítica y el fomento del empoderamiento para la participación política . [111] Las alfabetizaciones múltiples y complementarias se vuelven fundamentales. La aparición de nuevas tecnologías y redes sociales ha desempeñado un papel importante en este cambio. Los individuos han evolucionado desde ser meros consumidores de mensajes mediáticos a productores, creadores y curadores de información, lo que ha dado lugar a nuevos modelos de participación que interactúan con los tradicionales, como votar o unirse a un partido político . Las estrategias de enseñanza están cambiando en consecuencia, desde el fomento de la recepción crítica de los mensajes mediáticos hasta el empoderamiento de la creación de contenidos mediáticos. [112]
El concepto de alfabetización mediática e informacional continúa evolucionando y se ve reforzado por la dinámica de Internet. Está empezando a abarcar cuestiones de identidad , ética y derechos en el ciberespacio . [113] Algunas de estas habilidades pueden ser particularmente importantes a la hora de identificar y responder al discurso de odio en línea.
Serie de iniciativas destinadas a proporcionar información y herramientas prácticas para que los usuarios de Internet sean ciudadanos digitales activos :
La educación también se considera una herramienta contra el discurso de odio. Laura Geraghty, del movimiento No Hate Speech Movement, afirmó: "La educación es fundamental para prevenir el discurso de odio en Internet. Es necesario concienciar y empoderar a las personas para que se conecten a Internet de manera responsable; sin embargo, todavía se necesitan los instrumentos y el marco jurídico para perseguir los delitos motivados por el odio, incluido el discurso de odio en Internet, de lo contrario, el aspecto preventivo no servirá de nada". [115] [3]
Este artículo incorpora texto de una obra de contenido libre . Licencia CC BY SA 3.0 IGO (declaración de licencia/permiso). Texto extraído de Countering Online Hate Speech, 73, Iginio Gagliardone, Danit Gal, Thiago Alves, Gabriela Martinez, UNESCO. UNESCO.
Una característica clave de
la sociedad digital
contemporánea
es la integración de
las comunicaciones y otras tecnologías digitales
en la vida cotidiana, de modo que muchos de nosotros estamos "conectados constantemente". Sin embargo, el entrelazamiento de lo social y lo digital tiene implicaciones particulares para las relaciones interpersonales. El acoso y el abuso digitales se refieren a una variedad de comportamientos interpersonales dañinos experimentados a través de
Internet
, así como a través
del teléfono móvil
y otros dispositivos de comunicación electrónica. Estas conductas en línea incluyen: comentarios ofensivos e insultos, acoso selectivo, abuso verbal y amenazas, así como acoso y abuso sexual, sexual y por motivos de género. El acoso y abuso sexual, sexual y por motivos de género se refiere a
conductas dañinas y no deseadas, ya sean de naturaleza sexual o dirigidas a una persona en función de su sexualidad o identidad de género
.
{{cite web}}
: CS1 maint: numeric names: authors list (link)