La radicalización algorítmica es el concepto de que los algoritmos de recomendación en sitios de redes sociales populares como YouTube y Facebook conducen a los usuarios hacia contenido progresivamente más extremo con el tiempo, lo que los lleva a desarrollar opiniones políticas extremistas radicalizadas . Los algoritmos registran las interacciones de los usuarios, desde los "me gusta" y "no me gusta" hasta la cantidad de tiempo dedicado a las publicaciones, para generar un sinfín de medios destinados a mantener a los usuarios interesados. A través de los canales de la cámara de eco , el consumidor se ve impulsado a estar más polarizado a través de las preferencias en los medios y la autoconfirmación. [1] [2] [3] [4]
La radicalización algorítmica sigue siendo un fenómeno controvertido, ya que a menudo no es lo mejor para las empresas de redes sociales eliminar los canales de cámara de eco. [5] [6] Aunque las empresas de redes sociales han admitido la existencia de la radicalización algorítmica, aún no está claro cómo gestionarán cada una esta creciente amenaza.
Las plataformas de redes sociales aprenden los intereses y gustos del usuario para modificar sus experiencias en su feed y mantenerlos interesados y desplazándose. Se forma una cámara de eco cuando los usuarios se topan con creencias que magnifican o refuerzan sus pensamientos y forman un grupo de usuarios con ideas afines en un sistema cerrado. [7] El problema con las cámaras de eco es que difunden información sin creencias contrarias y posiblemente pueden conducir a un sesgo de confirmación. Según una teoría de polarización grupal, una cámara de eco puede potencialmente llevar a usuarios y grupos hacia posiciones radicalizadas más extremas. [8] Según la Biblioteca Nacional de Medicina, "Los usuarios en línea tienden a preferir información que se adhiera a sus visiones del mundo, ignoran la información disidente y forman grupos polarizados en torno a narrativas compartidas. Además, cuando la polarización es alta, la información errónea prolifera rápidamente". [9]
El algoritmo de Facebook se centra en recomendar contenido que haga que el usuario quiera interactuar. Clasifican el contenido priorizando publicaciones populares de amigos, contenido viral y, a veces, contenido divisivo. Cada feed está personalizado según los intereses específicos del usuario, lo que a veces puede llevarlos a una cámara de eco de contenido problemático. [10] Los usuarios pueden encontrar su lista de intereses que utiliza el algoritmo yendo a la página "Sus preferencias de anuncios". Según un estudio de Pew Research, el 74% de los usuarios de Facebook no sabían que esa lista existía hasta que fueron dirigidos a esa página en el estudio. [11] También es relativamente común que Facebook asigne etiquetas políticas a sus usuarios. En los últimos años, [ ¿cuándo? ] Facebook ha comenzado a utilizar inteligencia artificial para cambiar el contenido que los usuarios ven en su feed y lo que se les recomienda. Un documento conocido como The Facebook Files ha revelado que su sistema de inteligencia artificial prioriza la participación del usuario sobre todo lo demás. Los archivos de Facebook también han demostrado que controlar los sistemas de inteligencia artificial ha resultado difícil de manejar. [12]
En un memorando interno de agosto de 2019 filtrado en 2021, Facebook admitió que "la mecánica de nuestras plataformas no es neutral", [13] [14] y concluyó que para alcanzar los máximos beneficios, es necesaria la optimización de la participación. Para aumentar la participación, los algoritmos han descubierto que el odio, la desinformación y la política son fundamentales para la actividad de las aplicaciones. [15] Como se menciona en el memorando, "Cuanto más incendiario es el material, más mantiene a los usuarios interesados, más lo impulsa el algoritmo". [13] Según un estudio de 2018, "los rumores falsos se difunden más rápido y más ampliamente que la información verdadera... Descubrieron que las falsedades tienen un 70% más de probabilidades de ser retuiteadas en Twitter que la verdad, y llegan a sus primeras 1.500 personas seis veces más rápido. Esto El efecto es más pronunciado con las noticias políticas que con otras categorías". [dieciséis]
YouTube existe desde 2005 y tiene más de 2.500 millones de usuarios mensuales. Los sistemas de descubrimiento de contenido de YouTube se centran en la actividad personal del usuario (visto, favoritos, me gusta) para dirigirlo al contenido recomendado. El algoritmo de YouTube es responsable de aproximadamente el 70% de los vídeos recomendados por los usuarios y de lo que impulsa a las personas a ver determinado contenido. [17] Según un nuevo estudio, los usuarios tienen poco poder para mantener los vídeos no solicitados fuera del contenido recomendado sugerido. Esto incluye vídeos sobre discursos de odio, transmisiones en vivo, etc. [17]
YouTube ha sido identificada como una plataforma influyente para difundir contenido radicalizado. Se ha relacionado a Al-Qaeda y grupos extremistas similares con el uso de YouTube para videos de reclutamiento y con contactos con medios de comunicación internacionales. En un estudio de investigación publicado por el American Behavioral Scientist Journal, investigaron "si es posible identificar un conjunto de atributos que puedan ayudar a explicar parte del proceso de toma de decisiones del algoritmo de YouTube". [18] Los resultados del estudio mostraron que las recomendaciones del algoritmo de YouTube para contenido extremista tienen en cuenta la presencia de palabras clave radicales en el título de un vídeo. En febrero de 2023, en el caso González contra Google, la cuestión que nos ocupa es si Google, la empresa matriz de YouTube, está protegida o no de demandas que afirmen que los algoritmos del sitio ayudaron a terroristas a recomendar vídeos de ISIS a los usuarios. Se sabe que la sección 230 protege generalmente a las plataformas en línea de la responsabilidad civil por el contenido publicado por sus usuarios. [19]
TikTok es una aplicación que recomienda videos a la 'Página Para ti' (FYP) de un usuario, lo que hace que la página de cada usuario sea diferente. Debido a la naturaleza del algoritmo detrás de la aplicación, el FYP de TikTok se ha vinculado a mostrar videos más explícitos y radicales a lo largo del tiempo en función de las interacciones previas de los usuarios en la aplicación. [20] Desde el inicio de TikTok, la aplicación ha sido analizada en busca de información errónea y discurso de odio, ya que esas formas de medios generalmente generan más interacciones con el algoritmo. [21]
A partir de 2022, el jefe de seguridad de EE. UU. de TikTok emitió una declaración de que "se eliminaron 81,518,334 videos en todo el mundo entre abril y junio por violar nuestras Pautas comunitarias o Términos de servicio" para reducir el discurso de odio, el acoso y la desinformación. [22]
El oleoducto de la extrema derecha (también llamado la madriguera del conejo de la extrema derecha) es un modelo conceptual propuesto sobre la radicalización en Internet hacia el movimiento de extrema derecha . Describe un fenómeno en el que el consumo de contenido político provocativo de derecha , como ideas antifeministas o anti-SJW , aumenta gradualmente la exposición a la extrema derecha o políticas similares de extrema derecha . Postula que esta interacción se produce debido a la naturaleza interconectada de los comentaristas políticos y las comunidades en línea , lo que permite a los miembros de una audiencia o comunidad descubrir grupos más extremos. [23] [24] Este proceso se asocia más comúnmente y se ha documentado en la plataforma de videos YouTube , y se enfrenta en gran medida al método en el que los algoritmos en varias plataformas de redes sociales funcionan a través del proceso recomendando contenido que es similar a lo que los usuarios interactuar, pero puede llevar rápidamente a los usuarios a madrigueras de conejos. [24] [25] [26]
Muchos movimientos políticos se han asociado con el concepto del oleoducto. Se ha identificado que la red intelectual oscura , [24] el libertarismo , [27] el movimiento por los derechos de los hombres , [28] y el movimiento alt-lite [24] posiblemente introducen al público ideas de alt-right. Las audiencias que buscan y están dispuestas a aceptar contenido extremo de esta manera generalmente están formadas por hombres jóvenes, comúnmente aquellos que experimentan una soledad significativa y buscan pertenencia o significado. [29] En un intento por encontrar comunidad y pertenencia, los foros de mensajes que a menudo proliferan con comentarios sociales de extrema derecha, como 4chan y 8chan , han sido bien documentados por su importancia en el proceso de radicalización. [30]
El oleoducto de la extrema derecha puede ser un factor que contribuya al terrorismo interno . [31] [32] Muchas plataformas de redes sociales han reconocido este camino de radicalización y han tomado medidas para prevenirlo, incluida la eliminación de figuras extremistas y reglas contra el discurso de odio y la desinformación. [25] [29] Los movimientos de izquierda , como BreadTube , también se oponen al oleoducto de la extrema derecha y "buscan crear un 'oleoducto de izquierda' como contrafuerza al oleoducto de la extrema derecha". [33]
Los efectos del sesgo algorítmico de YouTube en la radicalización de los usuarios han sido replicados en un estudio, [24] [34] [35] [36] aunque otros dos estudios encontraron poca o ninguna evidencia de un proceso de radicalización. [25] [37] [38]El Departamento de Justicia de Estados Unidos define el (auto)terrorismo del lobo solitario como "alguien que actúa solo en un ataque terrorista sin la ayuda o el estímulo de un gobierno o una organización terrorista". [39] A través de los medios sociales en Internet, el terrorismo del 'lobo solitario' ha ido en aumento, vinculado a la radicalización algorítmica. [40] A través de cámaras de resonancia en Internet, otros extremistas aceptaron y rápidamente adoptaron puntos de vista típicamente considerados radicales. [41] Estos puntos de vista son fomentados por foros, chats grupales y redes sociales para reforzar sus creencias. [42]
The Social Dilemma es un docudrama de 2020 sobre cómo los algoritmos detrás de las redes sociales permiten la adicción, al tiempo que poseen habilidades para manipular las opiniones, las emociones y el comportamiento de las personas para difundir teorías de conspiración y desinformación. La película utiliza repetidamente palabras de moda como "cámaras de eco" y "noticias falsas" para demostrar la manipulación psicológica en las redes sociales, lo que conduce a la manipulación política. En la película, Ben cae más profundamente en una adicción a las redes sociales cuando el algoritmo descubrió que su página de redes sociales tiene un 62,3% de posibilidades de interacción a largo plazo. Esto conduce a más videos en el feed recomendado para Ben y eventualmente se sumerge más en propaganda y teorías de conspiración, volviéndose más polarizado con cada video.
En la Ley de Decencia en las Comunicaciones de 1996, el artículo 230 establece que "Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de cualquier información proporcionada por otro proveedor de contenido de información". [43] La sección 230 protege a los medios de responsabilidades o de ser demandados por contenido de terceros, como actividad ilegal de un usuario. [43] Sin embargo, este enfoque reduce el incentivo de una empresa para eliminar contenido dañino o información errónea. Esta laguna jurídica ha permitido a las empresas de redes sociales maximizar sus ganancias impulsando contenido radical sin riesgos legales. [44]