La radicalización algorítmica es el concepto de que los algoritmos de recomendación en sitios de redes sociales populares como YouTube y Facebook llevan a los usuarios hacia contenido cada vez más extremo con el tiempo, lo que los lleva a desarrollar opiniones políticas extremistas radicalizadas . Los algoritmos registran las interacciones de los usuarios, desde los me gusta/no me gusta hasta la cantidad de tiempo dedicado a las publicaciones, para generar un sinfín de medios destinados a mantener a los usuarios interesados. A través de canales de cámara de eco , el consumidor se ve impulsado a estar más polarizado a través de las preferencias en los medios y la autoconfirmación. [1] [2] [3] [4]
La radicalización algorítmica sigue siendo un fenómeno controvertido, ya que a menudo no es lo mejor para las empresas de redes sociales eliminar los canales de cámara de eco. [5] [6] Hasta qué punto los algoritmos de recomendación son realmente responsables de la radicalización sigue siendo controvertido; los estudios han encontrado resultados contradictorios en cuanto a si los algoritmos han promovido contenido extremista.
Las plataformas de redes sociales aprenden los intereses y gustos del usuario para modificar sus experiencias en su feed y mantenerlos interesados y desplazándose, lo que se conoce como burbuja de filtro . [7] Una cámara de eco se forma cuando los usuarios se encuentran con creencias que magnifican o refuerzan sus pensamientos y forman un grupo de usuarios con ideas afines en un sistema cerrado. [8] Las cámaras de eco difunden información sin ninguna creencia opuesta y posiblemente pueden conducir a un sesgo de confirmación . Según la teoría de polarización grupal , una cámara de eco puede potencialmente llevar a los usuarios y grupos hacia posiciones radicalizadas más extremas. [9] Según la Biblioteca Nacional de Medicina, "Los usuarios en línea tienden a preferir la información que se adhiere a sus visiones del mundo, ignoran la información disidente y forman grupos polarizados en torno a narrativas compartidas. Además, cuando la polarización es alta, la desinformación prolifera rápidamente". [10]
El algoritmo de Facebook se centra en recomendar contenido que haga que el usuario quiera interactuar. Clasifican el contenido priorizando las publicaciones populares de los amigos, el contenido viral y, a veces, el contenido divisivo. Cada feed está personalizado según los intereses específicos del usuario, lo que a veces puede llevar a los usuarios a una cámara de eco de contenido problemático. [11] Los usuarios pueden encontrar su lista de intereses que utiliza el algoritmo yendo a la página "Sus preferencias de anuncios". Según un estudio de Pew Research, el 74% de los usuarios de Facebook no sabían que existía esa lista hasta que fueron dirigidos a esa página en el estudio. [12] También es relativamente común que Facebook asigne etiquetas políticas a sus usuarios. En los últimos años, [ ¿cuándo? ] Facebook ha comenzado a utilizar inteligencia artificial para cambiar el contenido que los usuarios ven en su feed y lo que se les recomienda. Un documento conocido como The Facebook Files ha revelado que su sistema de IA prioriza la participación del usuario sobre todo lo demás. The Facebook Files también ha demostrado que controlar los sistemas de IA ha resultado difícil de manejar. [13]
En un memorando interno de agosto de 2019 filtrado en 2021, Facebook admitió que "la mecánica de nuestras plataformas no es neutral", [14] [15] y concluyó que para alcanzar las máximas ganancias es necesaria la optimización de la interacción. Para aumentar la interacción, los algoritmos han descubierto que el odio, la desinformación y la política son fundamentales para la actividad de la aplicación. [16] Como se hace referencia en el memorando, "cuanto más incendiario sea el material, más mantiene a los usuarios interesados y más lo impulsa el algoritmo". [14] Según un estudio de 2018, "los rumores falsos se difunden más rápido y más ampliamente que la información verdadera... Descubrieron que las falsedades tienen un 70% más de probabilidades de ser retuiteadas en Twitter que la verdad, y llegan a sus primeras 1.500 personas seis veces más rápido. Este efecto es más pronunciado con las noticias políticas que con otras categorías". [17]
YouTube existe desde 2005 y cuenta con más de 2500 millones de usuarios mensuales. Los sistemas de descubrimiento de contenido de YouTube se centran en la actividad personal del usuario (vídeos, favoritos, me gusta) para dirigirlo al contenido recomendado. El algoritmo de YouTube es responsable de aproximadamente el 70% de los vídeos recomendados por los usuarios y de lo que motiva a las personas a ver determinado contenido. [18] Según un nuevo estudio, los usuarios tienen poco poder para mantener los vídeos no solicitados fuera de su contenido recomendado sugerido. Esto incluye vídeos sobre discursos de odio, transmisiones en vivo, etc. [18]
YouTube ha sido identificado como una plataforma influyente para difundir contenido radicalizado. Al-Qaeda y grupos extremistas similares han sido vinculados al uso de YouTube para videos de reclutamiento y la interacción con medios de comunicación internacionales. En un estudio de investigación publicado por el American Behavioral Scientist Journal , investigaron "si es posible identificar un conjunto de atributos que puedan ayudar a explicar parte del proceso de toma de decisiones del algoritmo de YouTube". [19] Los resultados del estudio mostraron que las recomendaciones del algoritmo de YouTube para contenido extremista tienen en cuenta la presencia de palabras clave radicales en el título de un video. En febrero de 2023, en el caso de Gonzalez v. Google , la pregunta en cuestión es si Google, la empresa matriz de YouTube, está o no protegida de demandas que aleguen que los algoritmos del sitio ayudaron a los terroristas a recomendar videos de ISIS a los usuarios. Se sabe que la Sección 230 generalmente protege a las plataformas en línea de la responsabilidad civil por el contenido publicado por sus usuarios. [20]
TikTok es una aplicación que recomienda vídeos a la página "Para ti" (For You Page, FYP) de un usuario, lo que hace que la página de cada usuario sea diferente. Debido a la naturaleza del algoritmo detrás de la aplicación, la FYP de TikTok se ha relacionado con la aparición de vídeos más explícitos y radicales con el tiempo en función de las interacciones previas de los usuarios en la aplicación. [21] Desde el inicio de TikTok, la aplicación ha sido objeto de escrutinio en busca de desinformación y discursos de odio, ya que esas formas de medios suelen generar más interacciones con el algoritmo. [22]
Varios grupos extremistas, incluidas organizaciones yihadistas , han utilizado TikTok para difundir propaganda, reclutar seguidores e incitar a la violencia. El algoritmo de la plataforma, que recomienda contenido en función de la interacción del usuario, puede exponer a los usuarios a contenido extremista que se alinea con sus intereses o interacciones. [23]
En 2022, el jefe de Seguridad de TikTok en EE. UU. publicó una declaración en la que afirmaba que "81 518 334 videos fueron eliminados a nivel mundial entre abril y junio por violar nuestras Pautas de la comunidad o Términos de servicio" para reducir el discurso de odio, el acoso y la desinformación. [24]
Los estudios han señalado casos de personas que se radicalizaron a través del contenido que encontraron en TikTok. Por ejemplo, a principios de 2023, las autoridades austriacas frustraron un complot contra un desfile del orgullo LGBTQ+ en el que participaron dos adolescentes y un joven de 20 años que se inspiraron en el contenido yihadista de TikTok. El sospechoso más joven, de 14 años, había visto vídeos creados por influencers islamistas que glorificaban la yihad. Estos vídeos lo llevaron a interactuar más con contenido similar, lo que finalmente resultó en su participación en la planificación de un ataque. [23]
Otro caso fue el de la detención de varios adolescentes en Viena (Austria ) en 2024, que planeaban llevar a cabo un ataque terrorista en un concierto de Taylor Swift . La investigación reveló que algunos de los sospechosos se habían radicalizado en línea, siendo TikTok una de las plataformas utilizadas para difundir contenido extremista que influyó en sus creencias y acciones. [23]
El Departamento de Justicia de los Estados Unidos define el terrorismo de “lobo solitario” como “alguien que actúa solo en un ataque terrorista sin la ayuda o el estímulo de un gobierno o una organización terrorista”. [25] A través de las redes sociales en Internet, el terrorismo de “lobo solitario” ha ido en aumento, vinculándose a la radicalización algorítmica. [26] A través de cámaras de resonancia en Internet, puntos de vista que normalmente se consideran radicales fueron aceptados y rápidamente adoptados por otros extremistas. [27] Estos puntos de vista son alentados por foros, chats grupales y redes sociales para reforzar sus creencias. [28]
The Social Dilemma es un docudrama de 2020 sobre cómo los algoritmos detrás de las redes sociales permiten la adicción, al tiempo que poseen habilidades para manipular las opiniones, las emociones y el comportamiento de las personas para difundir teorías de conspiración y desinformación. La película utiliza repetidamente palabras de moda como "cámaras de eco" y " noticias falsas " para demostrar la manipulación psicológica en las redes sociales, lo que conduce a la manipulación política . En la película, Ben cae más profundamente en una adicción a las redes sociales cuando el algoritmo descubrió que su página de redes sociales tiene un 62,3% de posibilidades de participación a largo plazo. Esto lleva a más videos en el feed recomendado para Ben y eventualmente se sumerge más en la propaganda y las teorías de conspiración, volviéndose más polarizado con cada video.
En la Ley de Decencia en las Comunicaciones , la Sección 230 establece que "Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de ninguna información proporcionada por otro proveedor de contenido de información". [29] La Sección 230 protege a los medios de comunicación de responsabilidades o de ser demandados por contenido de terceros, como la actividad ilegal de un usuario. [29] Sin embargo, los críticos argumentan que este enfoque reduce el incentivo de una empresa para eliminar contenido dañino o desinformación, y esta laguna legal ha permitido a las empresas de redes sociales maximizar las ganancias al impulsar contenido radical sin riesgos legales. [30] Esta afirmación ha sido criticada por los defensores de la Sección 230, ya que antes de su aprobación, los tribunales habían dictaminado en Stratton Oakmont, Inc. v. Prodigy Services Co. que la moderación en cualquier capacidad introduce una responsabilidad para los proveedores de contenido como "editores" del contenido que decidieron dejar. [31]
Los legisladores han redactado una legislación que debilitaría o eliminaría las protecciones de la Sección 230 sobre el contenido algorítmico. Los demócratas de la Cámara de Representantes Anna Eshoo , Frank Pallone Jr. , Mike Doyle y Jan Schakowsky presentaron la "Ley de Justicia contra Algoritmos Maliciosos" en octubre de 2021 como HR 5596. El proyecto de ley no prosperó en el comité, [32] pero habría eliminado las protecciones de la Sección 230 para los proveedores de servicios relacionados con algoritmos de recomendación personalizados que presentan contenido a los usuarios si esos algoritmos entregan consciente o imprudentemente contenido que contribuye a causar lesiones físicas o emocionales graves. [33]