El alt-right pipeline (también llamado alt-right rabbit hole ) es un modelo conceptual propuesto sobre la radicalización de Internet hacia el movimiento alt-right . Describe un fenómeno en el que el consumo de contenido político provocativo de derecha , como ideas antifeministas o anti-SJW , aumenta gradualmente la exposición a la alt-right o políticas de extrema derecha similares . Postula que esta interacción tiene lugar debido a la naturaleza interconectada de los comentaristas políticos y las comunidades en línea , lo que permite a los miembros de una audiencia o comunidad descubrir grupos más extremistas. [1] [2] Este proceso se asocia más comúnmente con y ha sido documentado en la plataforma de video YouTube , y está en gran medida facetado por el método en el que los algoritmos en varias plataformas de redes sociales funcionan a través del proceso de recomendar contenido que es similar a lo que los usuarios interactúan, pero puede llevar rápidamente a los usuarios por madrigueras de conejo. [2] [3] [4] Los efectos del sesgo algorítmico de YouTube en la radicalización de los usuarios han sido replicados por un estudio, [2] [5] [6] [7] aunque otros dos estudios encontraron poca o ninguna evidencia de un proceso de radicalización. [3] [8] [9]
Muchos movimientos políticos se han asociado con el concepto de pipeline. La red oscura intelectual , [2] el libertarismo , [10] el movimiento por los derechos de los hombres , [11] y el movimiento alt-lite [2] han sido identificados como posibles introductores a las audiencias a las ideas de la alt-right. Las audiencias que buscan y están dispuestas a aceptar contenido extremo de esta manera generalmente consisten en hombres jóvenes, comúnmente aquellos que experimentan una soledad significativa y buscan pertenencia o significado. [12]
El flujo de radicalización de la extrema derecha puede ser un factor que contribuya al terrorismo interno . [13] [14] Muchas plataformas de redes sociales han reconocido esta vía de radicalización y han tomado medidas para prevenirla, incluida la eliminación de figuras extremistas y normas contra el discurso de odio y la desinformación. [3] [12] Los movimientos de izquierda , como BreadTube , también se oponen al flujo de radicalización de la extrema derecha y "tratan de crear un 'flujo de izquierda' como contrafuerza al flujo de radicalización de la extrema derecha". [15]
El uso de Internet permite a las personas con creencias heterodoxas alterar su entorno, lo que a su vez tiene efectos transformadores en el usuario. La influencia de fuentes externas como Internet puede ser gradual, de modo que el individuo no es consciente inmediatamente de su comprensión o entorno cambiantes. Los miembros de la extrema derecha se refieren a este proceso de radicalización como "tomar la píldora roja " en referencia al método de lograr inmediatamente una mayor conciencia en Matrix . Esto contrasta con la naturaleza gradual de la radicalización descrita por el canal de la extrema derecha. [14] [16] Muchos en la extrema derecha reconocen el potencial de este método de radicalización y comparten activamente contenido de derecha con la intención de radicalizar gradualmente a quienes los rodean. El uso de imágenes o humor racistas puede ser utilizado por estos individuos bajo el disfraz de ironía o falta de sinceridad para hacer que las ideas de la extrema derecha sean palpables y aceptables para audiencias más nuevas. La naturaleza de los memes de Internet significa que pueden recrearse fácilmente y difundirse a muchas comunidades de Internet diferentes. [16] [17]
YouTube ha sido identificado como un elemento importante en el flujo de la alt-right. Esto se facilita a través de una "Red de Influencia Alternativa", en la que varios académicos, expertos y personalidades de Internet de derecha interactúan entre sí para mejorar el rendimiento de su contenido. Estas figuras pueden variar en sus ideologías entre el conservadurismo , el libertarismo o el nacionalismo blanco , pero comparten una oposición común al feminismo , el progresismo y la justicia social que permite a los espectadores de una figura aclimatarse rápidamente a otra. [1] A menudo priorizan los problemas sociales de derecha sobre los problemas económicos de derecha, con poca discusión sobre el conservadurismo fiscal . Algunas personas en esta red pueden no interactuar entre sí, pero una colección de entrevistas, debates en Internet y otras interacciones crean vías para que los usuarios conozcan nuevo contenido. [2]
El sistema algorítmico de YouTube para recomendar videos permite a los usuarios acceder rápidamente a contenido similar al que han visto anteriormente, lo que les permite explorar más profundamente una idea una vez que han expresado interés. Esto permite que las audiencias más nuevas estén expuestas a contenido extremo cuando los videos que promueven la desinformación y las teorías de la conspiración ganan fuerza. [14] [12] Cuando un usuario está expuesto a cierto contenido que presenta ciertos temas políticos o cuestiones de guerra cultural , este sistema de recomendación puede llevar a los usuarios a diferentes ideas o temas, incluida la islamofobia , la oposición a la inmigración , el antifeminismo o las tasas de reproducción . [14] [18] El contenido recomendado a menudo está algo relacionado, lo que crea un efecto de radicalización gradual entre múltiples temas, conocido como canalización. [14]
En ocasiones, la plataforma también recomendará estos vídeos a usuarios que no habían indicado interés en estos puntos de vista. [4] [18] La radicalización también tiene lugar en interacciones con otros usuarios radicalizados en línea, en diversas plataformas como Gab , Reddit , 4chan o Discord . [14] Las personalidades principales de esta cadena suelen tener presencia en Facebook y Twitter , aunque YouTube suele ser su plataforma principal para enviar mensajes y obtener ingresos. [12]
El canal de la alt-right se dirige principalmente a los hombres blancos enojados , incluidos aquellos que se identifican como incels , lo que refleja la misoginia de la alt-right. Harvard Political Review ha descrito este proceso como la "explotación de la misoginia latente y la frustración sexual a través de un 'vínculo masculino' que salió terriblemente mal". El canal también se dirige a las personas con dudas sobre sí mismas . [19]
Se ha descubierto que el proceso de formación de la alt-right comienza con la comunidad intelectual de la dark web , que está formada por personalidades de Internet unificadas por una oposición a la política de identidad y la corrección política , como Joe Rogan , Ben Shapiro , Dave Rubin y Jordan Peterson . [2] La comunidad intelectual de la dark web se superpone e interactúa con la comunidad alt-lite , como Steven Crowder , Paul Joseph Watson , Mark Dice y Sargon of Akkad . [2] Esta comunidad, a su vez, se superpone e interactúa con la comunidad alt-right, como James Allsup , Black Pigeon Speaks, Varg Vikernes y Red Ice . [2] El punto final más extremo a menudo implica el fascismo o la creencia en una conspiración judía internacional , [16] aunque la gravedad del extremismo puede variar entre individuos. [12]
El contenido de la extrema derecha en Internet difunde una ideología similar a la de los movimientos supremacistas blancos y fascistas anteriores. Internet presenta la ideología de manera diferente, a menudo de una manera más aceptable y, por lo tanto, más exitosa a la hora de hacerla llegar a un mayor número de personas. [20] Debido a la naturaleza conservadora de la extrema derecha, gran parte de la ideología está asociada con la preservación de los valores y formas de vida tradicionales. Esto crea una susceptibilidad hacia las teorías conspirativas sobre fuerzas secretas que buscan destruir las formas de vida tradicionales. [21]
La antifeminista Manosfera ha sido identificada como otro punto inicial en el camino de la alt-right. [11] El movimiento por los derechos de los hombres a menudo discute los problemas de los hombres de manera más visible que otros grupos, atrayendo a hombres jóvenes con interés en tales temas cuando no hay otra alternativa disponible. Muchas personalidades de Internet de derecha han desarrollado un método para expandir sus audiencias comentando en los medios populares; los videos que critican películas o videojuegos por apoyar ideas de izquierda tienen más probabilidades de atraer a los fanáticos de las respectivas franquicias. [12]
El formato presentado por YouTube ha permitido que diversas ideologías accedan a nuevas audiencias a través de este medio. [12] El mismo proceso también se ha utilizado para facilitar el acceso a la política anticapitalista a través de la comunidad de Internet BreadTube . Esta comunidad se desarrolló mediante el uso de este proceso de canalización para presentar a los usuarios contenido de izquierda y mitigar la exposición al contenido de derecha, [12] [15] aunque se ha descubierto que el proceso de canalización es menos efectivo para la política de izquierda debido a la mayor variedad de grupos de izquierda opuestos que limita la interacción y la superposición. [15] Esta dicotomía también puede causar una " polarización de latigazo " en la que los individuos se convierten entre la política de extrema derecha y la de extrema izquierda. [12]
Los factores psicológicos de la radicalización a través del canal de la alt-right son similares a otras formas de radicalización, incluyendo la normalización , la aclimatación y la deshumanización . La normalización implica la trivialización de la retórica racista y antisemita. Las personas que se encuentran al principio del canal de la alt-right no adoptarán voluntariamente dicha retórica, sino que la adoptarán bajo la apariencia de humor negro , lo que hará que sea menos impactante con el tiempo. [14] Esto a veces puede ser diseñado intencionalmente por miembros de la alt-right para hacer que sus creencias sean más aceptables y proporcionar una negación plausible para las creencias extremas . [16] [17] La aclimatación es el proceso de estar condicionado a ver contenido intolerante. Al aclimatarse a contenido controvertido, las personas se vuelven más abiertas a contenido ligeramente más extremo. Con el tiempo, las figuras conservadoras parecen demasiado moderadas y los usuarios buscan voces más extremistas. La deshumanización es el paso final del proceso de la extrema derecha, donde las minorías son vistas como inferiores o indignas de la vida y se utiliza un lenguaje deshumanizador para referirse a las personas que no están de acuerdo con las creencias de extrema derecha . [14]
El proceso se asocia con hombres jóvenes que experimentan soledad, falta de sentido o falta de pertenencia. [12] Una apertura a puntos de vista impopulares es necesaria para que las personas acepten creencias asociadas con el proceso de formación de la derecha alternativa. Se ha asociado con el contrarianismo, en el que un individuo utiliza el supuesto de trabajo de que las visiones del mundo de la mayoría de las personas son completamente erróneas. A partir de este supuesto, las personas son más propensas a adoptar creencias que son impopulares o marginales. Esto hace efectivos varios puntos de entrada al proceso de formación de la derecha alternativa, como el libertarismo, en el que las ideologías atraen a individuos con rasgos que los hacen susceptibles a la radicalización cuando se exponen a otras ideas marginales. [10] La motivación para buscar estas comunidades varía, ya que algunas personas las encuentran por casualidad, mientras que otras las buscan. El interés por los videojuegos está asociado con las primeras etapas del proceso de formación de la derecha alternativa. [12]
Junto con los algoritmos, las comunidades en línea también pueden desempeñar un papel importante en la radicalización . Las personas con ideologías marginales y radicales pueden conocer a otras personas que comparten, validan y refuerzan esas ideologías. Debido a que las personas pueden controlar con quién y con qué interactúan en línea, pueden evitar escuchar cualquier opinión o idea que entre en conflicto con sus creencias previas. Esto crea una cámara de resonancia que sostiene y refuerza las creencias radicales. El fuerte sentido de comunidad y pertenencia que conlleva es un factor importante que contribuye a que las personas se unan a la extrema derecha y la adopten como identidad. [22]
La radicalización en Internet se correlaciona con un aumento de los ataques de lobos solitarios y el terrorismo doméstico . [13] [23] El conducto de la alt-right se ha asociado con los tiroteos en la mezquita de Christchurch , en el que un extremista de extrema derecha mató a 51 fieles musulmanes en Christchurch , que atribuyó directamente a Internet la formación de sus creencias en su manifiesto. [14] [24] La naturaleza informal de la radicalización a través del conducto de la alt-right permite que la radicalización ocurra a nivel individual, y los individuos radicalizados pueden vivir vidas normales fuera de línea. Esto ha complicado los esfuerzos de los expertos para rastrear el extremismo y predecir actos de terrorismo doméstico, ya que no hay una forma confiable de determinar quién se ha radicalizado o si está planeando llevar a cabo violencia política. [14] [25] Las campañas de acoso contra los oponentes percibidos del movimiento de la alt-right son otro efecto común de la radicalización. [14]
Muchas plataformas de redes sociales han reconocido el potencial de radicalización y han implementado medidas para limitar su prevalencia. Se ha prohibido el acceso a comentaristas extremistas de alto perfil como Alex Jones en varias plataformas, y las plataformas suelen tener reglas contra el discurso de odio y la desinformación. [12] En 2019, YouTube anunció un cambio en su algoritmo de recomendaciones para reducir el contenido relacionado con teorías de la conspiración. [12] [18] Algunos contenidos extremos, como las representaciones explícitas de violencia, suelen eliminarse en la mayoría de las plataformas de redes sociales. En YouTube, el contenido que expresa apoyo al extremismo puede tener funciones de monetización eliminadas, puede estar marcado para su revisión o puede tener los comentarios públicos de los usuarios deshabilitados. [3]
Un estudio de septiembre de 2018 publicado por el Data & Society Research Institute descubrió que 65 influencers políticos de derecha usan el motor de recomendaciones de YouTube (en conjunto con técnicas convencionales de construcción de marca, como el marketing cruzado entre influencers similares) para atraer seguidores y radicalizar a sus espectadores en una ideología de derecha particular. [26] Un estudio de agosto de 2019 realizado por la Universidade Federal de Minas Gerais y la École polytechnique fédérale de Lausanne , y presentado en la Conferencia ACM sobre Equidad, Responsabilidad y Transparencia 2020 utilizó información de la investigación anterior de Data & Society y la Liga Antidifamación (ADL) para categorizar los niveles de extremismo de 360 canales de YouTube. El estudio también hizo un seguimiento de los usuarios durante un período de 11 años analizando 72 millones de comentarios, 2 millones de recomendaciones de videos y 10 000 recomendaciones de canales. El estudio encontró que los usuarios que interactuaron con contenido de derecha menos radical tendían con el tiempo a interactuar con contenido más extremista, lo que, según los investigadores, proporciona evidencia de una " cadena de radicalización ". [2] [5] [6] [7]
Un estudio de 2020 publicado en The International Journal of Press/Politics sostuvo que el “consenso periodístico emergente” de que el algoritmo de YouTube radicaliza a los usuarios hacia la extrema derecha “es prematuro”. En cambio, el estudio propone un “marco de ‘ oferta y demanda ’ para analizar la política en YouTube”. [27]
Un estudio de 2021 publicado en Proceedings of the National Academy of Sciences no encontró "ninguna evidencia de que la interacción con contenido de extrema derecha sea causada por recomendaciones de YouTube de manera sistemática, ni encontramos evidencia clara de que los canales anti-woke sirvan como puerta de entrada a la extrema derecha ". En cambio, el estudio encontró que "el consumo de contenido político en YouTube parece reflejar preferencias individuales que se extienden a toda la web en su conjunto". [8] Un estudio de 2022 publicado por la City University of New York encontró que "existen pocas pruebas sistemáticas que respalden" la afirmación de que el algoritmo de YouTube radicaliza a los usuarios, y agregó que la exposición a opiniones extremistas "en YouTube está muy concentrada entre un pequeño grupo de personas con altos niveles previos de resentimiento racial y de género", y que "a los no suscriptores rara vez se les recomiendan videos de canales alternativos y extremistas y rara vez siguen dichas recomendaciones cuando se les ofrecen". [9]