stringtranslate.com

Oleoducto de extrema derecha

Gráfico de interacciones entre personalidades mayoritariamente de derecha en YouTube desde enero de 2017 hasta abril de 2018. Cada línea indica una aparición compartida en un video de YouTube, lo que permite que el público de una personalidad descubra a otra. [1]

El alt-right pipeline (también llamado alt-right rabbit hole ) es un modelo conceptual propuesto sobre la radicalización de Internet hacia el movimiento alt-right . Describe un fenómeno en el que el consumo de contenido político provocativo de derecha , como ideas antifeministas o anti-SJW , aumenta gradualmente la exposición a la alt-right o políticas de extrema derecha similares . Postula que esta interacción tiene lugar debido a la naturaleza interconectada de los comentaristas políticos y las comunidades en línea , lo que permite a los miembros de una audiencia o comunidad descubrir grupos más extremistas. [1] [2] Este proceso se asocia más comúnmente con y ha sido documentado en la plataforma de video YouTube , y está en gran medida facetado por el método en el que los algoritmos en varias plataformas de redes sociales funcionan a través del proceso de recomendar contenido que es similar a lo que los usuarios interactúan, pero puede llevar rápidamente a los usuarios por madrigueras de conejo. [2] [3] [4] Los efectos del sesgo algorítmico de YouTube en la radicalización de los usuarios han sido replicados por un estudio, [2] [5] [6] [7] aunque otros dos estudios encontraron poca o ninguna evidencia de un proceso de radicalización. [3] [8] [9]

Muchos movimientos políticos se han asociado con el concepto de pipeline. La red oscura intelectual , [2] el libertarismo , [10] el movimiento por los derechos de los hombres , [11] y el movimiento alt-lite [2] han sido identificados como posibles introductores a las audiencias a las ideas de la alt-right. Las audiencias que buscan y están dispuestas a aceptar contenido extremo de esta manera generalmente consisten en hombres jóvenes, comúnmente aquellos que experimentan una soledad significativa y buscan pertenencia o significado. [12]

El flujo de radicalización de la extrema derecha puede ser un factor que contribuya al terrorismo interno . [13] [14] Muchas plataformas de redes sociales han reconocido esta vía de radicalización y han tomado medidas para prevenirla, incluida la eliminación de figuras extremistas y normas contra el discurso de odio y la desinformación. [3] [12] Los movimientos de izquierda , como BreadTube , también se oponen al flujo de radicalización de la extrema derecha y "tratan de crear un 'flujo de izquierda' como contrafuerza al flujo de radicalización de la extrema derecha". [15]

Proceso

El uso de Internet permite a las personas con creencias heterodoxas alterar su entorno, lo que a su vez tiene efectos transformadores en el usuario. La influencia de fuentes externas como Internet puede ser gradual, de modo que el individuo no es consciente inmediatamente de su comprensión o entorno cambiantes. Los miembros de la extrema derecha se refieren a este proceso de radicalización como "tomar la píldora roja " en referencia al método de lograr inmediatamente una mayor conciencia en Matrix . Esto contrasta con la naturaleza gradual de la radicalización descrita por el canal de la extrema derecha. [14] [16] Muchos en la extrema derecha reconocen el potencial de este método de radicalización y comparten activamente contenido de derecha con la intención de radicalizar gradualmente a quienes los rodean. El uso de imágenes o humor racistas puede ser utilizado por estos individuos bajo el disfraz de ironía o falta de sinceridad para hacer que las ideas de la extrema derecha sean palpables y aceptables para audiencias más nuevas. La naturaleza de los memes de Internet significa que pueden recrearse fácilmente y difundirse a muchas comunidades de Internet diferentes. [16] [17]

YouTube ha sido identificado como un elemento importante en el flujo de la alt-right. Esto se facilita a través de una "Red de Influencia Alternativa", en la que varios académicos, expertos y personalidades de Internet de derecha interactúan entre sí para mejorar el rendimiento de su contenido. Estas figuras pueden variar en sus ideologías entre el conservadurismo , el libertarismo o el nacionalismo blanco , pero comparten una oposición común al feminismo , el progresismo y la justicia social que permite a los espectadores de una figura aclimatarse rápidamente a otra. [1] A menudo priorizan los problemas sociales de derecha sobre los problemas económicos de derecha, con poca discusión sobre el conservadurismo fiscal . Algunas personas en esta red pueden no interactuar entre sí, pero una colección de entrevistas, debates en Internet y otras interacciones crean vías para que los usuarios conozcan nuevo contenido. [2]

El sistema algorítmico de YouTube para recomendar videos permite a los usuarios acceder rápidamente a contenido similar al que han visto anteriormente, lo que les permite explorar más profundamente una idea una vez que han expresado interés. Esto permite que las audiencias más nuevas estén expuestas a contenido extremo cuando los videos que promueven la desinformación y las teorías de la conspiración ganan fuerza. [14] [12] Cuando un usuario está expuesto a cierto contenido que presenta ciertos temas políticos o cuestiones de guerra cultural , este sistema de recomendación puede llevar a los usuarios a diferentes ideas o temas, incluida la islamofobia , la oposición a la inmigración , el antifeminismo o las tasas de reproducción . [14] [18] El contenido recomendado a menudo está algo relacionado, lo que crea un efecto de radicalización gradual entre múltiples temas, conocido como canalización. [14]

En ocasiones, la plataforma también recomendará estos vídeos a usuarios que no habían indicado interés en estos puntos de vista. [4] [18] La radicalización también tiene lugar en interacciones con otros usuarios radicalizados en línea, en diversas plataformas como Gab , Reddit , 4chan o Discord . [14] Las personalidades principales de esta cadena suelen tener presencia en Facebook y Twitter , aunque YouTube suele ser su plataforma principal para enviar mensajes y obtener ingresos. [12]

El canal de la alt-right se dirige principalmente a los hombres blancos enojados , incluidos aquellos que se identifican como incels , lo que refleja la misoginia de la alt-right. Harvard Political Review ha descrito este proceso como la "explotación de la misoginia latente y la frustración sexual a través de un 'vínculo masculino' que salió terriblemente mal". El canal también se dirige a las personas con dudas sobre sí mismas . [19]

Contenido

Se ha descubierto que el proceso de formación de la alt-right comienza con la comunidad intelectual de la dark web , que está formada por personalidades de Internet unificadas por una oposición a la política de identidad y la corrección política , como Joe Rogan , Ben Shapiro , Dave Rubin y Jordan Peterson . [2] La comunidad intelectual de la dark web se superpone e interactúa con la comunidad alt-lite , como Steven Crowder , Paul Joseph Watson , Mark Dice y Sargon of Akkad . [2] Esta comunidad, a su vez, se superpone e interactúa con la comunidad alt-right, como James Allsup , Black Pigeon Speaks, Varg Vikernes y Red Ice . [2] El punto final más extremo a menudo implica el fascismo o la creencia en una conspiración judía internacional , [16] aunque la gravedad del extremismo puede variar entre individuos. [12]

El contenido de la extrema derecha en Internet difunde una ideología similar a la de los movimientos supremacistas blancos y fascistas anteriores. Internet presenta la ideología de manera diferente, a menudo de una manera más aceptable y, por lo tanto, más exitosa a la hora de hacerla llegar a un mayor número de personas. [20] Debido a la naturaleza conservadora de la extrema derecha, gran parte de la ideología está asociada con la preservación de los valores y formas de vida tradicionales. Esto crea una susceptibilidad hacia las teorías conspirativas sobre fuerzas secretas que buscan destruir las formas de vida tradicionales. [21]

La antifeminista Manosfera ha sido identificada como otro punto inicial en el camino de la alt-right. [11] El movimiento por los derechos de los hombres a menudo discute los problemas de los hombres de manera más visible que otros grupos, atrayendo a hombres jóvenes con interés en tales temas cuando no hay otra alternativa disponible. Muchas personalidades de Internet de derecha han desarrollado un método para expandir sus audiencias comentando en los medios populares; los videos que critican películas o videojuegos por apoyar ideas de izquierda tienen más probabilidades de atraer a los fanáticos de las respectivas franquicias. [12]

El formato presentado por YouTube ha permitido que diversas ideologías accedan a nuevas audiencias a través de este medio. [12] El mismo proceso también se ha utilizado para facilitar el acceso a la política anticapitalista a través de la comunidad de Internet BreadTube . Esta comunidad se desarrolló mediante el uso de este proceso de canalización para presentar a los usuarios contenido de izquierda y mitigar la exposición al contenido de derecha, [12] [15] aunque se ha descubierto que el proceso de canalización es menos efectivo para la política de izquierda debido a la mayor variedad de grupos de izquierda opuestos que limita la interacción y la superposición. [15] Esta dicotomía también puede causar una " polarización de latigazo " en la que los individuos se convierten entre la política de extrema derecha y la de extrema izquierda. [12]

Factores psicológicos

Los factores psicológicos de la radicalización a través del canal de la alt-right son similares a otras formas de radicalización, incluyendo la normalización , la aclimatación y la deshumanización . La normalización implica la trivialización de la retórica racista y antisemita. Las personas que se encuentran al principio del canal de la alt-right no adoptarán voluntariamente dicha retórica, sino que la adoptarán bajo la apariencia de humor negro , lo que hará que sea menos impactante con el tiempo. [14] Esto a veces puede ser diseñado intencionalmente por miembros de la alt-right para hacer que sus creencias sean más aceptables y proporcionar una negación plausible para las creencias extremas . [16] [17] La ​​aclimatación es el proceso de estar condicionado a ver contenido intolerante. Al aclimatarse a contenido controvertido, las personas se vuelven más abiertas a contenido ligeramente más extremo. Con el tiempo, las figuras conservadoras parecen demasiado moderadas y los usuarios buscan voces más extremistas. La deshumanización es el paso final del proceso de la extrema derecha, donde las minorías son vistas como inferiores o indignas de la vida y se utiliza un lenguaje deshumanizador para referirse a las personas que no están de acuerdo con las creencias de extrema derecha . [14]

El proceso se asocia con hombres jóvenes que experimentan soledad, falta de sentido o falta de pertenencia. [12] Una apertura a puntos de vista impopulares es necesaria para que las personas acepten creencias asociadas con el proceso de formación de la derecha alternativa. Se ha asociado con el contrarianismo, en el que un individuo utiliza el supuesto de trabajo de que las visiones del mundo de la mayoría de las personas son completamente erróneas. A partir de este supuesto, las personas son más propensas a adoptar creencias que son impopulares o marginales. Esto hace efectivos varios puntos de entrada al proceso de formación de la derecha alternativa, como el libertarismo, en el que las ideologías atraen a individuos con rasgos que los hacen susceptibles a la radicalización cuando se exponen a otras ideas marginales. [10] La motivación para buscar estas comunidades varía, ya que algunas personas las encuentran por casualidad, mientras que otras las buscan. El interés por los videojuegos está asociado con las primeras etapas del proceso de formación de la derecha alternativa. [12]

Junto con los algoritmos, las comunidades en línea también pueden desempeñar un papel importante en la radicalización . Las personas con ideologías marginales y radicales pueden conocer a otras personas que comparten, validan y refuerzan esas ideologías. Debido a que las personas pueden controlar con quién y con qué interactúan en línea, pueden evitar escuchar cualquier opinión o idea que entre en conflicto con sus creencias previas. Esto crea una cámara de resonancia que sostiene y refuerza las creencias radicales. El fuerte sentido de comunidad y pertenencia que conlleva es un factor importante que contribuye a que las personas se unan a la extrema derecha y la adopten como identidad. [22]

Preocupaciones y prevención

La radicalización en Internet se correlaciona con un aumento de los ataques de lobos solitarios y el terrorismo doméstico . [13] [23] El conducto de la alt-right se ha asociado con los tiroteos en la mezquita de Christchurch , en el que un extremista de extrema derecha mató a 51 fieles musulmanes en Christchurch , que atribuyó directamente a Internet la formación de sus creencias en su manifiesto. [14] [24] La naturaleza informal de la radicalización a través del conducto de la alt-right permite que la radicalización ocurra a nivel individual, y los individuos radicalizados pueden vivir vidas normales fuera de línea. Esto ha complicado los esfuerzos de los expertos para rastrear el extremismo y predecir actos de terrorismo doméstico, ya que no hay una forma confiable de determinar quién se ha radicalizado o si está planeando llevar a cabo violencia política. [14] [25] Las campañas de acoso contra los oponentes percibidos del movimiento de la alt-right son otro efecto común de la radicalización. [14]

Muchas plataformas de redes sociales han reconocido el potencial de radicalización y han implementado medidas para limitar su prevalencia. Se ha prohibido el acceso a comentaristas extremistas de alto perfil como Alex Jones en varias plataformas, y las plataformas suelen tener reglas contra el discurso de odio y la desinformación. [12] En 2019, YouTube anunció un cambio en su algoritmo de recomendaciones para reducir el contenido relacionado con teorías de la conspiración. [12] [18] Algunos contenidos extremos, como las representaciones explícitas de violencia, suelen eliminarse en la mayoría de las plataformas de redes sociales. En YouTube, el contenido que expresa apoyo al extremismo puede tener funciones de monetización eliminadas, puede estar marcado para su revisión o puede tener los comentarios públicos de los usuarios deshabilitados. [3]

Estudios

Un estudio de septiembre de 2018 publicado por el Data & Society Research Institute descubrió que 65 influencers políticos de derecha usan el motor de recomendaciones de YouTube (en conjunto con técnicas convencionales de construcción de marca, como el marketing cruzado entre influencers similares) para atraer seguidores y radicalizar a sus espectadores en una ideología de derecha particular. [26] Un estudio de agosto de 2019 realizado por la Universidade Federal de Minas Gerais y la École polytechnique fédérale de Lausanne , y presentado en la Conferencia ACM sobre Equidad, Responsabilidad y Transparencia 2020 utilizó información de la investigación anterior de Data & Society y la Liga Antidifamación (ADL) para categorizar los niveles de extremismo de 360 ​​canales de YouTube. El estudio también hizo un seguimiento de los usuarios durante un período de 11 años analizando 72 millones de comentarios, 2 millones de recomendaciones de videos y 10 000 recomendaciones de canales. El estudio encontró que los usuarios que interactuaron con contenido de derecha menos radical tendían con el tiempo a interactuar con contenido más extremista, lo que, según los investigadores, proporciona evidencia de una " cadena de radicalización ". [2] [5] [6] [7]

Un estudio de 2020 publicado en The International Journal of Press/Politics sostuvo que el “consenso periodístico emergente” de que el algoritmo de YouTube radicaliza a los usuarios hacia la extrema derecha “es prematuro”. En cambio, el estudio propone un “marco de ‘ oferta y demanda ’ para analizar la política en YouTube”. [27]

Un estudio de 2021 publicado en Proceedings of the National Academy of Sciences no encontró "ninguna evidencia de que la interacción con contenido de extrema derecha sea causada por recomendaciones de YouTube de manera sistemática, ni encontramos evidencia clara de que los canales anti-woke sirvan como puerta de entrada a la extrema derecha ". En cambio, el estudio encontró que "el consumo de contenido político en YouTube parece reflejar preferencias individuales que se extienden a toda la web en su conjunto". [8] Un estudio de 2022 publicado por la City University of New York encontró que "existen pocas pruebas sistemáticas que respalden" la afirmación de que el algoritmo de YouTube radicaliza a los usuarios, y agregó que la exposición a opiniones extremistas "en YouTube está muy concentrada entre un pequeño grupo de personas con altos niveles previos de resentimiento racial y de género", y que "a los no suscriptores rara vez se les recomiendan videos de canales alternativos y extremistas y rara vez siguen dichas recomendaciones cuando se les ofrecen". [9]

Véase también

Referencias

  1. ^ abc Lewis, Rebecca (18 de septiembre de 2018). Alternative Influence: Broadcasting the Reactionary Right on YouTube (Informe). Datos y sociedad. Archivado desde el original el 25 de mayo de 2022. Consultado el 14 de julio de 2022 .
  2. ^ abcdefghij Horta Ribeiro, Manoel; Ottoni, Raphael; West, Robert; Almeida, Virgílio AF; Meira, Wagner (27 de enero de 2020). "Auditoría de las vías de radicalización en YouTube". Actas de la Conferencia de 2020 sobre Equidad, Responsabilidad y Transparencia . págs. 131–141. doi : 10.1145/3351095.3372879 . ISBN 9781450369367. Número de identificación del sujeto  201316434.
  3. ^ abcd Ledwich, Mark; Zaitsev, Anna (26 de febrero de 2020). «Extremismo algorítmico: Examinando la madriguera de radicalización de YouTube». First Monday . arXiv : 1912.11211 . doi : 10.5210/fm.v25i3.10419 . ISSN  1396-0466. S2CID  209460683. Archivado desde el original el 28 de octubre de 2022 . Consultado el 28 de octubre de 2022 .
  4. ^ ab «Investigación de Mozilla: el algoritmo de YouTube recomienda vídeos que violan las propias políticas de la plataforma». Fundación Mozilla . 7 de julio de 2021. Archivado desde el original el 25 de marzo de 2023. Consultado el 25 de marzo de 2023 .
  5. ^ ab Lomas, Natasha (28 de enero de 2020). «Estudio de comentarios de YouTube encuentra evidencia de efecto de radicalización». TechCrunch . Consultado el 17 de julio de 2021 .
  6. ^ ab Newton, Casey (28 de agosto de 2019). «YouTube puede impulsar a los usuarios a adoptar puntos de vista más radicales con el tiempo, según sostiene un nuevo artículo». The Verge . Archivado desde el original el 27 de julio de 2023. Consultado el 17 de julio de 2021 .
  7. ^ ab Horta Ribeiro, Manoel; Ottoni, Rafael; Oeste, Robert; Almeida, Virgílio AF; Meira, Wagner (22 de agosto de 2019). "Auditoría de las vías de radicalización en YouTube". arXiv : 1908.08313 [cs.CY].
  8. ^ ab Hosseinmardi, Homa; Ghasemian, Amir; Clauset, Aaron; Mobius, Markus; Rothschild, David M.; Watts, Duncan J. (2 de agosto de 2021). "Examinando el consumo de contenido radical en YouTube". Actas de la Academia Nacional de Ciencias . 118 (32). arXiv : 2011.12843 . Bibcode :2021PNAS..11801967H. doi : 10.1073/pnas.2101967118 . PMC 8364190 . PMID  34341121. 
  9. ^ ab * Chen, Annie Y.; Nyhan, Brendan; Reifler, Jason; Robertson, Ronald E.; Wilson, Christo (22 de abril de 2022). "Las suscripciones y los enlaces externos ayudan a llevar a los usuarios resentidos a vídeos alternativos y extremistas de YouTube". arXiv : 2204.10921 [cs.SI].
    • Wolfe, Liz (26 de abril de 2022). «Los algoritmos de YouTube no convierten a las masas desprevenidas en extremistas, sugiere un nuevo estudio / Un nuevo estudio pone en duda las teorías más destacadas sobre el extremismo a través de algoritmos». Reason . Archivado desde el original el 26 de abril de 2022.
  10. ^ ab Hermansson, Patrik; Lawrence, David; Mulhall, Joe; Murdoch, Simon (31 de enero de 2020). La extrema derecha internacional: ¿fascismo para el siglo XXI?. Routledge. pp. 57–58. ISBN 978-0-429-62709-5Archivado desde el original el 25 de julio de 2023 . Consultado el 21 de septiembre de 2022 .
  11. ^ ab Mamié, Robin; Ribeiro, Manoel Horta; West, Robert (2021). "¿Son las comunidades antifeministas puertas de entrada a la extrema derecha? Evidencia de Reddit y YouTube". WebSci '21: Actas de la 13.ª Conferencia de Ciencia Web de la ACM 2021. Nueva York: Association for Computing Machinery. págs. 139–147. arXiv : 2102.12837 . doi :10.1145/3447535.3462504. ISBN 978-1-4503-8330-1.S2CID232045966  .​
  12. ^ abcdefghijklm Roose, Kevin (8 de junio de 2019). «The Making of a YouTube Radical». The New York Times . ISSN  0362-4331. Archivado desde el original el 17 de mayo de 2023. Consultado el 26 de octubre de 2022 .
  13. ^ ab Piazza, James A. (2 de enero de 2022). «Noticias falsas: los efectos de la desinformación en las redes sociales sobre el terrorismo doméstico». Dinámica del conflicto asimétrico . 15 (1): 55–77. doi :10.1080/17467586.2021.1895263. ISSN  1746-7586. S2CID  233679934. Archivado desde el original el 25 de julio de 2023. Consultado el 4 de noviembre de 2022 .
  14. ^ abcdefghijk Munn, Luke (1 de junio de 2019). «Alt-right pipeline: Individual journeys to extremism online» (La tubería de la derecha alternativa: recorridos individuales hacia el extremismo en línea). First Monday (Primer lunes ). doi : 10.5210/fm.v24i6.10108 . ISSN:  1396-0466. S2CID:  184483249. Archivado desde el original el 24 de mayo de 2022. Consultado el 14 de julio de 2022 .
  15. ^ abc Cotter, Kelley (18 de marzo de 2022). «Conocimiento práctico de algoritmos: el caso de BreadTube». Nuevos medios y sociedad . 26 (4): 2131–2150. doi : 10.1177/14614448221081802 . ISSN  1461-4448. S2CID  247560346.
  16. ^ abcd Evans, Robert (11 de octubre de 2018). «From Memes to Infowars: How 75 Fascist Activists Were "Red-Pilled"» (De los memes a las guerras de la información: cómo 75 activistas fascistas fueron "red-pilled")». Bellingcat . Archivado desde el original el 21 de noviembre de 2018. Consultado el 27 de octubre de 2022 .
  17. ^ ab Wilson, Jason (23 de mayo de 2017). «Escondiéndose a plena vista: cómo la 'alt-right' está utilizando la ironía como arma para propagar el fascismo». The Guardian . Archivado desde el original el 28 de octubre de 2022. Consultado el 28 de octubre de 2022 .
  18. ^ abc Bennhold, Katrin; Fisher, Max (7 de septiembre de 2018). «Mientras los alemanes buscan noticias, YouTube ofrece diatribas de extrema derecha». The New York Times . Archivado desde el original el 14 de marzo de 2023. Consultado el 25 de marzo de 2023 .
  19. ^ Scully, Aidan (10 de octubre de 2021). «La peligrosa sutileza del oleoducto de la Alt-Right». Harvard Political Review . Archivado desde el original el 27 de julio de 2023. Consultado el 27 de julio de 2023 .
  20. ^ Daniels, Jessie (2018). "El ascenso algorítmico de la "derecha alternativa"". Contextos . 17 (1): 60–65. doi : 10.1177/1536504218766547 . ISSN  1536-5042. S2CID  196005328.
  21. ^ Wilson, Andrew (16 de febrero de 2018). «#whitegenocide, la Alt-right y la teoría de la conspiración: cómo el secreto y la sospecha contribuyeron a la generalización del odio». Secreto y sociedad . 1 (2). doi : 10.31979/2377-6188.2018.010201 . ISSN  2377-6188. Archivado desde el original el 30 de mayo de 2023 . Consultado el 7 de mayo de 2023 .
  22. ^ Alfano, Mark; Carter, J. Adam; Cheong, Marc (2018). "Seducción tecnológica y autorradicalización". Revista de la Asociación Filosófica Americana . 4 (3): 298–322. doi :10.1017/apa.2018.27. ISSN  2053-4477. S2CID  150119516. Archivado desde el original el 12 de diciembre de 2022. Consultado el 7 de mayo de 2023 .
  23. ^ Hunter, Lance Y.; Griffith, Candace E.; Warren, Thomas (3 de mayo de 2020). «Conectividad a Internet y terrorismo doméstico en las democracias». Revista Internacional de Sociología . 50 (3): 201–219. doi :10.1080/00207659.2020.1757297. ISSN  0020-7659. S2CID  219059064. Archivado desde el original el 25 de julio de 2023 . Consultado el 4 de noviembre de 2022 .
  24. ^ Veilleux-Lepage, Yannick; Daymon, Chelsea; Amarasingam, Amarnath (2020). El informe sobre el ataque de Christchurch: conclusiones clave sobre la radicalización de Tarrant y la planificación de los ataques (PDF) (Informe). Centro Internacional para la Lucha contra el Terrorismo. Archivado desde el original (PDF) el 4 de noviembre de 2022. Consultado el 4 de noviembre de 2022 .
  25. ^ Mølmen, Guri Nordtorp; Ravndal, Jacob Aasland (30 de octubre de 2021). "Mecanismos de radicalización en línea: cómo afecta Internet a la radicalización de los terroristas solitarios de extrema derecha". Ciencias del comportamiento del terrorismo y la agresión política . 15 (4): 463–487. doi :10.1080/19434472.2021.1993302. hdl : 10852/93317 . ISSN  1943-4472. S2CID  240343107.
  26. ^ Ingram, Mathew (19 de septiembre de 2018). «La vida secreta de YouTube como motor de la radicalización de derechas». Columbia Journalism Review . Archivado desde el original el 23 de septiembre de 2018.
  27. ^ Munger, Kevin; Phillips, Joseph (2020). «YouTube de derecha: una perspectiva de oferta y demanda». Revista Internacional de Prensa/Política . 27 (1): 186–219. doi :10.1177/1940161220964767. ISSN  1940-1612. S2CID  226339609. Archivado desde el original el 13 de octubre de 2022 . Consultado el 28 de octubre de 2022 .