stringtranslate.com

Radicalización algorítmica

La radicalización algorítmica es el concepto de que los algoritmos de recomendación en sitios de redes sociales populares como YouTube y Facebook conducen a los usuarios hacia contenido progresivamente más extremo con el tiempo, lo que los lleva a desarrollar opiniones políticas extremistas radicalizadas . Los algoritmos registran las interacciones de los usuarios, desde los "me gusta" y "no me gusta" hasta la cantidad de tiempo dedicado a las publicaciones, para generar un sinfín de medios destinados a mantener a los usuarios interesados. A través de los canales de la cámara de eco , el consumidor se ve impulsado a estar más polarizado a través de las preferencias en los medios y la autoconfirmación. [1] [2] [3] [4]

La radicalización algorítmica sigue siendo un fenómeno controvertido, ya que a menudo no es lo mejor para las empresas de redes sociales eliminar los canales de cámara de eco. [5] [6] Aunque las empresas de redes sociales han admitido la existencia de la radicalización algorítmica, aún no está claro cómo gestionarán cada una esta creciente amenaza.

Cámaras de eco de redes sociales y burbujas de filtro

Las plataformas de redes sociales aprenden los intereses y gustos del usuario para modificar sus experiencias en su feed y mantenerlos interesados ​​y desplazándose. Se forma una cámara de eco cuando los usuarios se topan con creencias que magnifican o refuerzan sus pensamientos y forman un grupo de usuarios con ideas afines en un sistema cerrado. [7] El problema con las cámaras de eco es que difunden información sin creencias contrarias y posiblemente pueden conducir a un sesgo de confirmación. Según una teoría de polarización grupal, una cámara de eco puede potencialmente llevar a usuarios y grupos hacia posiciones radicalizadas más extremas. [8] Según la Biblioteca Nacional de Medicina, "Los usuarios en línea tienden a preferir información que se adhiera a sus visiones del mundo, ignoran la información disidente y forman grupos polarizados en torno a narrativas compartidas. Además, cuando la polarización es alta, la información errónea prolifera rápidamente". [9]

Por sitio

Facebook

Los algoritmos de Facebook

El algoritmo de Facebook se centra en recomendar contenido que haga que el usuario quiera interactuar. Clasifican el contenido priorizando publicaciones populares de amigos, contenido viral y, a veces, contenido divisivo. Cada feed está personalizado según los intereses específicos del usuario, lo que a veces puede llevarlos a una cámara de eco de contenido problemático. [10] Los usuarios pueden encontrar su lista de intereses que utiliza el algoritmo yendo a la página "Sus preferencias de anuncios". Según un estudio de Pew Research, el 74% de los usuarios de Facebook no sabían que esa lista existía hasta que fueron dirigidos a esa página en el estudio. [11] También es relativamente común que Facebook asigne etiquetas políticas a sus usuarios. En los últimos años, [ ¿cuándo? ] Facebook ha comenzado a utilizar inteligencia artificial para cambiar el contenido que los usuarios ven en su feed y lo que se les recomienda. Un documento conocido como The Facebook Files ha revelado que su sistema de inteligencia artificial prioriza la participación del usuario sobre todo lo demás. Los archivos de Facebook también han demostrado que controlar los sistemas de inteligencia artificial ha resultado difícil de manejar. [12]

Las acusaciones de Facebook

En un memorando interno de agosto de 2019 filtrado en 2021, Facebook admitió que "la mecánica de nuestras plataformas no es neutral", [13] [14] y concluyó que para alcanzar los máximos beneficios, es necesaria la optimización de la participación. Para aumentar la participación, los algoritmos han descubierto que el odio, la desinformación y la política son fundamentales para la actividad de las aplicaciones. [15] Como se menciona en el memorando, "Cuanto más incendiario es el material, más mantiene a los usuarios interesados, más lo impulsa el algoritmo". [13] Según un estudio de 2018, "los rumores falsos se difunden más rápido y más ampliamente que la información verdadera... Descubrieron que las falsedades tienen un 70% más de probabilidades de ser retuiteadas en Twitter que la verdad, y llegan a sus primeras 1.500 personas seis veces más rápido. Esto El efecto es más pronunciado con las noticias políticas que con otras categorías". [dieciséis]

YouTube

algoritmo de youtube

YouTube existe desde 2005 y tiene más de 2.500 millones de usuarios mensuales. Los sistemas de descubrimiento de contenido de YouTube se centran en la actividad personal del usuario (visto, favoritos, me gusta) para dirigirlo al contenido recomendado. El algoritmo de YouTube es responsable de aproximadamente el 70% de los vídeos recomendados por los usuarios y de lo que impulsa a las personas a ver determinado contenido. [17] Según un nuevo estudio, los usuarios tienen poco poder para mantener los vídeos no solicitados fuera del contenido recomendado sugerido. Esto incluye vídeos sobre discursos de odio, transmisiones en vivo, etc. [17]

Las acusaciones de YouTube

YouTube ha sido identificada como una plataforma influyente para difundir contenido radicalizado. Se ha relacionado a Al-Qaeda y grupos extremistas similares con el uso de YouTube para videos de reclutamiento y con contactos con medios de comunicación internacionales. En un estudio de investigación publicado por el American Behavioral Scientist Journal, investigaron "si es posible identificar un conjunto de atributos que puedan ayudar a explicar parte del proceso de toma de decisiones del algoritmo de YouTube". [18] Los resultados del estudio mostraron que las recomendaciones del algoritmo de YouTube para contenido extremista tienen en cuenta la presencia de palabras clave radicales en el título de un vídeo. En febrero de 2023, en el caso González contra Google, la cuestión que nos ocupa es si Google, la empresa matriz de YouTube, está protegida o no de demandas que afirmen que los algoritmos del sitio ayudaron a terroristas a recomendar vídeos de ISIS a los usuarios. Se sabe que la sección 230 protege generalmente a las plataformas en línea de la responsabilidad civil por el contenido publicado por sus usuarios. [19]

Tik Tok

Algoritmos de tiktok

TikTok es una aplicación que recomienda videos a la 'Página Para ti' (FYP) de un usuario, lo que hace que la página de cada usuario sea diferente. Debido a la naturaleza del algoritmo detrás de la aplicación, el FYP de TikTok se ha vinculado a mostrar videos más explícitos y radicales a lo largo del tiempo en función de las interacciones previas de los usuarios en la aplicación. [20] Desde el inicio de TikTok, la aplicación ha sido analizada en busca de información errónea y discurso de odio, ya que esas formas de medios generalmente generan más interacciones con el algoritmo. [21]

A partir de 2022, el jefe de seguridad de EE. UU. de TikTok emitió una declaración de que "se eliminaron 81,518,334 videos en todo el mundo entre abril y junio por violar nuestras Pautas comunitarias o Términos de servicio" para reducir el discurso de odio, el acoso y la desinformación. [22]

Canalización alternativa a la derecha

Gráfico de interacciones entre personalidades, en su mayoría de derecha, en YouTube desde enero de 2017 hasta abril de 2018. Cada línea indica una aparición compartida en un vídeo de YouTube, lo que permite que las audiencias de una personalidad descubran otra. [23]

El oleoducto de la extrema derecha (también llamado la madriguera del conejo de la extrema derecha) es un modelo conceptual propuesto sobre la radicalización en Internet hacia el movimiento de extrema derecha . Describe un fenómeno en el que el consumo de contenido político provocativo de derecha , como ideas antifeministas o anti-SJW , aumenta gradualmente la exposición a la extrema derecha o políticas similares de extrema derecha . Postula que esta interacción se produce debido a la naturaleza interconectada de los comentaristas políticos y las comunidades en línea , lo que permite a los miembros de una audiencia o comunidad descubrir grupos más extremos. [23] [24] Este proceso se asocia más comúnmente y se ha documentado en la plataforma de videos YouTube , y se enfrenta en gran medida al método en el que los algoritmos en varias plataformas de redes sociales funcionan a través del proceso recomendando contenido que es similar a lo que los usuarios interactuar, pero puede llevar rápidamente a los usuarios a madrigueras de conejos. [24] [25] [26]

Muchos movimientos políticos se han asociado con el concepto del oleoducto. Se ha identificado que la red intelectual oscura , [24] el libertarismo , [27] el movimiento por los derechos de los hombres , [28] y el movimiento alt-lite [24] posiblemente introducen al público ideas de alt-right. Las audiencias que buscan y están dispuestas a aceptar contenido extremo de esta manera generalmente están formadas por hombres jóvenes, comúnmente aquellos que experimentan una soledad significativa y buscan pertenencia o significado. [29] En un intento por encontrar comunidad y pertenencia, los foros de mensajes que a menudo proliferan con comentarios sociales de extrema derecha, como 4chan y 8chan , han sido bien documentados por su importancia en el proceso de radicalización. [30]

El oleoducto de la extrema derecha puede ser un factor que contribuya al terrorismo interno . [31] [32] Muchas plataformas de redes sociales han reconocido este camino de radicalización y han tomado medidas para prevenirlo, incluida la eliminación de figuras extremistas y reglas contra el discurso de odio y la desinformación. [25] [29] Los movimientos de izquierda , como BreadTube , también se oponen al oleoducto de la extrema derecha y "buscan crear un 'oleoducto de izquierda' como contrafuerza al oleoducto de la extrema derecha". [33]

Los efectos del sesgo algorítmico de YouTube en la radicalización de los usuarios han sido replicados en un estudio, [24] [34] [35] [36] aunque otros dos estudios encontraron poca o ninguna evidencia de un proceso de radicalización. [25] [37] [38]

Autoradicalización

Una infografía de la campaña "Si ves algo, di algo" del Departamento de Seguridad Nacional de los Estados Unidos. La campaña es una iniciativa nacional para crear conciencia sobre el terrorismo local y los delitos relacionados con el terrorismo.

El Departamento de Justicia de Estados Unidos define el (auto)terrorismo del lobo solitario como "alguien que actúa solo en un ataque terrorista sin la ayuda o el estímulo de un gobierno o una organización terrorista". [39] A través de los medios sociales en Internet, el terrorismo del 'lobo solitario' ha ido en aumento, vinculado a la radicalización algorítmica. [40] A través de cámaras de resonancia en Internet, otros extremistas aceptaron y rápidamente adoptaron puntos de vista típicamente considerados radicales. [41] Estos puntos de vista son fomentados por foros, chats grupales y redes sociales para reforzar sus creencias. [42]

Referencias en medios

El dilema social

The Social Dilemma es un docudrama de 2020 sobre cómo los algoritmos detrás de las redes sociales permiten la adicción, al tiempo que poseen habilidades para manipular las opiniones, las emociones y el comportamiento de las personas para difundir teorías de conspiración y desinformación. La película utiliza repetidamente palabras de moda como "cámaras de eco" y "noticias falsas" para demostrar la manipulación psicológica en las redes sociales, lo que conduce a la manipulación política. En la película, Ben cae más profundamente en una adicción a las redes sociales cuando el algoritmo descubrió que su página de redes sociales tiene un 62,3% de posibilidades de interacción a largo plazo. Esto conduce a más videos en el feed recomendado para Ben y eventualmente se sumerge más en propaganda y teorías de conspiración, volviéndose más polarizado con cada video.

Soluciones posibles

Sección 230

En la Ley de Decencia en las Comunicaciones de 1996, el artículo 230 establece que "Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de cualquier información proporcionada por otro proveedor de contenido de información". [43] La sección 230 protege a los medios de responsabilidades o de ser demandados por contenido de terceros, como actividad ilegal de un usuario. [43] Sin embargo, este enfoque reduce el incentivo de una empresa para eliminar contenido dañino o información errónea. Esta laguna jurídica ha permitido a las empresas de redes sociales maximizar sus ganancias impulsando contenido radical sin riesgos legales. [44]

Ver también

Referencias

  1. ^ "¿Qué es una cámara de eco de redes sociales? | Escuela de Publicidad Stan Richards". publicidad.utexas.edu . 18 de noviembre de 2020 . Consultado el 2 de noviembre de 2022 .
  2. ^ "Los sitios web que sostienen a las personas influyentes de extrema derecha británicas". gato de campana . 24 de febrero de 2021 . Consultado el 10 de marzo de 2021 .
  3. ^ Camargo, Chico Q. (21 de enero de 2020). "Los algoritmos de YouTube pueden radicalizar a la gente, pero el verdadero problema es que no tenemos idea de cómo funcionan". La conversación . Consultado el 10 de marzo de 2021 .
  4. ^ Redacción de E&T (27 de mayo de 2020). "Facebook no actuó basándose en su propia evidencia de extremismo impulsado por algoritmos". eandt.theiet.org . Consultado el 10 de marzo de 2021 .
  5. ^ "¿Cómo pueden las empresas de redes sociales abordar el discurso de odio?". Conocimiento en Wharton . Consultado el 22 de noviembre de 2022 .
  6. ^ "Asociación de Internet: somos la voz de la economía de Internet. | Asociación de Internet". 17 de diciembre de 2021. Archivado desde el original el 17 de diciembre de 2021 . Consultado el 22 de noviembre de 2022 .
  7. ^ "¿Qué es una cámara de eco de redes sociales? | Escuela de Publicidad Stan Richards". publicidad.utexas.edu . 18 de noviembre de 2020 . Consultado el 12 de abril de 2023 .
  8. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele (2 de marzo de 2021). "El efecto cámara de eco en las redes sociales". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 118 (9): –2023301118. Código Bib : 2021PNAS..11823301C. doi : 10.1073/pnas.2023301118 . ISSN  0027-8424. PMC 7936330 . PMID  33622786. 
  9. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Starnini, Michele; Galeazzi, Alessandro; Quattrociocchi, Walter (14 de enero de 2021). "El efecto cámara de eco en las redes sociales". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 118 (9): e2023301118. Código Bib : 2021PNAS..11823301C. doi : 10.1073/pnas.2023301118 . ISSN  0027-8424. PMC 7936330 . PMID  33622786. 
  10. ^ Oremus, voluntad; Alcántara, Chris; Merrill, Jeremy; Galocha, Artur (26 de octubre de 2021). "Cómo Facebook da forma a tu feed". El Washington Post . Consultado el 12 de abril de 2023 .
  11. ^ Atske, Sara (16 de enero de 2019). "Algoritmos de Facebook y datos personales". Centro de investigación Pew: Internet, ciencia y tecnología . Consultado el 12 de abril de 2023 .
  12. ^ Korinek, Anton (8 de diciembre de 2021). "Por qué necesitamos una nueva agencia para regular la inteligencia artificial avanzada: lecciones sobre el control de la IA de los archivos de Facebook". Brookings . Consultado el 12 de abril de 2023 .
  13. ^ ab "Desinformación, radicalización y amplificación algorítmica: ¿qué medidas puede tomar el Congreso?". Sólo Seguridad . 7 de febrero de 2022 . Consultado el 2 de noviembre de 2022 .
  14. ^ Isaac, Mike (25 de octubre de 2021). "Facebook lucha con las funciones que solía definir las redes sociales". Los New York Times . ISSN  0362-4331 . Consultado el 2 de noviembre de 2022 .
  15. ^ Pequeña, Olivia (26 de marzo de 2021). "TikTok está incitando a los usuarios a seguir cuentas de extrema derecha". Los medios importan para Estados Unidos . Consultado el 2 de noviembre de 2022 .
  16. ^ "Estudio: Las noticias falsas se difunden más rápido que la verdad". MIT Sloan . Consultado el 2 de noviembre de 2022 .
  17. ^ ab "¿Odiabas ese video? El algoritmo de YouTube podría ofrecerte otro igual". Revisión de tecnología del MIT . Consultado el 11 de abril de 2023 .
  18. ^ Murthy, Dhiraj (1 de mayo de 2021). "Evaluación de la responsabilidad de la plataforma: contenido terrorista en YouTube". Científico estadounidense del comportamiento . 65 (6): 800–824. doi :10.1177/0002764221989774. S2CID  233449061 – vía JSTOR.
  19. ^ Root, Damon (abril de 2023). "Scotus considera el alcance de la sección 230". Razón . 54 (11): 8. ISSN  0048-6906.
  20. ^ "El algoritmo de TikTok lleva a los usuarios de videos transfóbicos a madrigueras de extrema derecha". Los medios importan para Estados Unidos . 5 de octubre de 2021 . Consultado el 22 de noviembre de 2022 .
  21. ^ Pequeña, Olivia (2 de abril de 2021). "Cuentas de teorías de conspiración aparentemente inofensivas en TikTok están impulsando propaganda de extrema derecha y TikTok está incitando a los usuarios a seguirlas". Los medios importan para Estados Unidos . Consultado el 22 de noviembre de 2022 .
  22. ^ "Nuestra continua lucha contra el odio y el acoso". Sala de redacción | Tik Tok . 16 de agosto de 2019 . Consultado el 22 de noviembre de 2022 .
  23. ^ ab Lewis, Rebecca (18 de septiembre de 2018). Influencia alternativa: difusión de la derecha reaccionaria en YouTube (Reporte). Datos y sociedad. Archivado desde el original el 25 de mayo de 2022 . Consultado el 14 de julio de 2022 .
  24. ^ abcde Ribeiro, Manoel Horta; Ottoni, Rafael; Oeste, Robert; Almeida, Virgílio AF; Meira, Wagner (27 de enero de 2020). "Auditando las vías de radicalización en YouTube". Actas de la Conferencia de 2020 sobre Equidad, Responsabilidad y Transparencia . págs. 131-141. doi : 10.1145/3351095.3372879 . ISBN 9781450369367. S2CID  201316434.
  25. ^ abc Ledwich, marca; Zaitsev, Anna (26 de febrero de 2020). "Extremismo algorítmico: examinando la madriguera de la radicalización de YouTube". Primer lunes . arXiv : 1912.11211 . doi : 10.5210/fm.v25i3.10419 . ISSN  1396-0466. S2CID  209460683. Archivado desde el original el 28 de octubre de 2022 . Consultado el 28 de octubre de 2022 .
  26. ^ "Investigación de Mozilla: el algoritmo de YouTube recomienda videos que violan las propias políticas de la plataforma". Fundación Mozilla . 7 de julio de 2021. Archivado desde el original el 25 de marzo de 2023 . Consultado el 25 de marzo de 2023 .
  27. ^ Hermansson, Patrik; Lorenzo, David; Mulhall, Joe; Murdoch, Simon (31 de enero de 2020). La extrema derecha internacional: ¿fascismo para el siglo XXI? Rutledge. págs. 57–58. ISBN 978-0-429-62709-5. Archivado desde el original el 25 de julio de 2023 . Consultado el 21 de septiembre de 2022 .
  28. ^ Mamié, Robin; Ribeiro, Manoel Horta; Oeste, Robert (2021). "¿Son las comunidades antifeministas puertas de entrada a la extrema derecha? Evidencia de Reddit y YouTube". WebSci '21: Actas de la 13.ª Conferencia de ciencia web de ACM 2021 . Nueva York: Asociación de Maquinaria de Computación. págs. 139-147. arXiv : 2102.12837 . doi :10.1145/3447535.3462504. ISBN 978-1-4503-8330-1. S2CID  232045966.
  29. ^ ab Roose, Kevin (8 de junio de 2019). "La creación de un radical de YouTube". Los New York Times . ISSN  0362-4331. Archivado desde el original el 17 de mayo de 2023 . Consultado el 26 de octubre de 2022 .
  30. ^ Hughes, Terwyn (26 de enero de 2021). "El oleoducto de la extrema derecha de Canadá". La paloma . Archivado desde el original el 25 de marzo de 2023 . Consultado el 25 de marzo de 2023 .
  31. ^ Piazza, James A. (2 de enero de 2022). "Noticias falsas: los efectos de la desinformación de las redes sociales sobre el terrorismo interno". Dinámica del conflicto asimétrico . 15 (1): 55–77. doi :10.1080/17467586.2021.1895263. ISSN  1746-7586. S2CID  233679934. Archivado desde el original el 25 de julio de 2023 . Consultado el 4 de noviembre de 2022 .
  32. ^ Munn, Luke (1 de junio de 2019). "Oleoducto de extrema derecha: viajes individuales hacia el extremismo en línea". Primer lunes . doi :10.5210/fm.v24i6.10108. ISSN  1396-0466. S2CID  184483249. Archivado desde el original el 24 de mayo de 2022 . Consultado el 14 de julio de 2022 .
  33. ^ Cotter, Kelley (18 de marzo de 2022). "Conocimientos prácticos de algoritmos: El caso de BreadTube". Nuevos medios y sociedad . doi : 10.1177/14614448221081802 . ISSN  1461-4448. S2CID  247560346.
  34. ^ Lomas, Natasha (28 de enero de 2020). "Un estudio de los comentarios de YouTube encuentra evidencia de un efecto de radicalización". TechCrunch . Consultado el 17 de julio de 2021 .
  35. ^ Newton, Casey (28 de agosto de 2019). "Con el tiempo, YouTube puede impulsar a los usuarios a adoptar opiniones más radicales, sostiene un nuevo artículo". El borde . Consultado el 17 de julio de 2021 .
  36. ^ Ribeiro, Manoel Horta; Ottoni, Rafael; Oeste, Robert; Almeida, Virgílio AF; Meira, Wagner (22 de agosto de 2019). "Auditoría de las vías de radicalización en YouTube". arXiv : 1908.08313 [cs.CY].
  37. ^ Hosseinmardi, Homa; Gasemian, Amir; Clauset, Aarón; Móbius, Markus; Rothschild, David M.; Watts, Duncan J. (2 de agosto de 2021). "Examinando el consumo de contenidos radicales en You Tube". Procedimientos de la Academia Nacional de Ciencias . 118 (32). arXiv : 2011.12843 . Código Bib : 2021PNAS..11801967H. doi : 10.1073/pnas.2101967118 . PMC 8364190 . PMID  34341121. 
  38. ^ * Chen, Annie Y.; Nyhan, Brendan; Reifler, Jason; Robertson, Ronald E.; Wilson, Christo (22 de abril de 2022). "Las suscripciones y los enlaces externos ayudan a llevar a los usuarios resentidos a vídeos de YouTube alternativos y extremistas". arXiv : 2204.10921 [cs.SI].
    • Wolfe, Liz (26 de abril de 2022). "Los algoritmos de YouTube no convierten a masas desprevenidas en extremistas, sugiere un nuevo estudio / Un nuevo estudio arroja dudas sobre las teorías más destacadas sobre el extremismo por algoritmo". Razón . Archivado desde el original el 26 de abril de 2022.
  39. ^ "Terrorismo del lobo solitario en Estados Unidos | Oficina de Programas de Justicia". www.ojp.gov . Consultado el 2 de noviembre de 2022 .
  40. ^ Alfano, Marcos; Carter, J. Adam; Cheong, Marc (2018). "Seducción tecnológica y autorradicalización". Revista de la Asociación Filosófica Estadounidense . 4 (3): 298–322. doi :10.1017/apa.2018.27. ISSN  2053-4477. S2CID  150119516.
  41. ^ Dubois, Isabel; Blank, Grant (4 de mayo de 2018). "La cámara de resonancia está exagerada: el efecto moderador del interés político y los medios diversos". Información, Comunicación y Sociedad . 21 (5): 729–745. doi : 10.1080/1369118X.2018.1428656 . ISSN  1369-118X. S2CID  149369522.
  42. ^ Sunstein, Cass R. (13 de mayo de 2009). Llegar a los extremos: cómo se unen y dividen mentes similares. Prensa de la Universidad de Oxford. ISBN 978-0-19-979314-3.
  43. ^ ab "47 Código de EE. UU. § 230 - Protección para el bloqueo privado y la detección de material ofensivo". LII / Instituto de Información Jurídica . Consultado el 2 de noviembre de 2022 .
  44. ^ Smith, Michael D.; Alstyne, Marshall Van (12 de agosto de 2021). "Es hora de actualizar la sección 230". Revisión de negocios de Harvard . ISSN  0017-8012 . Consultado el 2 de noviembre de 2022 .