stringtranslate.com

Radicalización algorítmica

La radicalización algorítmica es el concepto de que los algoritmos de recomendación en sitios de redes sociales populares como YouTube y Facebook llevan a los usuarios hacia contenido cada vez más extremo con el tiempo, lo que los lleva a desarrollar opiniones políticas extremistas radicalizadas . Los algoritmos registran las interacciones de los usuarios, desde los me gusta/no me gusta hasta la cantidad de tiempo dedicado a las publicaciones, para generar un sinfín de medios destinados a mantener a los usuarios interesados. A través de canales de cámara de eco , el consumidor se ve impulsado a estar más polarizado a través de las preferencias en los medios y la autoconfirmación. [1] [2] [3] [4]

La radicalización algorítmica sigue siendo un fenómeno controvertido, ya que a menudo no es lo mejor para las empresas de redes sociales eliminar los canales de cámara de eco. [5] [6] Hasta qué punto los algoritmos de recomendación son realmente responsables de la radicalización sigue siendo controvertido; los estudios han encontrado resultados contradictorios en cuanto a si los algoritmos han promovido contenido extremista.

Cámaras de eco y burbujas de filtros en las redes sociales

Las plataformas de redes sociales aprenden los intereses y gustos del usuario para modificar sus experiencias en su feed y mantenerlos interesados ​​y desplazándose, lo que se conoce como burbuja de filtro . [7] Una cámara de eco se forma cuando los usuarios se encuentran con creencias que magnifican o refuerzan sus pensamientos y forman un grupo de usuarios con ideas afines en un sistema cerrado. [8] Las cámaras de eco difunden información sin ninguna creencia opuesta y posiblemente pueden conducir a un sesgo de confirmación . Según la teoría de polarización grupal , una cámara de eco puede potencialmente llevar a los usuarios y grupos hacia posiciones radicalizadas más extremas. [9] Según la Biblioteca Nacional de Medicina, "Los usuarios en línea tienden a preferir la información que se adhiere a sus visiones del mundo, ignoran la información disidente y forman grupos polarizados en torno a narrativas compartidas. Además, cuando la polarización es alta, la desinformación prolifera rápidamente". [10]

Por sitio

Facebook

Los algoritmos de Facebook

El algoritmo de Facebook se centra en recomendar contenido que haga que el usuario quiera interactuar. Clasifican el contenido priorizando las publicaciones populares de los amigos, el contenido viral y, a veces, el contenido divisivo. Cada feed está personalizado según los intereses específicos del usuario, lo que a veces puede llevar a los usuarios a una cámara de eco de contenido problemático. [11] Los usuarios pueden encontrar su lista de intereses que utiliza el algoritmo yendo a la página "Sus preferencias de anuncios". Según un estudio de Pew Research, el 74% de los usuarios de Facebook no sabían que existía esa lista hasta que fueron dirigidos a esa página en el estudio. [12] También es relativamente común que Facebook asigne etiquetas políticas a sus usuarios. En los últimos años, [ ¿cuándo? ] Facebook ha comenzado a utilizar inteligencia artificial para cambiar el contenido que los usuarios ven en su feed y lo que se les recomienda. Un documento conocido como The Facebook Files ha revelado que su sistema de IA prioriza la participación del usuario sobre todo lo demás. The Facebook Files también ha demostrado que controlar los sistemas de IA ha resultado difícil de manejar. [13]

Las acusaciones de Facebook

En un memorando interno de agosto de 2019 filtrado en 2021, Facebook admitió que "la mecánica de nuestras plataformas no es neutral", [14] [15] y concluyó que para alcanzar las máximas ganancias es necesaria la optimización de la interacción. Para aumentar la interacción, los algoritmos han descubierto que el odio, la desinformación y la política son fundamentales para la actividad de la aplicación. [16] Como se hace referencia en el memorando, "cuanto más incendiario sea el material, más mantiene a los usuarios interesados ​​y más lo impulsa el algoritmo". [14] Según un estudio de 2018, "los rumores falsos se difunden más rápido y más ampliamente que la información verdadera... Descubrieron que las falsedades tienen un 70% más de probabilidades de ser retuiteadas en Twitter que la verdad, y llegan a sus primeras 1.500 personas seis veces más rápido. Este efecto es más pronunciado con las noticias políticas que con otras categorías". [17]

YouTube

El algoritmo de YouTube

YouTube existe desde 2005 y cuenta con más de 2500 millones de usuarios mensuales. Los sistemas de descubrimiento de contenido de YouTube se centran en la actividad personal del usuario (vídeos, favoritos, me gusta) para dirigirlo al contenido recomendado. El algoritmo de YouTube es responsable de aproximadamente el 70% de los vídeos recomendados por los usuarios y de lo que motiva a las personas a ver determinado contenido. [18] Según un nuevo estudio, los usuarios tienen poco poder para mantener los vídeos no solicitados fuera de su contenido recomendado sugerido. Esto incluye vídeos sobre discursos de odio, transmisiones en vivo, etc. [18]

Las acusaciones de YouTube

YouTube ha sido identificado como una plataforma influyente para difundir contenido radicalizado. Al-Qaeda y grupos extremistas similares han sido vinculados al uso de YouTube para videos de reclutamiento y la interacción con medios de comunicación internacionales. En un estudio de investigación publicado por el American Behavioral Scientist Journal , investigaron "si es posible identificar un conjunto de atributos que puedan ayudar a explicar parte del proceso de toma de decisiones del algoritmo de YouTube". [19] Los resultados del estudio mostraron que las recomendaciones del algoritmo de YouTube para contenido extremista tienen en cuenta la presencia de palabras clave radicales en el título de un video. En febrero de 2023, en el caso de Gonzalez v. Google , la pregunta en cuestión es si Google, la empresa matriz de YouTube, está o no protegida de demandas que aleguen que los algoritmos del sitio ayudaron a los terroristas a recomendar videos de ISIS a los usuarios. Se sabe que la Sección 230 generalmente protege a las plataformas en línea de la responsabilidad civil por el contenido publicado por sus usuarios. [20]

TikTok

TikTok es una aplicación que recomienda vídeos a la página "Para ti" (For You Page, FYP) de un usuario, lo que hace que la página de cada usuario sea diferente. Debido a la naturaleza del algoritmo detrás de la aplicación, la FYP de TikTok se ha relacionado con la aparición de vídeos más explícitos y radicales con el tiempo en función de las interacciones previas de los usuarios en la aplicación. [21] Desde el inicio de TikTok, la aplicación ha sido objeto de escrutinio en busca de desinformación y discursos de odio, ya que esas formas de medios suelen generar más interacciones con el algoritmo. [22]

Varios grupos extremistas, incluidas organizaciones yihadistas , han utilizado TikTok para difundir propaganda, reclutar seguidores e incitar a la violencia. El algoritmo de la plataforma, que recomienda contenido en función de la interacción del usuario, puede exponer a los usuarios a contenido extremista que se alinea con sus intereses o interacciones. [23]

En 2022, el jefe de Seguridad de TikTok en EE. UU. publicó una declaración en la que afirmaba que "81 518 334 videos fueron eliminados a nivel mundial entre abril y junio por violar nuestras Pautas de la comunidad o Términos de servicio" para reducir el discurso de odio, el acoso y la desinformación. [24]

Los estudios han señalado casos de personas que se radicalizaron a través del contenido que encontraron en TikTok. Por ejemplo, a principios de 2023, las autoridades austriacas frustraron un complot contra un desfile del orgullo LGBTQ+ en el que participaron dos adolescentes y un joven de 20 años que se inspiraron en el contenido yihadista de TikTok. El sospechoso más joven, de 14 años, había visto vídeos creados por influencers islamistas que glorificaban la yihad. Estos vídeos lo llevaron a interactuar más con contenido similar, lo que finalmente resultó en su participación en la planificación de un ataque. [23]

Otro caso fue el de la detención de varios adolescentes en Viena (Austria ) en 2024, que planeaban llevar a cabo un ataque terrorista en un concierto de Taylor Swift . La investigación reveló que algunos de los sospechosos se habían radicalizado en línea, siendo TikTok una de las plataformas utilizadas para difundir contenido extremista que influyó en sus creencias y acciones. [23]

Autorradicalización

Infografía de la campaña "Si ve algo, diga algo" del Departamento de Seguridad Nacional de los Estados Unidos. La campaña es una iniciativa nacional para generar conciencia sobre el terrorismo local y los delitos relacionados con el terrorismo.

El Departamento de Justicia de los Estados Unidos define el terrorismo de “lobo solitario” como “alguien que actúa solo en un ataque terrorista sin la ayuda o el estímulo de un gobierno o una organización terrorista”. [25] A través de las redes sociales en Internet, el terrorismo de “lobo solitario” ha ido en aumento, vinculándose a la radicalización algorítmica. [26] A través de cámaras de resonancia en Internet, puntos de vista que normalmente se consideran radicales fueron aceptados y rápidamente adoptados por otros extremistas. [27] Estos puntos de vista son alentados por foros, chats grupales y redes sociales para reforzar sus creencias. [28]

Referencias en los medios

El dilema social

The Social Dilemma es un docudrama de 2020 sobre cómo los algoritmos detrás de las redes sociales permiten la adicción, al tiempo que poseen habilidades para manipular las opiniones, las emociones y el comportamiento de las personas para difundir teorías de conspiración y desinformación. La película utiliza repetidamente palabras de moda como "cámaras de eco" y " noticias falsas " para demostrar la manipulación psicológica en las redes sociales, lo que conduce a la manipulación política . En la película, Ben cae más profundamente en una adicción a las redes sociales cuando el algoritmo descubrió que su página de redes sociales tiene un 62,3% de posibilidades de participación a largo plazo. Esto lleva a más videos en el feed recomendado para Ben y eventualmente se sumerge más en la propaganda y las teorías de conspiración, volviéndose más polarizado con cada video.

Soluciones propuestas

Debilitamiento de las protecciones de la Sección 230

En la Ley de Decencia en las Comunicaciones , la Sección 230 establece que "Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de ninguna información proporcionada por otro proveedor de contenido de información". [29] La Sección 230 protege a los medios de comunicación de responsabilidades o de ser demandados por contenido de terceros, como la actividad ilegal de un usuario. [29] Sin embargo, los críticos argumentan que este enfoque reduce el incentivo de una empresa para eliminar contenido dañino o desinformación, y esta laguna legal ha permitido a las empresas de redes sociales maximizar las ganancias al impulsar contenido radical sin riesgos legales. [30] Esta afirmación ha sido criticada por los defensores de la Sección 230, ya que antes de su aprobación, los tribunales habían dictaminado en Stratton Oakmont, Inc. v. Prodigy Services Co. que la moderación en cualquier capacidad introduce una responsabilidad para los proveedores de contenido como "editores" del contenido que decidieron dejar. [31]

Los legisladores han redactado una legislación que debilitaría o eliminaría las protecciones de la Sección 230 sobre el contenido algorítmico. Los demócratas de la Cámara de Representantes Anna Eshoo , Frank Pallone Jr. , Mike Doyle y Jan Schakowsky presentaron la "Ley de Justicia contra Algoritmos Maliciosos" en octubre de 2021 como HR 5596. El proyecto de ley no prosperó en el comité, [32] pero habría eliminado las protecciones de la Sección 230 para los proveedores de servicios relacionados con algoritmos de recomendación personalizados que presentan contenido a los usuarios si esos algoritmos entregan consciente o imprudentemente contenido que contribuye a causar lesiones físicas o emocionales graves. [33]

Véase también

Referencias

  1. ^ "¿Qué es una cámara de eco en las redes sociales? | Escuela de Publicidad Stan Richards". advertising.utexas.edu . 18 de noviembre de 2020 . Consultado el 2 de noviembre de 2022 .
  2. ^ "Los sitios web que sustentan a los influyentes de extrema derecha de Gran Bretaña". bellingcat . 24 de febrero de 2021 . Consultado el 10 de marzo de 2021 .
  3. ^ Camargo, Chico Q. (21 de enero de 2020). «Los algoritmos de YouTube pueden radicalizar a la gente, pero el verdadero problema es que no tenemos idea de cómo funcionan». The Conversation . Consultado el 10 de marzo de 2021 .
  4. ^ Redacción de E&T (27 de mayo de 2020). «Facebook no actuó basándose en sus propias pruebas de extremismo impulsado por algoritmos». eandt.theiet.org . Consultado el 10 de marzo de 2021 .
  5. ^ "¿Cómo pueden las empresas de redes sociales abordar el discurso de odio?". Knowledge at Wharton . Consultado el 22 de noviembre de 2022 .
  6. ^ "Internet Association - Somos la voz de la economía de Internet. | Internet Association". 17 de diciembre de 2021. Archivado desde el original el 17 de diciembre de 2021 . Consultado el 22 de noviembre de 2022 .
  7. ^ Kaluža, Jernej (3 de julio de 2022). "Generación habitual de burbujas de filtro: ¿por qué la personalización algorítmica es problemática para la esfera pública democrática?". Javnost - The Public, Revista del Instituto Europeo de Comunicación y Cultura . 29 (3): 267. doi :10.1080/13183222.2021.2003052. ISSN  1318-3222.
  8. ^ "¿Qué es una cámara de eco en las redes sociales? | Escuela de Publicidad Stan Richards". advertising.utexas.edu . 18 de noviembre de 2020 . Consultado el 12 de abril de 2023 .
  9. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele (2 de marzo de 2021). «El efecto de la cámara de eco en las redes sociales». Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 118 (9): –2023301118. Bibcode :2021PNAS..11823301C. doi : 10.1073/pnas.2023301118 . ISSN  0027-8424. PMC 7936330 . PMID  33622786. 
  10. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Starnini, Michele; Galeazzi, Alessandro; Quattrociocchi, Walter (14 de enero de 2021). "El efecto de la cámara de eco en las redes sociales". Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 118 (9): e2023301118. Bibcode :2021PNAS..11823301C. doi : 10.1073/pnas.2023301118 . ISSN  0027-8424. PMC 7936330 . PMID  33622786. 
  11. ^ Oremus, Will; Alcantara, Chris; Merrill, Jeremy; Galocha, Artur (26 de octubre de 2021). «Cómo Facebook moldea tu feed». The Washington Post . Consultado el 12 de abril de 2023 .
  12. ^ Atske, Sara (16 de enero de 2019). «Algoritmos de Facebook y datos personales». Pew Research Center: Internet, Science & Tech . Consultado el 12 de abril de 2023 .
  13. ^ Korinek, Anton (8 de diciembre de 2021). "Por qué necesitamos una nueva agencia para regular la inteligencia artificial avanzada: lecciones sobre el control de la IA extraídas de los archivos de Facebook". Brookings . Consultado el 12 de abril de 2023 .
  14. ^ ab "Desinformación, radicalización y amplificación algorítmica: ¿Qué medidas puede adoptar el Congreso?". Just Security . 7 de febrero de 2022. Consultado el 2 de noviembre de 2022 .
  15. ^ Isaac, Mike (25 de octubre de 2021). «Facebook lucha con las características que utilizó para definir las redes sociales». The New York Times . ISSN  0362-4331 . Consultado el 2 de noviembre de 2022 .
  16. ^ Little, Olivia (26 de marzo de 2021). «TikTok está instando a los usuarios a seguir cuentas de extremistas de extrema derecha». Media Matters for America . Consultado el 2 de noviembre de 2022 .
  17. ^ "Estudio: Las noticias falsas se propagan más rápido que la verdad". MIT Sloan . Consultado el 2 de noviembre de 2022 .
  18. ^ ab "¿Odiaste ese video? El algoritmo de YouTube podría enviarte otro igual". MIT Technology Review . Consultado el 11 de abril de 2023 .
  19. ^ Murthy, Dhiraj (1 de mayo de 2021). «Evaluación de la rendición de cuentas de la plataforma: contenido terrorista en YouTube». American Behavioral Scientist . 65 (6): 800–824. doi :10.1177/0002764221989774. S2CID  233449061 – vía JSTOR.
  20. ^ Root, Damon (abril de 2023). "Scottus considera el alcance de la sección 230". Reason . 54 (11): 8. ISSN  0048-6906.
  21. ^ "El algoritmo de TikTok lleva a los usuarios de los vídeos transfóbicos a las madrigueras de la extrema derecha". Media Matters for America . 5 de octubre de 2021 . Consultado el 22 de noviembre de 2022 .
  22. ^ Little, Olivia (2 de abril de 2021). "Cuentas de teorías conspirativas aparentemente inofensivas en TikTok están impulsando propaganda de extrema derecha y TikTok está incitando a los usuarios a seguirlas". Media Matters for America . Consultado el 22 de noviembre de 2022 .
  23. ^ abc "TikTok Jihad: los terroristas aprovechan las herramientas modernas para reclutar y radicalizar". The Soufan Center. 9 de agosto de 2024. Consultado el 10 de agosto de 2024 .
  24. ^ "Nuestra lucha continua contra el odio y el acoso". Sala de prensa | TikTok . 16 de agosto de 2019 . Consultado el 22 de noviembre de 2022 .
  25. ^ "Terrorismo del lobo solitario en Estados Unidos | Oficina de Programas de Justicia". www.ojp.gov . Consultado el 2 de noviembre de 2022 .
  26. ^ Alfano, Mark; Carter, J. Adam; Cheong, Marc (2018). "Seducción tecnológica y autorradicalización". Revista de la Asociación Filosófica Americana . 4 (3): 298–322. doi :10.1017/apa.2018.27. ISSN  2053-4477. S2CID  150119516.
  27. ^ Dubois, Elizabeth; Blank, Grant (4 de mayo de 2018). "La cámara de eco es exagerada: el efecto moderador del interés político y los medios diversos". Información, comunicación y sociedad . 21 (5): 729–745. doi : 10.1080/1369118X.2018.1428656 . ISSN  1369-118X. S2CID  149369522.
  28. ^ Sunstein, Cass R. (13 de mayo de 2009). Ir a los extremos: cómo las mentes afines se unen y se dividen. Oxford University Press. ISBN 978-0-19-979314-3.
  29. ^ ab "47 US Code § 230 - Protección para el bloqueo y la detección privados de material ofensivo". LII / Instituto de Información Legal . Consultado el 2 de noviembre de 2022 .
  30. ^ Smith, Michael D.; Alstyne, Marshall Van (12 de agosto de 2021). "Es hora de actualizar la Sección 230". Harvard Business Review . ISSN  0017-8012 . Consultado el 2 de noviembre de 2022 .
  31. ^ Masnick, Mike (23 de junio de 2020). "¡Hola! Te han derivado aquí porque estás equivocado sobre la Sección 230 de la Ley de Decencia en las Comunicaciones" . Consultado el 11 de abril de 2024 .
  32. ^ "HR 5596 (117.°): Ley de Justicia contra Algoritmos Maliciosos de 2021". GovTrack . Consultado el 11 de abril de 2024 .
  33. ^ Robertson, Adi (14 de octubre de 2021). "Los legisladores quieren quitarle las protecciones legales al feed de noticias de Facebook". The Verge . Archivado desde el original el 14 de octubre de 2021. Consultado el 14 de octubre de 2021 .