stringtranslate.com

Incitación a la ira

En la jerga de Internet , el rage-baiting (también rage-farming ) es la táctica manipuladora de provocar indignación con el objetivo de aumentar el tráfico de Internet, la participación en línea, los ingresos y el apoyo. [1] [2] El rage-baiting o el farming se pueden utilizar como una herramienta para aumentar la participación, atraer suscriptores, seguidores y partidarios, lo que puede ser económicamente lucrativo. [3] El rage-baiting y el rage farming manipulan a los usuarios para que respondan de la misma manera a titulares, memes , tropos o comentarios ofensivos e incendiarios . [4] [5] [6] [7]

El cultivo de ira, que se ha citado al menos desde enero de 2022, es una rama del cebo de ira en el que la indignación de la persona provocada se cultiva o manipula para generar una interacción en línea mediante la siembra de ira que ayuda a amplificar el mensaje del creador de contenido original. [2] [8] [9] También se ha utilizado como táctica política a expensas del oponente.

El politólogo Jared Wesley, de la Universidad de Alberta, afirmó en 2022 que el uso de la táctica del cultivo de la ira estaba en aumento y que los políticos de derechas empleaban la técnica para "promover teorías conspirativas y desinformación". A medida que los políticos aumentan el cultivo de la ira contra sus oponentes políticos e ideológicos, atraen a más seguidores en línea, algunos de los cuales pueden participar en actos de violencia fuera de línea, incluida la violencia verbal y los actos de intimidación. Wesley describe cómo quienes se dedican al cultivo de la ira combinan medias verdades con "mentiras descaradas". [10]

El concepto más amplio de publicar contenido generalmente provocativo para fomentar la interacción del usuario se conoce como agricultura de participación . [11]

Etimología, definiciones y términos relacionados

Rage farming proviene de rage + farm. Rage-seeding, rage-bait, rage baiting y outrage baiting son neologismos similares de la jerga de Internet que se refieren a tácticas manipuladoras que se alimentan de las ansiedades y los miedos de los lectores. Todos ellos son formas de clickbait , un término utilizado desde aproximadamente 1999, que es "más matizado" y no necesariamente visto como una táctica negativa. [12] [13] El término rage bait, que se ha citado desde al menos 2009, es una forma negativa de click-baiting, ya que se basa en manipular a los usuarios para que respondan de la misma manera a "titulares", memes, tropos o comentarios ofensivos e incendiarios. [4] [5] [6] [7]

En su tuit de 2022, un investigador sénior de Citizen Lab , John Scott-Railton, describió cómo una persona estaba siendo "cultivada por la ira" cuando respondía a una publicación provocativa con un tuit con una cita igualmente provocativa, ya que los tuits con citas recompensan el tuit original que provoca la ira. Se descubrió que los algoritmos en redes sociales como Facebook , Twitter , TikTok , Instagram y YouTube recompensan el aumento de la interacción positiva y negativa al dirigir el tráfico a las publicaciones y amplificarlas. [1]

En un artículo de The Atlantic sobre la estrategia republicana , la escritora estadounidense Molly Jong-Fast describió la agricultura de la ira como "el producto de una tormenta perfecta de estupidez, una mezcla impía de algoritmos y ansiedad". [2]

El politólogo Jared Wesley escribió que el término "rage farming" se utilizaba a menudo "para describir la retórica diseñada para provocar la ira de los oponentes". [8] El término "rage-baiting" se utiliza para describir una táctica destinada a atraer, mantener y aumentar una base de partidarios y seguidores. [7]

Clickbait, en todas sus variantes, incluido el rage-baiting y el farming, es una forma de manipulación de los medios , específicamente la manipulación de Internet . Si bien el objetivo de algunos clickbait es generar ingresos, también se puede utilizar como una táctica eficaz para influir en las personas en las plataformas de redes sociales, como Facebook, Twitter, Instagram y YouTube. [12] Según un análisis de Facebook de noviembre de 2016, los clickbaits están diseñados intencionalmente para los sesgos de confirmación preexistentes de un grupo de interés específico . Los algoritmos de Facebook utilizaron una burbuja de filtro que comparte publicaciones específicas con una audiencia filtrada. [14]

Un artículo del Westside Seattle Herald publicado en mayo de 2016 citó la definición del Urban Dictionary en línea : "una publicación en las redes sociales realizada por una organización de noticias diseñada expresamente para indignar a la mayor cantidad posible de personas con el fin de generar interacción". [5] [6] El artículo del Herald describió cómo un mayor tráfico de usuarios en línea se traduce en mayores ingresos para las plataformas y sitios web en línea provenientes de anuncios pagos y patrocinadores. [6]

Un artículo del 25 de mayo de 2016 describió al ragebait como "el gemelo malvado del clickbait". [4]

Un artículo de 2006 de la revista Time describía cómo los trolls de Internet publican comentarios incendiarios en línea con el único propósito de provocar una discusión incluso sobre los temas más banales. Se cita como ejemplo una declaración como “NASCAR es casi tan deportivo como las animadoras” en un foro de carreras de coches o un apoyo abierto a la apertura de fronteras ante Lou Dobbs . [15]

Los creadores de cebos para provocar la ira y la indignación inventan "noticias controvertidas de la nada". [16] El ejemplo citado fue un anuncio de una empresa de medios digitales irlandesa del 15 de diciembre de 2018 que afirmaba falsamente que dos tercios de la gente quería que Santa Claus fuera mujer o neutral en cuanto al género. [16]

Ya en 2012, las investigaciones sugerían que, tanto en los medios como en la política, provocar indignación es una herramienta poderosa para manipular los medios. [17] [18] En los medios políticos, tanto la indignación real como la imaginaria atraen a los lectores, lo que hace que las narrativas que evocan la ira sean muy populares. [18]

Fondo

Un artículo de 2012 del Journal of Politics (JOP) descubrió que los actores políticos incorporaban intencionalmente contenido emocional para evocar ansiedad en sus mensajes con el fin de despertar interés en un tema. [17] El artículo cuestionaba por qué esta táctica política hacía que los espectadores sintieran más ira que ansiedad. El estudio descubrió que la ira aumentaba el comportamiento de búsqueda de información y, a menudo, hacía que los usuarios de Internet hicieran clic en el sitio web político para obtener más información. [17] La ​​investigación decía que también había incentivos psicológicos para utilizar la retórica de la ira en la comunicación política. [17] Un artículo de Media Matters for America de 2018 que citaba a la revista JOP reiteró que "la ira es una herramienta poderosa en el mundo de la política y los medios". [18] La industria de los medios políticos sabe que la indignación real o imaginaria atrae a los lectores, lo que hace que las narrativas que la evocan sean muy populares en los medios políticos. [18]

Un artículo de la National Review de noviembre de 2018 que criticaba a los guerreros de la justicia social fue citado como un ejemplo de provocación de ira por Media Matters for America . [19] [18] El artículo de la Review fue en respuesta a los tuits que criticaban la imagen de dibujos animados utilizada por la cuenta de Twitter de ABC para publicitar A Charlie Brown Thanksgiving el 21 de noviembre de 2018. [19] Franklin, el amigo negro estaba sentado solo en un lado de la mesa de la cena de Acción de Gracias de Charlie Brown. [19] Varias cuentas no verificadas de usuarios de Twitter, incluida una con cero seguidores, llamaron racista a la imagen. [18] Los conservadores estaban tan frustrados por estos liberales "copo de nieve" demasiado sensibles y políticamente correctos que publicaron, que a su vez respondieron con ira. El artículo de Media Matters for America dijo que había ironía en la forma en que el artículo de la National Review que pretendía ilustrar cómo los liberales se enojaban con demasiada facilidad, en realidad logró enfurecer a los conservadores. [18]

Las tecnologías de la información y los medios digitales permiten capacidades sin precedentes para la manipulación en línea, [20] incluyendo el click-baiting, el rage baiting y el rage farming. En su tuit del 7 de enero de 2022, John Scott-Railton describió cómo una persona estaba siendo "cultivada con cólera" cuando respondía a una publicación provocativa con un tuit con una cita igualmente provocativa, ya que los algoritmos en Twitter, TikTok, YouTube, Facebook y otras plataformas de redes sociales recompensan las publicaciones que atraen la participación amplificando las publicaciones. [1]

Una reseña de 2020 de la revista de noticias en línea conservadora canadiense , The Post Millennial , que comenzó a funcionar en 2017, dijo que era el medio de comunicación más reciente de la extrema derecha estadounidense que provocaba ira. [21]

Ejemplos de agricultura de ira

Redes sociales

La agricultura de la ira y el cebo de la ira son las iteraciones más recientes del clickbait y otras formas de manipulación de Internet que utilizan teorías conspirativas y desinformación para alimentar la ira y atraer a los usuarios. Facebook ha sido "culpado de avivar el odio sectario, dirigir a los usuarios hacia el extremismo y las teorías conspirativas e incentivar a los políticos a adoptar posturas más divisivas", según un informe del Washington Post de 2021. [22] A pesar de los informes anteriores sobre los cambios en los algoritmos de su News Feed para reducir el clickbait, las revelaciones de la denunciante de Facebook Frances Haugen y el contenido de la filtración de Facebook de 2021 , informalmente conocida como los Documentos de Facebook, proporcionan evidencia del papel que había desempeñado el algoritmo News Feed de la empresa. [22]

Las investigaciones de los medios de comunicación y del gobierno a raíz de las revelaciones de la denunciante de Facebook, Frances Haugen , y la filtración de Facebook de 2021 , brindan información sobre el papel que desempeñan varios algoritmos en la producción de indignación con fines de lucro al difundir divisiones, teorías conspirativas y odio sectario que supuestamente pueden contribuir a la violencia en el mundo real. [22] Un ejemplo muy criticado fue cuando Facebook, con más de 25 millones de cuentas en Myanmar , se olvidó de vigilar las publicaciones de discurso de odio que provocaban ira dirigidas a la minoría musulmana rohingya en Myanmar que supuestamente facilitaron el genocidio rohingya . [23] [24] [25] [9] [26] [27] En 2021, una demanda colectiva de 173 mil millones de dólares presentada contra Meta Platforms Inc (el nuevo nombre de Facebook) en nombre de los refugiados rohingya afirmó que los "algoritmos de Facebook amplificaban el discurso de odio". [23]

En respuesta a las quejas sobre clickbait en el News Feed de Facebook y en su algoritmo de clasificación, en 2014 y nuevamente en 2016 la empresa introdujo un algoritmo anti-clickbait para eliminar de su News Feed los sitios que frecuentemente usan titulares que "ocultan, exageran o distorsionan información". [28]

Un artículo de febrero de 2019 que se promocionó en Facebook describió cómo el cebo de indignación hizo que la gente se enojara "a propósito". [16] Las empresas de medios digitales y los actores de las redes sociales incitan la indignación para aumentar la participación; "clics, comentarios, me gusta y compartidos", que generan "más ingresos por publicidad". [16] Si el contenido no aumenta la participación, el "algoritmo de la línea de tiempo" limita la cantidad de usuarios a los que puede llegar este contenido poco interesante. [16] Según este artículo, cuando se preparó para su guerra contra el cebo de clics, el algoritmo cambió, lo que dificultó que los creadores y los sitios usaran el cebo de clics. El artículo decía que se introdujo una nueva estrategia de participación para reemplazar el cebo de clics, ya sea cebo de ira o cebo de indignación. [16]

Los algoritmos de 2016 fueron supuestamente entrenados para filtrar frases que se usaban frecuentemente en titulares clickbait de manera similar a los filtros que eliminan el spam de correo electrónico. [28] Los editores que continúan usando clickbait fueron supuestamente castigados con la pérdida de tráfico de referencia. [28]

A partir de 2017, los ingenieros de Facebook cambiaron su algoritmo de clasificación para puntuar las reacciones con emojis cinco veces más que los simples "me gusta" porque los emojis ampliaban la participación del usuario, según un artículo del Washington Post del 26 de octubre de 2021. El modelo de negocio de Facebook dependía de mantener y aumentar la participación de los usuarios. [29] Uno de los investigadores de Facebook planteó su preocupación por el hecho de que los algoritmos que recompensaban las publicaciones "controvertidas", incluidas las que incitaban a la indignación, pudieran dar lugar inadvertidamente a más spam, abuso y clickbait. [29]

Desde 2018, los ejecutivos de Facebook habían sido advertidos en una presentación de diapositivas de que sus algoritmos promovían la división, pero se negaron a actuar. [30] En una entrevista de 2022, Scott-Railton había observado que la amplificación por parte de algoritmos de estos tuits con citas incendiarias en una agricultura de ira que se repetía sobre sí misma puede haber sido planificada y estructural o accidental. [2] Los algoritmos recompensan la interacción positiva y negativa. Esto crea un "verdadero dilema para todos". Los algoritmos también permiten a los políticos pasar por alto a los medios de comunicación tradicionales que verifican los hechos, al darles acceso a una audiencia acrítica específica que es muy receptiva a sus mensajes, incluso cuando se trata de desinformación. [18]

En 2019, los científicos de datos de Facebook confirmaron que las publicaciones que incitaban al emoji enojado tenían "una probabilidad desproporcionada de incluir desinformación, toxicidad y noticias de baja calidad". [29]

El docudrama de Netflix de 2020 The Social Dilemma analizó cómo las redes sociales fueron diseñadas intencionalmente para maximizar las ganancias a través de la manipulación de Internet, que puede incluir la difusión de teorías conspirativas y desinformación y la promoción del uso problemático de las redes sociales . [31] Los temas tratados en la película incluyeron el papel de las redes sociales en la polarización política en los Estados Unidos , la radicalización política , incluida la radicalización de los jóvenes en línea , la difusión de noticias falsas y como herramienta de propaganda utilizada por partidos políticos y organismos gubernamentales. Las redes sociales tienen tres objetivos principales: mantener y aumentar la participación, el crecimiento y los ingresos por publicidad, según un ex especialista en ética del diseño de Google. [32]

Un artículo de la revista Rolling Stone de 2024 analiza el auge de los influencers "anzuelo de la ira" en TikTok , que crean contenido diseñado para provocar ira y generar interacción. Influencers como Winta Zesu y Louise Melcher producen videos controvertidos y escenificados que a menudo se vuelven virales en múltiples plataformas y atraen a espectadores que tal vez no se den cuenta de que el contenido es inventado. [33]

Facebook fuera de Estados Unidos

Un informe de 2021 de The Washington Post reveló que Facebook no vigilaba adecuadamente su servicio fuera de Estados Unidos. [25] La empresa invirtió solo el 16% de su presupuesto en combatir la desinformación y el discurso de odio en países fuera de Estados Unidos, como Francia, Italia e India, donde el inglés no es la lengua materna. En cambio, la empresa destinó el 84% a Estados Unidos, que solo representa el 10% de los usuarios diarios de Facebook. [9]

Desde al menos 2019, los empleados de Facebook eran conscientes de lo "vulnerables que eran estos países, como la India, a los "abusos de malos actores y regímenes autoritarios", pero no hicieron nada para bloquear las cuentas que publicaban discursos de odio e incitaban a la violencia. [9] En su informe de 2019 de 434 páginas presentado a la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos sobre las conclusiones de la Misión Internacional Independiente de Investigación sobre Myanmar, se investigó el papel de las redes sociales en la difusión de discursos de odio e incitación a la violencia en los disturbios antimusulmanes y el genocidio rohingya. Facebook fue mencionado 289 veces en el informe, ya que hay millones de cuentas de Facebook en ese país. [26] Tras la publicación de una versión anterior del informe en agosto, Facebook tomó la "rara medida" de eliminar cuentas que representaban a 12 millones de seguidores implicados en las conclusiones del informe. [24]

En octubre de 2021, Haugen testificó ante un comité del Senado de los Estados Unidos que Facebook había estado incitando a la violencia étnica en Myanmar , que tiene más de 25 millones de usuarios de Facebook, y en Etiopía a través de sus algoritmos que promovían publicaciones que incitaban o glorificaban la violencia. Las afirmaciones falsas sobre el almacenamiento de armas por parte de musulmanes no fueron eliminadas. [25]

La Ley de Servicios Digitales es una propuesta legislativa europea para reforzar las normas de lucha contra la desinformación y los contenidos nocivos, que fue presentada por la Comisión Europea al Parlamento Europeo y al Consejo de la Unión Europea en parte como respuesta a las preocupaciones planteadas por los Archivos de Facebook y las revelaciones en el testimonio de Haugen en el Parlamento Europeo. [27] En 2021, los bufetes de abogados Edelson PC y Fields PLLC presentaron una demanda colectiva por 173.000 millones de dólares estadounidenses contra Meta Platforms Inc, anteriormente conocida como Facebook, en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California en nombre de los refugiados rohinyá, alegando que Facebook fue negligente al no eliminar publicaciones incendiarias que facilitaron el genocidio rohinyá en Myanmar. La demanda decía que los "algoritmos de Facebook amplificaban el discurso de odio". [23]

Tras su lanzamiento en Myanmar en 2011, Facebook "se volvió rápidamente omnipresente". [23] Un informe encargado por Facebook llevó a la empresa a admitir en 2018 que no había hecho "lo suficiente para prevenir la incitación a la violencia y el discurso de odio contra la [...] minoría musulmana en Myanmar". El informe independiente concluyó que "Facebook se ha convertido en un medio para quienes buscan difundir el odio y causar daño, y las publicaciones se han vinculado a la violencia fuera de línea". [23]

Véase también

Referencias

  1. ^abc Scott-Railton 2022.
  2. ^ abcd Jong-Rápido 2022.
  3. ^ Thompson 2013.
  4. ^Abc Ashworth 2016.
  5. ^abc Vaqueros 2014.
  6. ^abcdHom2015 .
  7. ^ abcDastner 2021.
  8. ^Por Wesley 2022.
  9. ^ abcd Zakrzewski y col. 2021.
  10. ^ Rusnell 2022.
  11. ^ Starr, Michael (19 de abril de 2024). "Activistas: Elon Musk debería investigar a Jackson Hinkle por falso compromiso con X". The Jerusalem Post . Consultado el 9 de octubre de 2024 .
  12. ^Por Frampton 2015.
  13. ^ Nigma 2009.
  14. ^ Ohlheiser 2016.
  15. ^ Cox 2006.
  16. ^ abcdef EstoMeInteresa 2019.
  17. ^ abcd Ryan 2012.
  18. ^ abcdefgh Rainie y col. 2022.
  19. ^abcTiempo 2018.
  20. ^ Susser, Roessler y Nissenbaum 2019.
  21. ^ Holt 2020.
  22. ^ abc Oremus y otros 2021.
  23. ^ abcde Milmo 2021.
  24. ^Por Mahtani 2018.
  25. ^abc Akinwotu 2021.
  26. ^ desde ACNUDH 2018.
  27. ^ ab Parlamento Europeo 2021.
  28. ^abc Constine 2016.
  29. ^abc Merrill y Oremus 2021.
  30. ^ Seetharaman y Horwitz 2020.
  31. ^ Ehrlich 2020.
  32. ^ Orlowski 2020.
  33. ^ Jones, CT (27 de febrero de 2024). «Estos influencers están creando contenido para hacerte enojar, y está funcionando». Rolling Stone . Consultado el 1 de septiembre de 2024 .{{cite magazine}}: CS1 maint: estado de la URL ( enlace )

Fuentes

Enlaces externos