Un bot social , también descrito como IA social o algoritmo social , es un agente de software que se comunica de forma autónoma en las redes sociales . Los mensajes (por ejemplo, tweets ) que distribuye pueden ser simples y funcionar en grupos y en varias configuraciones con control humano parcial (híbrido) a través de un algoritmo . Los bots sociales también pueden usar inteligencia artificial y aprendizaje automático para expresar mensajes en un diálogo humano más natural.
Algunos de los usos de los bots sociales son:
Otro ejemplo es que los bots pueden usarse para curación algorítmica , radicalización algorítmica y/o influencia a cambio de dinero , un término que se refiere a la venta de una cuenta en plataformas de redes sociales.
Los bots han coexistido con la tecnología informática desde su creación. Por lo tanto, los bots sociales han aumentado en popularidad simultáneamente con el auge de las redes sociales. Los bots sociales, además de ser capaces de (re)producir o reutilizar mensajes de forma autónoma, también comparten muchos rasgos con los spambots en cuanto a su tendencia a infiltrarse en grandes grupos de usuarios. [3] La Inteligencia Artificial de Redes Sociales (ASNI) se refiere a la aplicación de la inteligencia artificial dentro de los servicios de redes sociales y las plataformas de medios sociales. Se espera que la ASNI evolucione rápidamente.
Los bots de Twitter son ejemplos bien conocidos, pero también se han observado agentes autónomos correspondientes en Facebook y otros lugares. El uso de bots sociales va en contra de los términos de servicio de muchas plataformas, como Twitter e Instagram , aunque otras lo permiten hasta cierto punto, como Reddit y Discord . Incluso en el caso de las plataformas de redes sociales que restringen los bots sociales, se pretende un cierto grado de automatización poniendo a disposición las API de redes sociales . Las plataformas de redes sociales también han desarrollado sus propias herramientas automatizadas para filtrar los mensajes que provienen de bots, aunque no pueden detectar todos los mensajes de bots. [4]
Debido a la dificultad de reconocer a los bots sociales y separarlos de la automatización "elegible" a través de las API de las redes sociales , no está claro cómo se puede hacer cumplir la regulación legal. Se espera que los bots sociales desempeñen un papel en la futura formación de la opinión pública al actuar de forma autónoma como influenciadores incesantes . Algunos bots sociales han manipulado las opiniones públicas (especialmente en un sentido político), la manipulación del mercado de valores, los anuncios y la extorsión maliciosa de los intentos de phishing . [5]
La primera generación de bots se podía distinguir a veces de los usuarios reales por sus capacidades, a menudo sobrehumanas , para publicar mensajes. Los desarrollos posteriores han conseguido imprimir en el agente patrones de actividad y comportamiento más "humanos" . Con suficientes bots, incluso podría ser posible lograr una prueba social artificial . Para detectar de forma inequívoca a los bots sociales como lo que son, se deben aplicar una variedad de criterios [6] en conjunto utilizando técnicas de detección de patrones , algunas de las cuales son: [7]
Los bots sociales son cada vez más difíciles de detectar y comprender. Su comportamiento similar al humano, su comportamiento siempre cambiante y el gran volumen de bots que cubren todas las plataformas pueden haber sido un factor en los desafíos para eliminarlos. [11] Los sitios de redes sociales, como Twitter , están entre los más afectados, y la CNBC informó que hasta 48 millones de los 319 millones de usuarios (aproximadamente el 15%) eran bots en 2017. [12]
Botometer [13] (anteriormente BotOrNot) es un servicio web público que verifica la actividad de una cuenta de Twitter y le otorga una puntuación en función de la probabilidad de que la cuenta sea un bot. El sistema aprovecha más de mil funciones. [14] [15] Un método activo para detectar bots de spam tempranos era configurar cuentas honeypot que publican contenido sin sentido, que los bots pueden volver a publicar (retuitear). [16] Sin embargo, los bots evolucionan rápidamente y los métodos de detección deben actualizarse constantemente, porque de lo contrario pueden volverse inútiles después de unos años. [17] Un método es el uso de la Ley de Benford para predecir la distribución de frecuencia de dígitos iniciales significativos para detectar bots maliciosos en línea. Este estudio se presentó por primera vez en la Universidad de Pretoria en 2020. [18] Otro método es la detección impulsada por inteligencia artificial. Algunas de las subcategorías de este tipo de detección serían el flujo de bucle de aprendizaje activo , la ingeniería de características , el aprendizaje no supervisado , el aprendizaje supervisado y el descubrimiento de correlación. [11]
Algunas operaciones de los bots funcionan juntas de manera sincronizada. Por ejemplo, ISIS utilizó Twitter para amplificar su contenido islámico mediante numerosas cuentas orquestadas que, a su vez, impulsaban un tema a la lista de noticias más populares [19] , lo que amplificaba aún más la noticia seleccionada para una audiencia más amplia [20] . Este modo de sincronización de cuentas de bots puede utilizarse como herramienta de propaganda , así como para manipular los mercados de valores [21] .
Instagram alcanzó mil millones de usuarios activos mensuales en junio de 2018, [22] pero de esos mil millones de usuarios activos, se estimó que hasta el 10% estaban siendo controlados por bots sociales automatizados. Si bien los bots de publicación de propaganda maliciosa siguen siendo populares, muchos usuarios individuales usan bots de interacción para impulsarse a una falsa viralidad, lo que los hace parecer más populares en la aplicación. Estos bots de interacción pueden dar me gusta, mirar, seguir y comentar las publicaciones de los usuarios. [23]
Casi al mismo tiempo, la plataforma alcanzó la meseta de 1 mil millones de usuarios mensuales. Facebook ( la empresa matriz de Instagram y WhatsApp ) planeó contratar a 10,000 para proporcionar seguridad adicional a sus plataformas; esto incluiría combatir el creciente número de bots y publicaciones maliciosas en las plataformas. [24] Debido a la mayor seguridad en la plataforma y los métodos de detección utilizados por Instagram, algunas empresas de bots están reportando problemas con sus servicios porque Instagram impone umbrales de límite de interacción basados en el uso pasado y actual de la aplicación, y muchas plataformas de pago y correo electrónico niegan a las empresas el acceso a sus servicios, impidiendo que los clientes potenciales puedan comprarlos. [25]
El problema de los bots en Twitter se debe a la facilidad para crearlos y mantenerlos. La facilidad para crear cuentas y las numerosas API que permiten la automatización completa de las cuentas están provocando que una cantidad excesiva de organizaciones e individuos utilicen estas herramientas para satisfacer sus propias necesidades. [12] [26] CNBC afirmó que alrededor del 15% de los 319 millones de usuarios de Twitter en 2017 eran bots; la cifra exacta es de 48 millones. [12] A fecha del 7 de julio de 2022, Twitter afirma que elimina 1 millón de bots de spam de su plataforma cada día. [27]
Algunos bots se utilizan para automatizar tweets programados, descargar videos, establecer recordatorios y enviar advertencias de desastres naturales. [28] Estos son ejemplos de cuentas de bot, pero la API de Twitter permite que las cuentas reales (individuos u organizaciones) utilicen ciertos niveles de automatización de bots en sus cuentas e incluso fomenta su uso para mejorar las experiencias e interacciones de los usuarios. [29]
{{cite journal}}
: Requiere citar revista |journal=
( ayuda )Los bots sociales están enviando una cantidad significativa de información a través de la tuitosfera. Ahora existe una herramienta que ayuda a identificarlos.