Un robot social , también descrito como IA social o algoritmo social , es un agente de software que se comunica de forma autónoma en las redes sociales . Los mensajes (por ejemplo, tweets ) que distribuye pueden ser simples y operar en grupos y varias configuraciones con control humano parcial (híbrido) vía algoritmo . Los robots sociales también pueden utilizar inteligencia artificial y aprendizaje automático para expresar mensajes en un diálogo humano más natural.
Algunos de los usos de los bots sociales son:
Otro ejemplo es que los bots pueden usarse para curación algorítmica , radicalización algorítmica y/o contratación de influencia , término que se refiere a la venta de una cuenta en plataformas de redes sociales.
Los bots han convivido con la tecnología informática desde su creación. Por lo tanto, los robots sociales han ganado popularidad simultáneamente con el auge de las redes sociales. Los robots sociales, además de poder (re)producir o reutilizar mensajes de forma autónoma, también comparten muchos rasgos con los spambots en relación con su tendencia a infiltrarse en grandes grupos de usuarios. [3] La Inteligencia Artificial de Redes Sociales (ASNI) se refiere a la aplicación de inteligencia artificial dentro de los servicios de redes sociales y plataformas de redes sociales. Se espera que ASNI evolucione rápidamente.
Los Twitterbots ya son ejemplos bien conocidos, pero también se han observado agentes autónomos correspondientes en Facebook y otros lugares. El uso de bots sociales va en contra de los términos de servicio de muchas plataformas, como Twitter e Instagram , aunque otras, como Reddit y Discord , lo permiten hasta cierto punto . Incluso para las plataformas de redes sociales que restringen los bots sociales, se pretende lograr un cierto grado de automatización al hacer que las API de redes sociales estén disponibles. Las plataformas de redes sociales también han desarrollado sus propias herramientas automatizadas para filtrar los mensajes que provienen de bots, aunque no pueden detectar todos los mensajes de los bots. [4]
Debido a la dificultad de reconocer los robots sociales y separarlos de la automatización "elegible" a través de las API de redes sociales , no está claro cómo se pueden hacer cumplir las regulaciones legales. Se espera que los robots sociales desempeñen un papel en la futura formación de la opinión pública al actuar de forma autónoma como influenciadores incesantes . Algunos robots sociales han manipulado la opinión pública (especialmente en un sentido político), la manipulación del mercado de valores, la publicidad y la extorsión maliciosa mediante intentos de phishing . [5]
La primera generación de bots a veces podía distinguirse de los usuarios reales por sus capacidades, a menudo sobrehumanas, para publicar mensajes. Desarrollos posteriores han logrado imprimir patrones de actividad y comportamiento más "humanos" en el agente. Con suficientes bots, incluso podría ser posible lograr una prueba social artificial . Para detectar inequívocamente los bots sociales como lo que son, se deben aplicar una variedad de criterios [6] utilizando técnicas de detección de patrones , algunos de los cuales son: [7]
Los robots sociales son cada vez más difíciles de detectar y comprender. El comportamiento humano de los bots, el comportamiento siempre cambiante de los bots y el gran volumen de bots que cubren cada plataforma pueden haber sido un factor en los desafíos para eliminarlos. [11] Los sitios de redes sociales, como Twitter , se encuentran entre los más afectados; CNBC informó que hasta 48 millones de los 319 millones de usuarios (aproximadamente el 15 %) eran bots en 2017. [12]
Botometer [13] (anteriormente BotOrNot) es un servicio web público que verifica la actividad de una cuenta de Twitter y le otorga una puntuación basada en la probabilidad de que la cuenta sea un bot. El sistema aprovecha más de mil funciones. [14] [15] Un método activo para detectar los primeros robots de spam era configurar cuentas honeypot que publican contenido sin sentido, que los robots pueden volver a publicar (retwittear). [16] Sin embargo, los bots evolucionan rápidamente y los métodos de detección deben actualizarse constantemente, porque de lo contrario pueden volverse inútiles después de unos años. [17] Un método es el uso de la Ley de Benford para predecir la distribución de frecuencia de dígitos iniciales significativos para detectar bots maliciosos en línea. Este estudio se presentó por primera vez en la Universidad de Pretoria en 2020. [18] Otro método es la detección impulsada por inteligencia artificial. Algunas de las subcategorías de este tipo de detección serían el flujo de bucle de aprendizaje activo , la ingeniería de características , el aprendizaje no supervisado , el aprendizaje supervisado y el descubrimiento de correlaciones. [11]
Algunas operaciones de los bots funcionan juntas de forma sincronizada. Por ejemplo, ISIS utilizó Twitter para amplificar su contenido islámico mediante numerosas cuentas orquestadas que empujaron aún más un artículo a la lista de noticias candentes, [19] amplificando así aún más las noticias seleccionadas a una audiencia más amplia. [20] Este modo de cuentas de bots sincronizadas se puede utilizar como herramienta de propaganda y manipulación de los mercados de valores. [21]
Instagram alcanzó mil millones de usuarios activos mensuales en junio de 2018, [22] pero de esos mil millones de usuarios activos, se estimó que hasta el 10% estaban administrados por robots sociales automatizados. Si bien los bots que publican propaganda maliciosa siguen siendo populares, muchos usuarios individuales utilizan bots de participación para impulsarse hacia una falsa viralidad, lo que los hace parecer más populares en la aplicación. Estos robots de participación pueden dar me gusta, mirar, seguir y comentar las publicaciones de los usuarios. [23]
Casi al mismo tiempo, la plataforma alcanzó la marca de mil millones de usuarios mensuales. Facebook (la empresa matriz de Instagram y WhatsApp ) planeaba contratar 10.000 personas para brindar seguridad adicional a sus plataformas; Esto incluiría combatir el creciente número de bots y publicaciones maliciosas en las plataformas. [24] Debido al aumento de la seguridad en la plataforma y los métodos de detección utilizados por Instagram, algunas empresas de bots están informando problemas con sus servicios porque Instagram impone umbrales límite de interacción basados en el uso pasado y actual de la aplicación, y muchas plataformas de pago y correo electrónico se lo niegan a las empresas. acceso a sus servicios, impidiendo que clientes potenciales puedan adquirirlos. [25]
El problema de los bots de Twitter se debe a la facilidad para crearlos y mantenerlos. La facilidad para crear la cuenta y las numerosas API que permiten la automatización completa de las cuentas están llevando a que una cantidad excesiva de organizaciones e individuos utilicen estas herramientas para satisfacer sus propias necesidades. [12] [26] CNBC afirmó que alrededor del 15% de los 319 millones de usuarios de Twitter en 2017 eran bots; el número exacto es 48 millones. [12] A partir del 7 de julio de 2022, Twitter afirma que elimina 1 millón de robots de spam de su plataforma todos los días. [27]
Algunos bots se utilizan para automatizar tweets programados, descargar vídeos, establecer recordatorios y enviar advertencias de desastres naturales. [28] Esos son ejemplos de cuentas de bot, pero la API de Twitter permite que cuentas reales (individuos u organizaciones) utilicen ciertos niveles de automatización de bots en sus cuentas e incluso fomenta su uso para mejorar las experiencias e interacciones de los usuarios. [29]
{{cite journal}}
: Citar diario requiere |journal=
( ayuda )Los bots sociales están enviando una cantidad importante de información a través de Twittersphere. Ahora existe una herramienta para ayudar a identificarlos