El shadow banning , también llamado stealth banning , hellbanning , ghost banning y comment ghosting , es la práctica de bloquear total o parcialmente a un usuario o el contenido del usuario de algunas áreas de una comunidad en línea de tal manera que la prohibición no sea fácilmente evidente para el usuario, independientemente de si la acción la realiza un individuo o un algoritmo. Por ejemplo, los comentarios con shadow banning publicados en un blog o sitio web de medios serían visibles para el remitente, pero no para otros usuarios que accedan al sitio.
La frase "shadow banning" tiene una historia coloquial y ha experimentado cierta evolución en su uso. Originalmente se aplicaba a una especie de suspensión engañosa de cuentas en foros web, donde una persona parecía poder publicar pero en realidad tenía todo su contenido oculto para otros usuarios. Más recientemente, el término se ha aplicado a medidas alternativas, en particular medidas de visibilidad como la exclusión de la lista y la baja de rango. [1]
Al ocultar parcialmente o hacer invisibles o menos prominentes las contribuciones de un usuario para otros miembros del servicio, se puede esperar que, en ausencia de reacciones a sus comentarios, el usuario problemático o desfavorecido se aburra o se frustre y abandone el sitio, y que los spammers y trolls se desanimen [2] de continuar con su comportamiento no deseado o crear nuevas cuentas . [3] [4]
A mediados de la década de 1980, los foros BBS, incluido el software Citadel BBS, tenían un "bit de twit" para usuarios problemáticos [3] [5] que, cuando se habilitaba, limitaba el acceso del usuario al tiempo que le permitía leer discusiones públicas; sin embargo, cualquier mensaje publicado por ese "twit" no sería visible para los demás miembros de ese grupo. [3] [6]
Se cree que el término "shadow ban" se originó con los moderadores del sitio web Something Awful en 2001, aunque la función solo se usó brevemente y escasamente. [3]
Michael Pryor de Fog Creek Software describió la prohibición sigilosa de foros en línea en 2006, diciendo que un sistema de este tipo estaba en funcionamiento en el sistema de gestión de proyectos FogBugz , "para resolver el problema de cómo hacer que la persona se vaya y te deje en paz". Además de evitar que los usuarios problemáticos se involucraran en guerras de comentarios , el sistema también desalentaba a los spammers , quienes si regresaban al sitio tendrían la falsa impresión de que su spam todavía estaba en su lugar. [4] The Verge lo describe como "uno de los trucos de moderación más antiguos del libro", señalando que las primeras versiones de vBulletin tenían una lista de ignorados global conocida como "Tachy goes to Coventry", [7] como en la expresión británica " to send someone to Coventry ", que significa ignorarlos y fingir que no existen.
Una actualización de 2012 de Hacker News introdujo un sistema de "hellbanning" para el spam y el comportamiento abusivo. [8] [9]
Al principio, Reddit implementó una función similar, diseñada inicialmente para abordar las cuentas de spam. [10] En 2015, Reddit agregó una función de suspensión de cuentas que se decía que había reemplazado sus shadowbans en todo el sitio, aunque los moderadores aún pueden shadowbanear a los usuarios de sus subreddits individuales a través de su configuración de AutoModerator. [11] Un usuario de Reddit fue baneado accidentalmente durante un año en 2019, posteriormente se comunicó con el soporte y sus comentarios fueron restaurados. [12]
Un estudio de tuits escritos en un período de un año durante 2014 y 2015 encontró que más de un cuarto de millón de tuits habían sido censurados en Turquía mediante la técnica shadow banning. [13] También se descubrió, en 2015, que Twitter había prohibido en forma oculta tuits que contenían documentos filtrados en los EE. UU. [14] [15]
También se sabe que Craigslist "oculta" los anuncios individuales de un usuario, por lo que el anunciante recibe un correo electrónico de confirmación y puede ver el anuncio en su cuenta, pero el anuncio no aparece en la página de categoría correspondiente. [16]
En 2016 se descubrió que WeChat había prohibido, sin ninguna notificación al usuario, publicaciones y mensajes que contenían varias combinaciones de al menos 174 palabras clave, incluidas "习包子" ( Xi Bao Zi ), "六四天安门" ( 4 de junio Tiananmen ), "藏青会" ( Congreso de la Juventud Tibetana ) y "ئاللاھ يولىدا" (en el camino de Alá ). [17] [18] Los mensajes que contienen estas palabras clave parecerían haber sido enviados con éxito, pero no serían visibles en el extremo receptor.
En 2017, el fenómeno se observó en Instagram , donde las publicaciones que incluían hashtags específicos no aparecían cuando esos hashtags se usaban en las búsquedas. [19] [20] [21]
El "shadow banning" se popularizó en 2018 como una teoría de la conspiración cuando Twitter baneó en la sombra a algunos republicanos. [22] A fines de julio de 2018, Vice News descubrió que varios partidarios del Partido Republicano de los EE. UU. ya no aparecían en el menú de búsqueda desplegable de Twitter, lo que limitaba su visibilidad cuando se los buscaba; Vice News alegó que se trataba de un caso de shadow banning. [22] [23] Después de la historia, algunos conservadores acusaron a Twitter de implementar un shadowban en las cuentas republicanas, una afirmación que Twitter negó. [24] Sin embargo, algunas cuentas que no eran abiertamente políticas o conservadoras aparentemente tenían el mismo algoritmo aplicado a ellas. [25] Numerosos medios de comunicación, incluidos The New York Times , The Guardian , Buzzfeed News , Engadget y la revista New York , cuestionaron la historia de Vice News . [24] [26] [27] [28] [29] [30] En una publicación de blog, Twitter dijo que el uso de la frase "shadow banning" era inexacto, ya que los tweets aún eran visibles al navegar a la página de inicio de la cuenta relevante. [31] En la publicación del blog, Twitter afirma que no realiza shadow banning al usar la definición "antigua, estrecha y clásica" de shadow banning. [32] Más tarde, Twitter pareció haber ajustado su plataforma para ya no limitar la visibilidad de algunas cuentas. [33] En un estudio de investigación que examinó más de 2,5 millones de perfiles de Twitter, se descubrió que casi uno de cada 40 había sido shadowbaneado al tener sus respuestas ocultas o tener sus nombres de usuario ocultos en las búsquedas. [34] [35]
Durante los secuestros de cuentas de Twitter de 2020 , los piratas informáticos lograron obtener acceso a las herramientas de moderación interna de Twitter mediante ingeniería social y sobornando a un empleado de Twitter. [36] A través de esto, se filtraron imágenes de una página de resumen de cuenta interna, que a su vez reveló "banderas" de usuario establecidas por el sistema que confirmaron la existencia de prohibiciones en la sombra en Twitter. Las cuentas fueron marcadas con términos como "Tendencias en la lista negra" y "Búsqueda en la lista negra", lo que implica que el usuario no podía ser tendencia públicamente o aparecer en los resultados de búsqueda públicos. Después de que se resolvió la situación, Twitter enfrentó acusaciones de censura con afirmaciones de que estaban tratando de ocultar la existencia de prohibiciones en la sombra al eliminar tweets que contenían imágenes de las herramientas del personal interno utilizadas. Sin embargo, Twitter afirmó que fueron eliminados porque revelaron información confidencial del usuario. [37]
El 8 de diciembre de 2022, el segundo hilo de Twitter Files (una serie de hilos de Twitter basados en documentos internos de Twitter, Inc. compartidos por el propietario Elon Musk con los periodistas independientes Matt Taibbi y Bari Weiss) abordó una práctica a la que la dirección anterior de Twitter se refirió como "filtrado de visibilidad". La funcionalidad incluía herramientas que permitían etiquetar las cuentas como "No amplificar" y ponerlas en "listas negras" que reducen su prominencia en los resultados de búsqueda y los temas de tendencia. También se reveló que a ciertas cuentas conservadoras, como la ultraderechista Libs of TikTok , se les había dado una advertencia que indicaba que las decisiones con respecto a ellas solo debían ser tomadas por el equipo de Política de integridad del sitio, soporte de escalada de políticas (SIP-PES) de Twitter, que consta principalmente de funcionarios de alto rango. Las funciones fueron dadas por Musk y otros críticos como ejemplos de "prohibición en la sombra". [38] [39] [40]
Se ha vuelto popular una forma de teoría de la conspiración en la que un creador de contenido de redes sociales sugiere que su contenido ha sido suprimido intencionalmente por una plataforma que afirma no realizar prohibiciones en la sombra. [41] Las plataformas que con frecuencia son objeto de estas acusaciones incluyen Twitter , [3] Facebook , [27] YouTube e Instagram . [41]
Para explicar por qué los usuarios pueden llegar a creer que están sujetos a "prohibiciones ocultas" incluso cuando no es así, Elaine Moore del Financial Times escribe: [41]
Al igual que los conductores de Uber y los repartidores de Deliveroo, los influencers de las redes sociales están a merced de los algoritmos, lo que los convierte en el material perfecto para las teorías conspirativas. También tiene sentido que los influencers se sientan desconcertados por cualquier disminución repentina de la interacción y se asusten por los cambios que podrían poner en peligro los acuerdos con las marcas que firman. En lugar de creer que su propia popularidad está disminuyendo, algunos se aferran a la idea de que los shadowbans son una medida disciplinaria que se utiliza contra los creadores que no justifican una prohibición total de una plataforma.
Una de las cosas que hicimos en FogBugz para resolver el problema de cómo hacer que la persona se vaya y te deje en paz es, bueno, tomar su publicación y hacerla invisible para todos los demás, pero ellos aún la ven. No sabrán que han sido eliminados. No hay nadie que avive su llama. No puedes entrar en una guerra de llamas si nadie responde a tu crítica. Entonces se silencian y finalmente simplemente se van. Tenemos varias formas de saber si vuelven, y se ha demostrado que es extremadamente, extremadamente eficaz. Digamos que un spammer publica en tu tablero y luego regresa para verificar si todavía está allí, y lo ve (para ellos todavía está allí), pero nadie más lo ve, por lo que no les molesta.