La semicensura en línea es la censura de Internet llevada a cabo en gran parte o en su totalidad por entidades no gubernamentales que no eliminan ni censuran el contenido, sino que sólo limitan o eliminan sustancialmente su alcance.
Esta práctica se refiere a ocultar o degradar contenido para reducir su visibilidad. Por ejemplo, una respuesta puede ser movida más cerca del final de la sección de respuestas , que puede estar oculta detrás de un panel plegable que requiere que un usuario presione un botón "mostrar más" en lugar del desplazamiento infinito habitual. Esto también puede incluir el bloqueo de contenido del sistema de notificaciones de una plataforma . Teóricamente, tales restricciones de visibilidad también pueden ser personalizadas para audiencias específicas para ocultar un elemento de ciertas cohortes, IP o grupos demográficos, pero no de otros. [1] Se pueden implementar varias técnicas para despotenciar publicaciones específicas o las publicaciones de un usuario específico, como involucrar retrasos. [2]
La censura directa puede ser complementada o suplantada por "ejércitos de trolls" privados o bandas de individuos y/o robots programados para ahogar el discurso desfavorecido. [3] La amplificación injusta de publicaciones de grupos, individuos o grupos demográficos seleccionados también puede ahogar otros contenidos.
Por ejemplo, a principios de la década de 2020, muchas plataformas en línea como Facebook censuraron o suprimieron publicaciones e información relacionadas con la hipótesis de la fuga de laboratorio de COVID-19, que en ningún momento ha sido refutada científicamente. Esta medida fue posteriormente desestimada y generó una gran controversia. [4] [5] [6]
Un estudio de 2018 concluyó que cada vez hay más demandas de regular a las empresas de las principales plataformas en línea y hacerlas más responsables, y describió una agenda de investigación interdisciplinaria para la gobernanza de las plataformas. [7] La rendición de cuentas algorítmica se relaciona tanto con la opacidad intrínseca de los procesos computacionales como con la falta de transparencia en la gobernanza de las plataformas. [8] Según un libro de 2023, las noticias y la información pública que perciben los ciudadanos "ya no están determinadas únicamente por los periodistas, sino cada vez más por algoritmos", que "afectan la exposición a información diversa y desinformación y dan forma al comportamiento de los comunicadores profesionales". [9] Las recomendaciones clave de un informe de la OSCE incluyen "Asegurarse de que existan mecanismos de reparación sólidos contra la censura y el poder de vigilancia, incluso mediante revisión humana y mecanismos de apelación independientes". [10] Muchos informes asumen que las publicaciones suprimidas están constituidas en gran medida por desinformación o contenidos maliciosos similares. La investigación también puede investigar enfoques alternativos a algunas de las razones más aceptadas para la semicensura, como la clasificación asistida por computadora de, por ejemplo, afirmaciones que contienen información errónea para permitir una corrección a gran escala (a través de enfoques como las Notas de la comunidad de Twitter o respuestas debajo de ellas) sin ocultar o eliminar directamente las publicaciones. [11] [12] También se encontró que la semicensura está presente en la propia literatura científica, donde a veces se suprimen las ideas que "desafían los paradigmas científicos o editoriales actuales". [13]
Las políticas de Twitter han sido descritas como sujetas a manipulación por parte de los usuarios que pueden coordinarse para marcar tweets políticamente controversiales como presuntamente violando las políticas de la plataforma, lo que resulta en la exclusión de la plataforma de usuarios controversiales o usuarios que hicieron tweets a los que se oponen. [14] La plataforma ha sido criticada durante mucho tiempo por su fracaso en proporcionar detalles de supuestas violaciones de políticas subyacentes a los sujetos de suspensiones y prohibiciones de Twitter. [15]
En 2018, la plataforma introdujo la posibilidad de ocultar tuits de determinadas cuentas en conversaciones y resultados de búsqueda en "Mostrar más respuestas". Cuando el software de Twitter decide que un determinado usuario está "distrayendo de la conversación", los tuits de ese usuario se ocultarán de los resultados de búsqueda y conversaciones públicas hasta que se produzca un cambio no especificado, sin que el usuario sea consciente de que está siendo semicensurado de esta manera o por qué. [16] Los estudios han denominado a la ocultación "despotenciación de respuestas" y han descubierto que el 6,2% de las 41.092 cuentas existentes en su conjunto de datos habían sido baneadas en la sombra al menos una vez durante el período de estudio. [17] [18] A partir de 2023, no hay ningún lugar para denunciar la ocultación injustificada de tuits, ni existen medidas para garantizar que la ocultación no sea arbitraria o con fines cuestionables, como intereses comerciales. A través de estas y otras funciones, plataformas como Twitter llevan a cabo una "gestión de visibilidades" poco transparente que dirige y empuja a las audiencias de formas más o menos sutiles. [18]
Durante varios años, muchos usuarios de las redes sociales han expresado su preocupación por la supresión algorítmica . [19] Es posible que varios de esos usuarios hayan recopilado tuits específicos que se han ocultado. Sin embargo, según un informe de noticias de 2022, "[l]as empresas de redes sociales niegan haber suprimido contenido silenciosamente". Un estudio rastreó más de 2,5 millones de perfiles de Twitter y descubrió que casi uno de cada 40 tenía sus tuits ocultos. [20] [21] Los tuits ocultos de esta manera no aparecen en las notificaciones de la persona a la que se respondió y la mayoría de las personas que navegan por un hilo de Twitter pueden no hacer clic en el botón para ver respuestas adicionales. Un estudio sobre las prácticas de "silenciamiento" de los usuarios en las redes sociales sugiere que el hecho de que los algoritmos desempeñen un papel fundamental a la hora de dirigir la atención en línea en las redes sociales tiene implicaciones para la responsabilidad algorítmica. [22] En 2022, se informó de que Musk no aclaró qué métricas podría utilizar Twitter para determinar si un tuit puede ser "incorrecto y malo" o "destructivo para el mundo". [23] Aclaró que “la libertad de expresión no significa libertad de alcance”, lo que puede subrayar cómo él y la plataforma pueden seguir ocultando o deshabilitando cualquier contenido por razones no especificadas. [24]
En 2018, Twitter implementó un "filtro de calidad" que ocultaba contenido y usuarios considerados de "baja calidad" de los resultados de búsqueda y limitaba su visibilidad, lo que llevó a acusaciones de prohibición en la sombra . Después de que los conservadores afirmaran que censura a los usuarios de la derecha política, Alex Thompson, un escritor de VICE , confirmó que muchos políticos republicanos prominentes habían sido "prohibidos en la sombra" por el filtro. [25] Twitter reconoció más tarde el problema, afirmando que el filtro tenía un error de software que se solucionaría en un futuro próximo. [25]
En octubre de 2020, Twitter impidió a los usuarios tuitear sobre un artículo del New York Post sobre la teoría de la conspiración Biden-Ucrania , relacionada con correos electrónicos sobre Hunter Biden que supuestamente presentaba a un empresario ucraniano a su padre, Joe Biden . [26] Los senadores Marsha Blackburn y Ted Cruz describieron el bloqueo del New York Post en Twitter como "interferencia electoral". [27] El New York Times informó en septiembre de 2021 que una investigación de la Comisión Federal Electoral sobre una queja sobre el asunto encontró que Twitter había actuado con una razón comercial válida, en lugar de un propósito político. La investigación de la FEC también encontró que las acusaciones de que Twitter había violado las leyes electorales al supuestamente prohibir en la sombra a los republicanos y otros medios eran "vagas, especulativas y no respaldadas por la información disponible". [28]
En 2023, bajo la propiedad de Elon Musk, las publicaciones que contenían la palabra clave " Substack " fueron restringidas temporalmente y se impidió dar me gusta, compartir y buscar dichos tweets. [29] Matt Taibbi , autor de Twitter Files , también fue baneado temporalmente. [30]
Reddit utiliza un enfoque descentralizado para moderar el contenido, combinando su filtro de spam algorítmico con moderadores que pueden aprobar o eliminar cualquier publicación, así como prohibir el acceso a cualquier usuario de su sitio (o "subreddit") por cualquier motivo [31] [32], aunque los usuarios pueden enviar un mensaje a los moderadores pidiendo una explicación que, en ocasiones, pueden recibir. [33] Al igual que en Twitter, no existe un proceso estandarizado para apelar contra la eliminación de contenido. [34] Esto significa que los subreddits grandes, a menudo sin una alternativa notable, también pueden aprobar o eliminar publicaciones, establecer reglas limitadas para los subreddits o prohibir el acceso a usuarios en función de sus opiniones políticas personales, intereses comerciales o cualquier otra razón no revelada. Un estudio concluyó que "la moderación trae consigo las inevitables cuestiones de notificación y proporcionalidad de la sanción, por no mencionar la cuestión de quién juzga". [35]
"El carácter democrático de Internet en sí mismo plantea una amenaza a la democracia, y no hay una solución clara para el problema", me dijo Persily. "La censura, el retraso, la degradación de la información en línea, la disuasión y la dilución de contenido malo: todos plantean problemas clásicos de libertad de expresión, y todos deberían estar preocupados en cada paso del desfile regulatorio del gobierno".
Si bien los propietarios de Reddit pueden argumentar que sus políticas son propicias para el crecimiento y la libertad (después de todo, cualquiera de los 1,9 millones de lectores de r/technology son técnicamente libres de separarse y comenzar su propio subreddit), es evidente que un pequeño grupo de moderadores voluntarios está suprimiendo sistemáticamente a los usuarios y las historias, lo que llama aún más la atención sobre su capacidad para censurar la discusión abierta en el sitio. Cuando se le preguntó sobre el reciente aumento de la censura, el gerente general de Reddit, Erik Martin, nos dijo que "los moderadores son libres de banear a quien quieran por cualquier motivo. No tratamos a los subreddits grandes de manera diferente a los pequeños". Martin admitió que "no es un sistema perfecto, no es un mercado fluido, pero hemos visto casos en los que los moderadores de un determinado subreddit adoptan una política sutil y la gente inicia nuevos subreddits o se muda a otros".