stringtranslate.com

Borrador: Semicensura en línea

La semicensura en línea es la censura de Internet llevada a cabo en gran parte o en su totalidad por entidades no gubernamentales que no eliminan ni censuran el contenido, sino que sólo limitan o eliminan sustancialmente su alcance.

Métodos

Despotenciamiento

Esta práctica se refiere a ocultar o degradar contenido para reducir su visibilidad. Por ejemplo, una respuesta puede ser movida más cerca del final de la sección de respuestas , que puede estar oculta detrás de un panel plegable que requiere que un usuario presione un botón "mostrar más" en lugar del desplazamiento infinito habitual. Esto también puede incluir el bloqueo de contenido del sistema de notificaciones de una plataforma . Teóricamente, tales restricciones de visibilidad también pueden ser personalizadas para audiencias específicas para ocultar un elemento de ciertas cohortes, IP o grupos demográficos, pero no de otros. [1] Se pueden implementar varias técnicas para despotenciar publicaciones específicas o las publicaciones de un usuario específico, como involucrar retrasos. [2]

En Twitter, los usuarios solo ven una pequeña nota que dice "Error al enviar el mensaje" cuando no pueden comunicarse con un usuario por razones no especificadas.

Ahogamiento selectivo de contenidos

La censura directa puede ser complementada o suplantada por "ejércitos de trolls" privados o bandas de individuos y/o robots programados para ahogar el discurso desfavorecido. [3] La amplificación injusta de publicaciones de grupos, individuos o grupos demográficos seleccionados también puede ahogar otros contenidos.

Eliminación de publicaciones relacionadas con temas o reclamaciones específicas

Por ejemplo, a principios de la década de 2020, muchas plataformas en línea como Facebook censuraron o suprimieron publicaciones e información relacionadas con la hipótesis de la fuga de laboratorio de COVID-19, que en ningún momento ha sido refutada científicamente. Esta medida fue posteriormente desestimada y generó una gran controversia. [4] [5] [6]

Investigación

Un estudio de 2018 concluyó que cada vez hay más demandas de regular a las empresas de las principales plataformas en línea y hacerlas más responsables, y describió una agenda de investigación interdisciplinaria para la gobernanza de las plataformas. [7] La ​​rendición de cuentas algorítmica se relaciona tanto con la opacidad intrínseca de los procesos computacionales como con la falta de transparencia en la gobernanza de las plataformas. [8] Según un libro de 2023, las noticias y la información pública que perciben los ciudadanos "ya no están determinadas únicamente por los periodistas, sino cada vez más por algoritmos", que "afectan la exposición a información diversa y desinformación y dan forma al comportamiento de los comunicadores profesionales". [9] Las recomendaciones clave de un informe de la OSCE incluyen "Asegurarse de que existan mecanismos de reparación sólidos contra la censura y el poder de vigilancia, incluso mediante revisión humana y mecanismos de apelación independientes". [10] Muchos informes asumen que las publicaciones suprimidas están constituidas en gran medida por desinformación o contenidos maliciosos similares. La investigación también puede investigar enfoques alternativos a algunas de las razones más aceptadas para la semicensura, como la clasificación asistida por computadora de, por ejemplo, afirmaciones que contienen información errónea para permitir una corrección a gran escala (a través de enfoques como las Notas de la comunidad de Twitter o respuestas debajo de ellas) sin ocultar o eliminar directamente las publicaciones. [11] [12] También se encontró que la semicensura está presente en la propia literatura científica, donde a veces se suprimen las ideas que "desafían los paradigmas científicos o editoriales actuales". [13]

Por plataforma

Gorjeo

Las publicaciones suelen estar ocultas bajo "Mostrar más respuestas". La semicensura puede ocurrir sin que el tuit respectivo infrinja ninguna política y sin que el usuario reciba ninguna explicación.
Contenido que se muestra en lugar de los tweets ocultos. En muchos casos, debajo de este mensaje también se ocultan tweets que no contienen lenguaje ofensivo o, por ejemplo, verdades incómodas que ofendan a algunos usuarios.

Las políticas de Twitter han sido descritas como sujetas a manipulación por parte de los usuarios que pueden coordinarse para marcar tweets políticamente controversiales como presuntamente violando las políticas de la plataforma, lo que resulta en la exclusión de la plataforma de usuarios controversiales o usuarios que hicieron tweets a los que se oponen. [14] La plataforma ha sido criticada durante mucho tiempo por su fracaso en proporcionar detalles de supuestas violaciones de políticas subyacentes a los sujetos de suspensiones y prohibiciones de Twitter. [15]

En 2018, la plataforma introdujo la posibilidad de ocultar tuits de determinadas cuentas en conversaciones y resultados de búsqueda en "Mostrar más respuestas". Cuando el software de Twitter decide que un determinado usuario está "distrayendo de la conversación", los tuits de ese usuario se ocultarán de los resultados de búsqueda y conversaciones públicas hasta que se produzca un cambio no especificado, sin que el usuario sea consciente de que está siendo semicensurado de esta manera o por qué. [16] Los estudios han denominado a la ocultación "despotenciación de respuestas" y han descubierto que el 6,2% de las 41.092 cuentas existentes en su conjunto de datos habían sido baneadas en la sombra al menos una vez durante el período de estudio. [17] [18] A partir de 2023, no hay ningún lugar para denunciar la ocultación injustificada de tuits, ni existen medidas para garantizar que la ocultación no sea arbitraria o con fines cuestionables, como intereses comerciales. A través de estas y otras funciones, plataformas como Twitter llevan a cabo una "gestión de visibilidades" poco transparente que dirige y empuja a las audiencias de formas más o menos sutiles. [18]

Durante varios años, muchos usuarios de las redes sociales han expresado su preocupación por la supresión algorítmica . [19] Es posible que varios de esos usuarios hayan recopilado tuits específicos que se han ocultado. Sin embargo, según un informe de noticias de 2022, "[l]as empresas de redes sociales niegan haber suprimido contenido silenciosamente". Un estudio rastreó más de 2,5 millones de perfiles de Twitter y descubrió que casi uno de cada 40 tenía sus tuits ocultos. [20] [21] Los tuits ocultos de esta manera no aparecen en las notificaciones de la persona a la que se respondió y la mayoría de las personas que navegan por un hilo de Twitter pueden no hacer clic en el botón para ver respuestas adicionales. Un estudio sobre las prácticas de "silenciamiento" de los usuarios en las redes sociales sugiere que el hecho de que los algoritmos desempeñen un papel fundamental a la hora de dirigir la atención en línea en las redes sociales tiene implicaciones para la responsabilidad algorítmica. [22] En 2022, se informó de que Musk no aclaró qué métricas podría utilizar Twitter para determinar si un tuit puede ser "incorrecto y malo" o "destructivo para el mundo". [23] Aclaró que “la libertad de expresión no significa libertad de alcance”, lo que puede subrayar cómo él y la plataforma pueden seguir ocultando o deshabilitando cualquier contenido por razones no especificadas. [24]

Incidentes

En 2018, Twitter implementó un "filtro de calidad" que ocultaba contenido y usuarios considerados de "baja calidad" de los resultados de búsqueda y limitaba su visibilidad, lo que llevó a acusaciones de prohibición en la sombra . Después de que los conservadores afirmaran que censura a los usuarios de la derecha política, Alex Thompson, un escritor de VICE , confirmó que muchos políticos republicanos prominentes habían sido "prohibidos en la sombra" por el filtro. [25] Twitter reconoció más tarde el problema, afirmando que el filtro tenía un error de software que se solucionaría en un futuro próximo. [25]

En octubre de 2020, Twitter impidió a los usuarios tuitear sobre un artículo del New York Post sobre la teoría de la conspiración Biden-Ucrania , relacionada con correos electrónicos sobre Hunter Biden que supuestamente presentaba a un empresario ucraniano a su padre, Joe Biden . [26] Los senadores Marsha Blackburn y Ted Cruz describieron el bloqueo del New York Post en Twitter como "interferencia electoral". [27] El New York Times informó en septiembre de 2021 que una investigación de la Comisión Federal Electoral sobre una queja sobre el asunto encontró que Twitter había actuado con una razón comercial válida, en lugar de un propósito político. La investigación de la FEC también encontró que las acusaciones de que Twitter había violado las leyes electorales al supuestamente prohibir en la sombra a los republicanos y otros medios eran "vagas, especulativas y no respaldadas por la información disponible". [28]

En 2023, bajo la propiedad de Elon Musk, las publicaciones que contenían la palabra clave " Substack " fueron restringidas temporalmente y se impidió dar me gusta, compartir y buscar dichos tweets. [29] Matt Taibbi , autor de Twitter Files , también fue baneado temporalmente. [30]

Reddit

Reddit utiliza un enfoque descentralizado para moderar el contenido, combinando su filtro de spam algorítmico con moderadores que pueden aprobar o eliminar cualquier publicación, así como prohibir el acceso a cualquier usuario de su sitio (o "subreddit") por cualquier motivo [31] [32], aunque los usuarios pueden enviar un mensaje a los moderadores pidiendo una explicación que, en ocasiones, pueden recibir. [33] Al igual que en Twitter, no existe un proceso estandarizado para apelar contra la eliminación de contenido. [34] Esto significa que los subreddits grandes, a menudo sin una alternativa notable, también pueden aprobar o eliminar publicaciones, establecer reglas limitadas para los subreddits o prohibir el acceso a usuarios en función de sus opiniones políticas personales, intereses comerciales o cualquier otra razón no revelada. Un estudio concluyó que "la moderación trae consigo las inevitables cuestiones de notificación y proporcionalidad de la sanción, por no mencionar la cuestión de quién juzga". [35]

TikTok

Instagram

Facebook

Véase también

Referencias

  1. ^ Leerssen, Paddy (1 de abril de 2023). "¿El fin de la prohibición en la sombra? Los derechos de transparencia en la Ley de Servicios Digitales entre la moderación y la curación de contenidos". Computer Law & Security Review . 48 : 105790. doi : 10.1016/j.clsr.2023.105790 . ISSN  0267-3649.
  2. ^ Rosen, Jeffrey (12 de septiembre de 2018). "Estados Unidos está viviendo la pesadilla de James Madison". The Atlantic . Consultado el 19 de septiembre de 2023. Pero estas y otras soluciones podrían tener implicaciones en la Primera Enmienda . "El carácter democrático de Internet en sí mismo plantea una amenaza a la democracia, y no hay una solución clara para el problema", me dijo Persily. "La censura, el retraso, la degradación de la información en línea, la disuasión y la dilución de contenido malo: todos plantean problemas clásicos de libertad de expresión, y todos deberían estar preocupados en cada paso del desfile regulatorio del gobierno".
  3. ^ "Cambios de paradigma en la ética de las TIC. Actas de ETHICOMP 2020" (PDF) . Consultado el 19 de septiembre de 2023 .
  4. ^ Stephens, Bret (31 de mayo de 2021). «Opinión | Pensamiento grupal de los medios y la teoría de la fuga de laboratorio». The New York Times . Consultado el 19 de septiembre de 2023 .
  5. ^ Hern, Alex (27 de mayo de 2021). «Facebook levanta la prohibición de publicaciones que afirman que el Covid-19 fue provocado por el hombre». The Guardian . Consultado el 19 de septiembre de 2023 .
  6. ^ Lima, Cristiano (27 de febrero de 2023). «Análisis | Nuevo informe sobre el origen del covid-19 pone a las redes sociales en la mira del Partido Republicano». Washington Post . Consultado el 19 de septiembre de 2023 .
  7. ^ Gorwa, Robert (12 de mayo de 2019). "¿Qué es la gobernanza de plataformas?". Información, comunicación y sociedad . 22 (6): 854–871. doi :10.1080/1369118X.2019.1573914. ISSN  1369-118X.
  8. ^ Kim, Kitae; Moon, Shin-Il (mayo de 2021). "Cuando la transparencia algorítmica falló: controversias sobre la curación de contenido impulsada por algoritmos en el entorno digital de Corea del Sur". Científico del comportamiento estadounidense . 65 (6): 847–862. doi :10.1177/0002764221989783. ISSN  0002-7642.
  9. ^ Dalen, Arjen van. Control algorítmico para comunicadores profesionales: poder, confianza y legitimidad. ISBN 9781003375258.
  10. ^ "La inteligencia artificial y la libertad de expresión en el punto de mira: un manual de políticas" (PDF) . Consultado el 19 de septiembre de 2023 .
  11. ^ Coan, Travis G.; Boussalis, Constantine; Cook, John; Nanko, Mirjam O. (16 de noviembre de 2021). "Clasificación asistida por computadora de afirmaciones contrarias sobre el cambio climático". Scientific Reports . 11 (1): 22320. doi :10.1038/s41598-021-01714-4. ISSN  2045-2322.
  12. ^ Zhu, Wanzheng; Bhat, Suma. "Generar, podar, seleccionar: un canal para la generación de contradiscursos contra el discurso de odio en línea".
  13. ^ Shaw, David M.; Penders, Bart (1 de septiembre de 2018). "Guardianes de la recompensa: un estudio piloto sobre la ética de la edición y evaluaciones competitivas del valor". Revista de ética académica . 16 (3): 211–223. doi :10.1007/s10805-018-9305-6. ISSN  1572-8544.
  14. ^ Holt, Kris (12 de junio de 2012). «Política digital sucia: cómo los usuarios manipulan Twitter para silenciar a sus enemigos». The Daily Dot . Archivado desde el original el 12 de diciembre de 2018.
  15. ^ Ohlheiser, Abby (22 de julio de 2016). "Esto es lo que se necesita para que te baneen de Twitter". Hamilton Spectator . Archivado desde el original el 7 de noviembre de 2017.
  16. ^ Oremus, Will (15 de mayo de 2018). "Twitter comenzará a ocultar los tuits que "distraen de la conversación"". Slate . Consultado el 19 de septiembre de 2023 .
  17. ^ Jaidka, Kokil; Mukerjee, Subhayan; Lelkes, Yphtach. "Una auditoría de las sanciones shadowban de Twitter en Estados Unidos" . Consultado el 19 de septiembre de 2023 .
  18. ^ ab Leerssen, Paddy (1 de abril de 2023). "¿El fin de la prohibición en la sombra? Los derechos de transparencia en la Ley de Servicios Digitales entre la moderación y la curación de contenidos". Computer Law & Security Review . 48 : 105790. doi : 10.1016/j.clsr.2023.105790 . ISSN  0267-3649.
  19. ^ Tiffany, Kaitlyn (17 de enero de 2023). "Elon Musk no puede resolver el problema del 'shadowbanning' de Twitter". The Atlantic . Consultado el 19 de septiembre de 2023 .
  20. ^ Nicholas, Gabriel (28 de abril de 2022). "El shadowbanning es el gran problema de las grandes tecnológicas". The Atlantic . Consultado el 19 de septiembre de 2023 .
  21. ^ Le Merrer, Erwan; Morgan, Benoit; Trédan, Gilles (2020). "Aclarando las cosas sobre la prohibición en la sombra". arXiv : 2012.05101 [cs.SI].
  22. ^ Jaidka, Kokil; Mukerjee, Subhayan; Lelkes, Yphtach (1 de abril de 2023). "Silenciados en las redes sociales: las funciones de control de acceso de los shadowbans en el universo estadounidense de Twitter". Revista de comunicación . 73 (2): 163–178. doi :10.1093/joc/jqac050.
  23. ^ Fung, Brian; Duffy, Clare (10 de mayo de 2022). "Elon Musk dice que revertiría la prohibición de Trump a Twitter | CNN Business". CNN . Consultado el 19 de septiembre de 2023 .
  24. ^ Francesco, Lomonaco. "Concienciar a los adolescentes sobre las amenazas de las redes sociales: un estudio teórico y empírico". boa.unimib.it .
  25. ^ ab Thompson, Alex (26 de julio de 2018). "Twitter parece haber solucionado los problemas de búsqueda que redujeron la visibilidad de los legisladores republicanos". VICE News . Archivado desde el original el 2 de agosto de 2018. Consultado el 6 de agosto de 2018 .
  26. ^ Mihalcik, Carrie; Wong, Queenie (14 de octubre de 2020). "Facebook y Twitter limitan el alcance del artículo del New York Post sobre Hunter Biden". CNET .
  27. ^ Isaac, Mike; Conger, Kate (22 de octubre de 2020) [15 de octubre de 2020]. «Twitter cambia de rumbo después de que los republicanos denunciaran una 'interferencia electoral'». The New York Times . Consultado el 9 de enero de 2021 .
  28. ^ Goldmacher, Shane (13 de septiembre de 2021). "La FEC rechaza las afirmaciones de que Twitter bloqueó ilegalmente un artículo de Hunter Biden". The New York Times .
  29. ^ "Twitter pone fin, por ahora, a la censura de los boletines de noticias de Substack". The Hindu . 11 de abril de 2023. ISSN  0971-751X . Consultado el 25 de abril de 2023 .
  30. ^ "El periodista Matt Taibbi de Twitter Files fue 'baneado en la sombra' por Elon Musk". 11 de abril de 2023. Consultado el 25 de abril de 2023 .
  31. ^ Garofalo, Emma (16 de enero de 2022). "¿Qué hace un moderador de Reddit?". MUO . Consultado el 20 de septiembre de 2023 .
  32. ^ Sottek, TC (15 de octubre de 2012). "Usuario de Reddit baneado, luego restaurado, mientras los moderadores luchan con historias críticas del sitio". The Verge . Consultado el 20 de septiembre de 2023 . Si bien los propietarios de Reddit pueden argumentar que sus políticas son propicias para el crecimiento y la libertad (después de todo, cualquiera de los 1,9 millones de lectores de r/technology son técnicamente libres de separarse y comenzar su propio subreddit), es evidente que un pequeño grupo de moderadores voluntarios está suprimiendo sistemáticamente a los usuarios y las historias, lo que llama aún más la atención sobre su capacidad para censurar la discusión abierta en el sitio. Cuando se le preguntó sobre el reciente aumento de la censura, el gerente general de Reddit, Erik Martin, nos dijo que "los moderadores son libres de banear a quien quieran por cualquier motivo. No tratamos a los subreddits grandes de manera diferente a los pequeños". Martin admitió que "no es un sistema perfecto, no es un mercado fluido, pero hemos visto casos en los que los moderadores de un determinado subreddit adoptan una política sutil y la gente inicia nuevos subreddits o se muda a otros".
  33. ^ "Moderar el contenido en línea aumenta la responsabilidad, pero puede perjudicar a algunos usuarios de la plataforma". Noticias de la Universidad de Michigan . 27 de julio de 2022 . Consultado el 20 de septiembre de 2023 .
  34. ^ Juneja, Prerna; Rama Subramanian, Deepika; Mitra, Tanushree (4 de enero de 2020). "A través del espejo: estudio de la transparencia en las prácticas de moderación de Reddit". Actas de la ACM sobre interacción hombre-ordenador . 4 : 17:1–17:35. doi :10.1145/3375197.
  35. ^ Koh, Steven (1 de enero de 2022). ""Cultura de la cancelación" y justicia penal". Hastings Law Journal . 74 (1): 79.