stringtranslate.com

Moderación de contenido

Moderación de comentarios en una discusión de GitHub , donde un usuario llamado Mallory eliminó varios comentarios antes de cerrar la discusión y bloquearla.

En los sitios web de Internet que invitan a los usuarios a publicar comentarios, la moderación de contenido es el proceso de detectar contribuciones irrelevantes, obscenas, ilegales, dañinas o insultantes, en contraste con contribuciones útiles o informativas, frecuentemente con fines de censura o supresión de puntos de vista opuestos. El propósito de la moderación de contenido es eliminar o aplicar una etiqueta de advertencia al contenido problemático o permitir a los usuarios bloquear y filtrar el contenido ellos mismos. [1]

Varios tipos de sitios de Internet permiten contenido generado por el usuario , como comentarios, incluidos foros de Internet , blogs y sitios de noticias impulsados ​​por scripts como phpBB , Wiki o PHP-Nuke . y etc. Dependiendo del contenido del sitio y del público objetivo, los administradores del sitio decidirán qué tipos de comentarios de los usuarios son apropiados y luego delegarán la responsabilidad de examinar los comentarios a moderadores menores . En la mayoría de los casos, intentarán eliminar el trolling , el spam o el flaming , aunque esto varía mucho de un sitio a otro.

Las principales plataformas utilizan una combinación de herramientas algorítmicas, informes de usuarios y revisión humana. [1] Los sitios de redes sociales también pueden emplear moderadores de contenido para inspeccionar o eliminar manualmente el contenido marcado por incitación al odio u otro contenido objetable. Otros temas de contenido incluyen pornografía de venganza , contenido gráfico , material de abuso infantil y propaganda . [1] Algunos sitios web también deben hacer que su contenido sea apto para anuncios. [1]

Moderación del supervisor

También conocido como moderación unilateral, este tipo de sistema de moderación se ve a menudo en foros de Internet . Los administradores del sitio eligen a un grupo de personas (generalmente a largo plazo) para que actúen como delegados y hagan cumplir las reglas de la comunidad en su nombre. Estos moderadores reciben privilegios especiales para eliminar o editar las contribuciones de otros y/o excluir personas según su dirección de correo electrónico o dirección IP y, en general, intentan eliminar las contribuciones negativas en toda la comunidad. Actúan como una columna vertebral invisible, apuntalando la red social en un papel crucial pero infravalorado. [2]

Facebook

A partir de 2017, Facebook había aumentado el número de moderadores de contenido de 4500 a 7500 en 2017 debido a controversias legales y de otro tipo . En Alemania, Facebook fue responsable de eliminar el discurso de odio dentro de las 24 horas siguientes a su publicación. [3] A partir de 2021, según Frances Haugen , el número de empleados de Facebook responsables de la moderación del contenido era mucho menor. [4]

Si tiene una nueva página en Facebook, puede administrar las siguientes configuraciones de moderación:

Gorjeo

El sitio de redes sociales Twitter tiene una política de suspensión . Entre agosto de 2015 y diciembre de 2017 suspendió más de 1,2 millones de cuentas por contenido terrorista en un esfuerzo por reducir el número de seguidores y la cantidad de contenido asociado con el Estado Islámico. [6] Tras la adquisición de Twitter por parte de Elon Musk en octubre de 2022, las reglas de contenido se han debilitado en toda la plataforma en un intento de priorizar la libertad de expresión. [7] Sin embargo, los efectos de esta campaña han sido cuestionados. [8]

Moderación de contenidos comerciales (CCM)

Moderación de contenido comercial es un término acuñado por Sarah T. Roberts para describir la práctica de "monitorear y examinar el contenido generado por el usuario (CGU) para plataformas de redes sociales de todo tipo, con el fin de garantizar que el contenido cumpla con las exigencias legales y reglamentarias. lineamientos del sitio/comunidad, acuerdos de usuario y que se ajuste a las normas de gusto y aceptabilidad para ese sitio y su contexto cultural". [9]

Si bien en algún momento este trabajo pudo haber sido realizado por voluntarios dentro de la comunidad en línea, en el caso de los sitios web comerciales esto se logra en gran medida subcontratando la tarea a empresas especializadas, a menudo en áreas de bajos salarios como India y Filipinas. La subcontratación de trabajos de moderación de contenidos creció como resultado del auge de las redes sociales . Con el abrumador crecimiento de usuarios y UGC, las empresas necesitaban muchos más empleados para moderar el contenido. A finales de los 80 y principios de los 90, las empresas de tecnología comenzaron a subcontratar empleos a países extranjeros que tenían una fuerza laboral educada pero que estaban dispuestos a trabajar por poco dinero. [10]

A partir de 2010, los empleados trabajan viendo, evaluando y eliminando contenido perturbador. [11] Wired informó en 2014 que pueden sufrir daños psicológicos [12] [13] [14] [2] [15] En 2017, The Guardian informó que pueden surgir traumas secundarios , con síntomas similares al trastorno de estrés postraumático . [16] Algunas grandes empresas, como Facebook, ofrecen apoyo psicológico [16] y recurren cada vez más al uso de inteligencia artificial para seleccionar los contenidos más gráficos e inapropiados, pero los críticos afirman que es insuficiente. [17] En 2019, NPR lo calificó como un riesgo laboral. [18]

Facebook

Facebook ha decidido crear una junta de supervisión que decidirá qué contenido permanece y qué contenido se elimina. Esta idea fue propuesta a finales de 2018. El "Tribunal Supremo" de Facebook sustituirá la toma de decisiones ad hoc. [18]

Moderación distribuida

Moderación de usuarios

La moderación de usuarios permite a cualquier usuario moderar las contribuciones de otros usuarios. Actualmente, miles de millones de personas toman decisiones sobre qué compartir, reenviar o dar visibilidad a diario. [19] En un sitio grande con una población activa suficientemente grande, esto generalmente funciona bien, ya que los votos del resto de la comunidad eliminan un número relativamente pequeño de alborotadores.

La moderación del usuario también puede caracterizarse por una moderación reactiva. Este tipo de moderación depende de que los usuarios de una plataforma o sitio denuncien contenido que sea inapropiado y viole los estándares de la comunidad . En este proceso, cuando los usuarios se enfrentan a una imagen o vídeo que consideran inadecuado, pueden hacer clic en el botón informar. La denuncia se presenta y se pone en cola para que los moderadores la revisen. [20]

Uso de algoritmos para la moderación de contenidos.

Ver también

Referencias

  1. ^ abcd Grygiel, Jennifer; Brown, Nina (junio de 2019). "¿Están motivadas las empresas de redes sociales para ser buenos ciudadanos corporativos? Examen de la conexión entre la responsabilidad social corporativa y la seguridad de las redes sociales". Política de Telecomunicaciones . 43 (5): 2, 3. doi :10.1016/j.telpol.2018.12.003. S2CID  158295433 . Consultado el 25 de mayo de 2022 .
  2. ^ ab "Los conserjes de datos invisibles limpian los principales sitios web: Al Jazeera America". aljazeera.com .
  3. ^ "La inteligencia artificial creará nuevos tipos de trabajo". El economista . Consultado el 2 de septiembre de 2017 .
  4. ^ Jan Böhmermann, Revista Real ZDF. Denunciante de Facebook: Frances Haugen im Talk sobre los documentos de Facebook.
  5. ^ "Acerca de la moderación de páginas nuevas en Facebook". Centro de ayuda de Meta Business . Consultado el 21 de agosto de 2023 .
  6. ^ Gartenstein-Ross, Daveed; Koduvayur, Varsha (26 de mayo de 2022). "La nueva ley de redes sociales de Texas creará un refugio para los extremistas globales". políticaextranjera.com . La política exterior . Consultado el 27 de mayo de 2022 .
  7. ^ "Elon Musk sobre X:" @essagar Suspender la cuenta de Twitter de una importante organización de noticias por publicar una historia veraz fue obviamente increíblemente inapropiado"". Gorjeo . Consultado el 21 de agosto de 2023 .
  8. ^ Burel, Grégoire; Alani, Harith; Farrell, Tracie (12 de mayo de 2022). "Elon Musk podría hacer retroceder la moderación de las redes sociales, justo cuando estamos aprendiendo cómo puede detener la desinformación". La conversación . Consultado el 21 de agosto de 2023 .
  9. ^ "Detrás de la pantalla: moderación de contenido comercial (CCM)". Sara T. Roberts | La ilusión de la voluntad . 2012-06-20 . Consultado el 3 de febrero de 2017 .
  10. ^ Elliott, Victoria; Parmar, Tekendra (22 de julio de 2020). ""La oscuridad y la desesperación de la gente te afectarán"". resto del mundo .
  11. ^ Piedra, Brad (18 de julio de 2010). "Preocupación por quienes examinan la Web en busca de barbarie". The New York Times - a través de NYTimes.com.
  12. ^ Adrian Chen (23 de octubre de 2014). "Los trabajadores que mantienen las fotos de penes y las decapitaciones fuera de su cuenta de Facebook". CABLEADO . Archivado desde el original el 13 de septiembre de 2015.
  13. ^ "Los devoradores de pecados invisibles de Internet". El punzón . Archivado desde el original el 8 de septiembre de 2015.
  14. ^ Universidad, Departamento de Comunicaciones y Asuntos Públicos, Western (19 de marzo de 2014). "Western News: el profesor descubre la fuerza laboral oculta de Internet". Noticias occidentales .{{cite web}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  15. ^ "¿Debería Facebook bloquear vídeos ofensivos antes de publicarlos?". CABLEADO . 26 de agosto de 2015.
  16. ^ ab Olivia Solon (4 de mayo de 2017). "Facebook está contratando moderadores. ¿Pero el trabajo es demasiado espantoso para manejarlo?". El guardián . Consultado el 13 de septiembre de 2018 .
  17. ^ Olivia Solón (25 de mayo de 2017). "Mal pagado y sobrecargado: la vida de un moderador de Facebook". El guardián . Consultado el 13 de septiembre de 2018 .
  18. ^ ab bruto, Terry. "Para los moderadores de contenido de Facebook, el material traumatizante es un riesgo laboral". NPR.org .
  19. ^ Hartmann, Ivar A. (abril de 2020). "Un nuevo marco para la moderación de contenidos online". Revisión de seguridad y derecho informático . 36 : 3. doi : 10.1016/j.clsr.2019.105376. S2CID  209063940 . Consultado el 25 de mayo de 2022 .
  20. ^ Grimes-Viort, Blaise (7 de diciembre de 2010). "Seis tipos de moderación de contenido que debes conocer". Las redes sociales hoy .

Otras lecturas

enlaces externos