Moderación de contenido

Su propósito es prevenir ciertos aspectos del delito cibernético y eliminar contenido que viole la prohibición de distribución.

Los empleados deben firmar un acuerdo de confidencialidad y no se les permite hablar sobre su trabajo.

En 2006, grandes empresas de TI como Facebook, Microsoft y Twitter formaron la Technology Coalition (Coalición de Tecnología) en los Estados Unidos para tomar medidas contra la pornografía infantil delictiva y el abuso sexual infantil en Internet.

[11]​ La asociación fundó, entre otras cosas, la Crimes Against Children Conference (CACC) (Conferencia sobre delitos contra los niños) y desarrolló pautas de seguridad ocupacional (Guía de resiliencia para empleados)[12]​ para los empleados que se enfrentan a contenido delictivo en su trabajo.

Facebook contrata a algunos empleados a través de empresas, incluidas Accenture, Arvato, Cognizant, CPL Resources y Genpact, para actuar como moderadores de contenido, revisando el contenido potencialmente problemático publicado tanto en Facebook como en Instagram.

[17]​ Muchos de estos contratistas enfrentan expectativas poco realistas, duras condiciones de trabajo y exposición constante a contenido perturbador, incluida la violencia gráfica, el maltrato animal y la pornografía infantil .

[31]​[32]​ Se acusa a las corporaciones de evadir sus responsabilidades digitales al subcontratar trabajo por bajos salarios en países en desarrollo y emergentes y de intentar crear un mundo ilusorio.

Ejemplo de un hilo moderado en GitHub