Su propósito es prevenir ciertos aspectos del delito cibernético y eliminar contenido que viole la prohibición de distribución.
Los empleados deben firmar un acuerdo de confidencialidad y no se les permite hablar sobre su trabajo.
En 2006, grandes empresas de TI como Facebook, Microsoft y Twitter formaron la Technology Coalition (Coalición de Tecnología) en los Estados Unidos para tomar medidas contra la pornografía infantil delictiva y el abuso sexual infantil en Internet.
[11] La asociación fundó, entre otras cosas, la Crimes Against Children Conference (CACC) (Conferencia sobre delitos contra los niños) y desarrolló pautas de seguridad ocupacional (Guía de resiliencia para empleados)[12] para los empleados que se enfrentan a contenido delictivo en su trabajo.
Facebook contrata a algunos empleados a través de empresas, incluidas Accenture, Arvato, Cognizant, CPL Resources y Genpact, para actuar como moderadores de contenido, revisando el contenido potencialmente problemático publicado tanto en Facebook como en Instagram.
[17] Muchos de estos contratistas enfrentan expectativas poco realistas, duras condiciones de trabajo y exposición constante a contenido perturbador, incluida la violencia gráfica, el maltrato animal y la pornografía infantil .
[31][32] Se acusa a las corporaciones de evadir sus responsabilidades digitales al subcontratar trabajo por bajos salarios en países en desarrollo y emergentes y de intentar crear un mundo ilusorio.