Nuevos desafíos como la "porno venganza" han abrumado a los moderadores de Facebook que a menudo tienen sólo 10 segundos para tomar una decisión.
Documentos filtrados de Facebook Inc muestran que la firma de redes sociales modera temas como el discurso de odio, el terrorismo, la pornografía y la automutilación en su plataforma, reportó The Guardian citando directrices internas a las que tuvo acceso.
Nuevos desafíos como la "porno venganza" han abrumado a los moderadores de Facebook que a menudo tienen sólo 10 segundos para tomar una decisión, dijo el diario. La firma revisa más de 6,5 millones de reportes de cuentas potencialmente falsas a la semana, agregó la publicación.
Muchos de los moderadores de contenido de la compañía tienen preocupaciones sobre la inconsistencia y naturaleza peculiar de algunas de las políticas. Aquellas sobre el contenido sexual, por ejemplo, serían las más complejas y confusas, dijo The Guardian.
Facebook no hizo comentarios específicos sobre el reporte, pero dijo que la seguridad es su preocupación primordial.
"Mantener a la gente segura en Facebook es lo más importante que hacemos. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión. Esto requiere mucha reflexión sobre interrogantes detalladas y, a menudo, difíciles, y hacerlo bien es algo que tomamos muy en serio", dijo en un comunicado la jefa de política de productos de Facebook, Monica Bickert.
Facebook confirmó que está utilizando software para interceptar contenido gráfico antes de que se publique en el sitio de internet, pero todavía está en sus primeras etapas.
Los documentos filtrados incluyen manuales internos de capacitación, hojas de cálculo y diagramas de flujo, dijo el diario.
Reuters no pudo verificar independientemente la autenticidad de los documentos publicados en el sitio de internet de The Guardian.