Facebook: ¿Qué se puede poner y qué no?

Los moderadores pueden permitir una transmisión de un joven causándose daños a sí mismo, muertes violentas o abusos físicos de niños, pero deben prohibir amenazas contra Donald Trump o reportar cualquier semejanza con la serie "13 reasons why". Los videos de abortos están permitidos, siempre y cuando no haya desnudez

Documentos internos de Facebook revelaron cómo la red social modera temas sensibles como el discurso de odio, el terrorismo, la pornografía y la autoflagelación en su plataforma, reportó el diario The Guardian en base a directrices de la empresa a las que tuvo acceso.

Nuevos desafíos como la “pornovenganza” han abrumado a los moderadores de Facebook que con frecuencia tienen sólo 10 segundos para tomar una decisión. Muchos de los moderadores de contenido de la compañía tienen preocupaciones sobre la inconsistencia y naturaleza peculiar de algunas de las políticas. Aquellas sobre el contenido sexual, por ejemplo, serían las más complejas y confusas.

Según la política de la empresa, hay tres señales de una posible pornovenganza: una imagen subida en privado, que muestra a una persona desnuda o en actividad sexual y sin su consentimiento. Este último punto se confirma mediante un contexto de venganza o por otras fuentes.

Las directivas también explican por qué permiten mostrar a una persona causándose daño físico. Según explican las autoridades, “no queremos censurar o castigar a personas que sufren o que están intentando suicidarse“. El contenido sería removido “una vez que ya no hay oportunidad de ayudar a la persona”, aunque el diario añade que el post podría mantenerse si tiene algún interés noticioso en particular.

Sin embargo, los moderadores han recibido la indicación de reportar a sus superiores cualquier contenido relacionado a la exitosa serie “13 reasons why”, que trata sobre el suicidio de una adolescente, por temores a una posible conducta de imitación.

Las indicaciones también mencionan que, por ejemplo, un estado que diga “alguien debería matar a Donald Trump” debe ser eliminado, ya que como un jefe de Estado pertenece a una categoría protegida. Sin embargo, si alguien comenta “púdrete y muérete”, no debe ser tomado como una amenaza creíble.

Ejemplos puestos por Facebook de personalidades sujetas a amenazas creíbles (imagen: The Guardian)

Ejemplos puestos por Facebook de personalidades sujetas a amenazas creíbles (imagen: The Guardian)

En cuanto a las muertes violentas, deberán ser marcadas como “contenido perturbador”, pero no necesariamente eliminadas, ya que pueden “crear conciencia sobre temas tales como enfermedades mentales”. Abusos físicos de niños podrían no ser borrados, siempre y cuando no sea un ataque sexual, sádico o celebratorio.

Los principios d euna amenaza creíble: armas, locación, tiempo, recompenza o detalles del método de violencia (The Guardian)

Los principios d euna amenaza creíble: armas, locación, tiempo, recompenza o detalles del método de violencia (The Guardian)

En cuanto a los abortos, Facebook indica que un video del mismo está permitido, pero será borrado si muestra a la mujer desnuda.

La compañía de Mark Zuckerberg no hizo comentarios específicos sobre el reporte, pero dijo que la seguridad es su preocupación primordial.

“Mantener a la gente segura en Facebook es lo más importante que hacemos. Trabajamos duro para hacer que Facebook sea lo más seguro posible al tiempo que permite la libertad de expresión. Esto requiere mucha reflexión sobre interrogantes detalladas y, a menudo, difíciles, y hacerlo bien es algo que tomamos muy en serio”, dijo en un comunicado la jefa de política de productos de Facebook, Monica Bickert.

Facebook confirmó que está utilizando software para interceptar contenido gráfico antes de que se publique en el sitio de internet, pero todavía está en sus primeras etapas.