Internet

Las reglas secretas de Facebook para moderar contenido violento, sexual y amenazas racistas 

2017-05-22

Facebook permite a sus usuarios publicar imágenes de una persona autolesionándose...

Cristina F. Pereda, El País

Facebook permite a sus usuarios publicar imágenes de una persona autolesionándose porque la red “no quiere censurar o castigar a quienes están sufriendo” y solo elimina fotografías de actos de crueldad contra animales si son “extremadamente perturbadoras”. Así lo demuestran los documentos secretos de la organización, revelados por el diario The Guardian, y que también incluyen directrices para moderar contenido violento, de odio, relacionado con el terrorismo, pornográfico o racista.

La filtración incrementa la tensión sobre la red creada por Mark Zuckerberg y que usan 1,700 millones de personas al mes. Facebook se autodefine como una red social que conecta a ciudadanos de todos los rincones del mundo, pero en los últimos años ha recibido presiones para que sea regulada como una plataforma de contenido similar a la de los medios de comunicación. El reto no es sencillo y a cada paso que da Facebook para moderar internamente sus actividades, también debe caminar sobre la delgada línea que separa la censura de la libertad de expresión.

Los documentos revelados por The Guardian no habían visto la luz hasta ahora y permiten ver seguir el código que impone Facebook a sus moderadores de contenido, las personas encargadas de determinar si una foto, vídeo o mensaje deben ser eliminados de la red. Una de las fuentes anónimas consultadas por el diario afirman que “Facebook no puede controlar su propio contenido. Ha crecido demasiado y demasiado rápido”. Otro afirma que deben tomar la decisión de eliminar el material “en apenas 10 segundos”.

Las guías ofrecen recomendaciones para varios tipos de contenido, desde imágenes de abuso no sexual a menores de edad, amenazas de violencia, hasta actos de crueldad con animales e imágenes con violencia explícita. En todos ellos, los documentos detallan lo que se puede publicar y lo que no. En el caso de abusos a animales, por ejemplo, se puede compartir fotografías “en general” de estos actos “para concienciar sobre ello y condenarlos”, pero se elimina cuando se considera que el usuario “celebra” ese abuso o que se percibe como “extremadamente perturbador”.

En el caso de amenazas, los manuales indican que se debe eliminar un posible mensaje con las palabras “que alguien dispare a Trump” porque el presidente pertenece a una categoría protegida. Facebook también considera que los vídeos de muertes violentas pueden llevar un aviso para los espectadores pero no siempre se deben eliminar porque sirven para “concienciar sobre problemas mentales”. La red sí permite, por ejemplo, publicar un mensaje indicando que “para partirle el cuello a una zorra, asegúrate de que presionas todo lo que puedes en el centro de su garganta”.

En muchos de los casos, las indicaciones pueden dejar espacio para la interpretación de cada uno de los moderadores, que deben identificar si el usuario está haciendo una amenaza real a otra persona. Uno de los manuales considera que se debe eliminar el mensaje “apuñala y conviértete en el terror del Sionista” pero se puede publicar “vamos a dar palizas a niños gordos” o “peguemos a un pelirrojo” porque “el lenguaje violento casi nunca es creíble a menos que se específico como para que nos de pie a pensar que no es una expresión sin más sino que la persona puede actuar”.

Facebook también establece que “no tomamos medidas en el caso de fotografías de abusos a niños. Marcamos como perturbadores los vídeos de abusos a niños. Eliminamos las imágenes de abusos a niños si se comparten con sadismo y celebración”. La red añade, según The Guardian, que algunas de esas imágenes deben permanecer publicadas “para que el menor pueda ser identificado y rescatado, pero añadimos protecciones para salvaguardar a la audiencia”.

La red ha tenido que responder en los últimos meses a varias crisis por el material que decidió censurar, como la fotografía de una niña desnuda, víctima de la guerra de Vietnam, o la retransmisión en directo del asesinato de un hombre en Cleveland. En este último caso, la red eliminó la grabación después de que el autor anunciase que seguiría matando a más personas elegidas al azar, pero rectificó en el caso de la niña vietnamita y ahora permite “excepciones noticiables” en su manual sobre fotografías de guerra. Facebook, sin embargo, nunca permitirá imágenes “de niños desnudos dentro del contexto del Holocausto”.



yoselin