Facebook lleva meses recibiendo fuertes críticas por los contenidos que permite que sus usuarios publiquen en la red social. La compañía de Mark Zuckerberg está bajo la lupa de una Unión Europea que ha instado, e incluso amenazado con multas, a revisar las políticas de publicación con las que opera el gigante tecnológico.

La compañía cuenta con un batallón de 4.500 moderadores, a los que planea sumar 3.000 más, que reciben una guía redactada en la sede de Menlo Park con los contenidos que deben permitir y los que deben marcar como «perturbadores», o borrar directamente. Suelen ser publicaciones relacionadas con violencia, odio, terrorismo, pornografía o racismo. Incluso hay un apartado para el canibalismo.

Según un informe revelado por The Guardian, estos moderadores están saturados de trabajo y, según ellos mismos, apenas tienen «10 segundos para decidir si algo es publicable o no». Todos trabajan con una herramienta llamada Single Review Tool (STR), que es una herramienta de revisión única, y están supervisados por unos expertos llamados Subject Matter Experts que evalúan su rendimiento.

En las guías que se entregan a estos trabajadores Facebook les deja claro lo que deben hacer en todos los campos. Por ejemplo, los vídeos con muertes violentas no deben borrarse siempre, ya que ayudan a concienciar a los que lo ven. De la misma manera, las amenazas explícitas como «te voy a matar» no se eliminan ya que se considera que «no son reales» bajo la premisa de que «la gente tiende a expresarse así en internet para liberar su frustración».

«Tenemos una comunidad de usuarios muy diversa y que tiene diferentes ideas de lo que está bien compartir», explica al medio inglés la directora de políticas de Facebook, Monika Bickert.

Lo cierto es que es las decisiones de la compañía son difíciles de entender. A finales del año pasado la red social eliminó la icónica fotografía de un grupo de niños, uno de ellos desnudo, que huían en Vietnam de un ataque con Napalm de las fuerzas norteamericanas. Esa imagen fue censurada.

Abortos sí, desnudez no

Esas políticas de censura de Facebook tienen muchas lagunas. Dicha imagen, que refleja el infierno vivido en Vietnam durante la guerra, es otra muestra de la obsesión de la compañía con la desnudez. En el manual entregado a los moderadores se explica que se deben permitir los vídeos de abortos, siempre y cuando no aparezcan nadie desnudo.

De la misma manera, son publicables los abusos a niños o adultos, siempre y cuando no sean sexuales. Estos contenidos sólo se marcan como «perturbadores» y deben ser eliminados exclusivamente si hay «sadismo o celebración».

Algo similar ocurre con el maltrato a los animales, vídeos o imágenes que «generalmente pueden ser publicadas» y que simplemente se marcarán como «perturbadores si son muy extremas». Entre las cosas que no se consideran de tal modo, y que deben ser permitidas, están las mutilaciones o las torturas de animales.

El ejemplo de la laxitud de Facebook al permitir contenidos muy duros lo hemos visto no hace demasiado, cuando Steve Stephens, un ciudadano de Cleveland, asesinó a su padre en directo en Facebook. Tras ser perseguido por varios estados, acabó por suicidarse cuando la policía le tenía casi detenido.

Algo similar pasó en Tailandia, donde un hombre mató en Facebook Live a su hija de apenas 11 meses. El vídeo estuvo disponible durante más de 24 horas sin que nadie hiciera nada por eliminarlo.

Facebook se enfrenta a una nueva polémica en la que tiene todas las de perder. El gigante de internet, que ronda ya los 2.000 millones de usuarios, es tan grande y ha crecido tan rápido que le es casi imposible controlar la actividad diaria de lo que publica su comunidad.

Teniendo esto en cuenta, es obvio que tienen una responsabilidad para, como mínimo, hacer todo lo que esté en sus manos de cara a evitar que los usuarios tengan que sufrir amenazas, o que todos tengamos que soportar como maltratadores o asesinos pueden subir sus vídeos y que estos se mantengan en la red al alcance de todos. Muy mal, Zuckerberg.