Así decide Facebook sobre la moderación de contenidos sexuales, violentos o de terrorismo

Logo de Facebook reflejado en un ojo
DADO RUVIC/REUTERS
Actualizado: lunes, 22 mayo 2017 16:33

   MADRID, 22 May. (EDIZIONES/Portaltic) -

   En los últimos meses, varias polémicas sucedidas en la red social Facebook han puesto de manifiesto las dificultades de la compañía para regular su contenido. Ante esta situación, el medio británico The Guardian ha llevado a cabo una investigación en la que ha accedido a los documentos que Facebook utiliza para regular las publicaciones con contenidos críticos, relacionados con el sexo, la incitación a la violencia, el terrorismo o que incluyan muertes.

   Para llevar a cabo su estudio, The Guardian tuvo acceso a un total de más de cien documentos internos de Facebook, entre los que se encontraban manuales, listas y gráficos. Abarcaban un amplio abanico de temas sensibles, desde el conocido como 'porno de venganza' hasta la difusión de imágenes de muertes, pasando incluso por temas tan específicos como el canibalismo y el amaño de partidos.

   En cuanto a las incitaciones a la violencia, Facebook elimina las publicaciones que contienen mensajes como "que alguien dispare a Donald Trump", porque al tratarse de un jefe de Estado es una figura protegida de forma especial. No obstante, no se eliminan las amenazas que no se estiman como creíbles, como "muérete" o incluso "te voy a matar", como recoge la guía de la compañía.

   A raíz de la publicación del asesinato producido en Cleveland y subido a Facebook, la red social se vio forzada a retirar el vídeo. Sin embargo, un documento interno de la compañía de Mark Zuckerberg estipula que pueden admitirse contenidos en los que se muestren muertes violentas, aunque sólo con la finalidad de concienciar sobre temas como las enfermedades mentales. En casos como este, la red social no los elimina, pero marca los contenidos con la etiqueta "ofensivo".

NO SE BORRAN VÍDEOS DE BULLYING, NI DE MALTRATO ANIMAL NI DE AUTOLESIONES

   Entre otros tipos de contenidos que no son vetados por Facebook sorprenden, por ejemplo, los vídeos de autolesiones y de maltrato contra animales, siempre que las escenas mostradas no sean de extrema dureza. Tampoco se eliminan los vídeos en los que se muestre 'bullying' o maltrato a menores de edad (de carácter no sexual), a no ser que sean "sádicos o tengan elementos de celebración".

   En cuanto a la desnudez, Facebook dispone de varias directrices en función de la modalidad. Los moderadores eliminan los contenidos de "porno de venganza" en los que la persona no otorga su consentimiento. Paradógicamente, la compañía veta las imágenes u obras de arte creadas por ordenador que muestran sexo o desnudez pero no las que están hechas a mano. La red social añade como excepción la admisión de imágenes sobre el Holocausto que incluyan desnudez, pero no se refiere a otro tipo de conflictos.

   Quién aparece en el vídeo es otro de los aspectos que pueden resultar determinantes. Facebook ofrece más protección a las personas anónimas que a las famosas, por lo que cualquiera por encima de los 100.000 seguidores en alguna red social es considerado "figura pública" y por tanto dispone de una regulación más permisiva ante las críticas.

LOS MODERADORES DISPONEN DE "SOLO 10 SEGUNDOS" PARA DECIDIR

   Ante el gran número de recomendaciones y de publicaciones de los usuarios reportadas, las fuentes internas consultadas por el diario británico revelan que la red social tiene una creciente dificultad para regular su propio contenido. Esta situación llega hasta el punto de que los moderadores disponen de "solo diez segundos" para decidir si una publicación es o no retirada.

   Ante la diversidad de los límites, la compañía es consciente de que sus criterios pueden ser problemáticos. "No importa dónde se ponga la línea roja, siempre va a acabar habiendo zonas grises, como por ejemplo entre la sátira y el contenido inapropiado. En ocasiones es muy difícil decidir qué admitir y qué no", ha afirmado Monika Bickert, responsable de política global de Facebook, en declaraciones a The Guardian.