Facebook eliminó 2.190 millones de cuentas falsas en el primer trimestre de 2019

Alemania.- Un tribunal de Alemania ordena a Facebook desbloquear la página de un partido de extrema derecha
PIXABAY - Archivo
Actualizado: viernes, 24 mayo 2019 9:42

   MADRID, 24 May. (Portaltic/EP) -

   Facebook ha eliminado 2.190 millones de cuentas falsas de su red social homónima solo en el primer trimestre de 2019, en su mayoría a pocos minutos de su creación, debido a que se trataba de cuentas automatizadas destinadas a propagar contenidos.

   La compañía ha publicado este jueves su nuevo informe de transparencia, con datos sobre la aplicación de sus normas comunitarias en el primer trimestre de 2019 y en el último de 2018, en el que la cantidad de cuentas falsas eliminadas fue de 1.200 millones.

   Las infracciones por las que Facebook ha eliminado tanta cuentas como contenido se deben a nueve motivos distintos: desnudos y actividad sexual de adultos, bullying y acoso, desnudos y explotación sexual de menores, cuentas falsas, lenguaje que incita al odio, bienes regulados, spam, propaganda terrorista global, y violencia y contenido gráfico.

   La red social estima que de cada 10.000 veces que se visualiza contenido en su plataforma, entre 11 y 14 de ellas correspondía a contenidos con desnudos o actividad sexual que aún no se habían identificado como tales, y que 25 visualizaciones de cada 10.000 infringían sus políticas de violencia y contenido gráfico.

   A su vez, el contenido publicado en la plataforma que infringe su normativa de terrorismo global y desnudos y explotación sexual de menores es "demasiado baja para medirla con nuestros mecanismos estándar", según Facebook, y en ambos casos es inferior a tres visualizaciones de cada 10.000.

   En el caso de las cuentas falsas, Facebook estima que el 5 por ciento de las cuentas activas cada mes son falsas. En esta línea, la plataforma ha eliminado 2.190 millones de cuentas en los tres primeros meses de 2019, frente a los 1.200 millones del último trimestre de 2018.

   Facebook ha defendido sus herramientas automáticas de detección de contenidos, que asegura que han sido capaces de detectar más del 95 por ciento del contenido antes de recibir denuncias de parte de los usuarios. En total, ha eliminado cuatro millones de publicaciones que incitan al odio en el primer trimestre de 2019.

   En el caso del lenguaje que incita al odio, la red social es capaz de detectar de forma proactiva, mediante herramientas automáticas, el 65 por ciento del contenido que elimina, lo que supone un incremento desde el 24 por ciento registrado en el año anterior.

   En el primer trimestre de 2019, la red social ha tomado medidas en 900.000 ocasiones por contenidos de venta de drogas, de los cuales detectó de forma proactiva el 83,3 por ciento. También ha actuado 670.000 veces por la venta de armas de fuego, y ha detectado automáticamente el 69,9 por ciento de los casos.

APELACIONES

   Por primera ocasión, Facebook ha compartido los datos de las publicaciones cuya eliminación ha sido apelada por los usuarios. En el primer trimestre Facebook recibió 20,8 millones de apelaciones por 'spam', la causa más frecuente de reclamación. De ellos restauró 5,8 millones de publicaciones, y 38,6 millones más de contenidos más por los que no llegó a recibir apelaciones.

   La desnudez y el contenido sexual es la segunda causa de apelación más común, con 2,1 millones de denuncias de las que 453.000 se resolvieron a favor del usuario. Le sigue el discurso del odio, por el que se apelaron 1,1 millones de eliminaciones y se restituyeron 130.000 de estos contenidos.

7% MÁS DE PETICIONES GUBERNAMENTALES

   Además, Facebook ha publicado su nuevo informe de transparencia, en el que comparte los contenidos que ha retirado a petición de gobiernos en la segunda mitad de 2018.

   En este periodo de 2018, la red social recibió un 7 por ciento más de peticiones gubernamentales para retirar contenidos que en el periodo anterior, pasando de 103.815 a 110.634.

Estados Unidos es el país que más reclama, aunque el número de peticiones se redujo en un 3 por ciento respecto al año anterior. Por detrás se encuentran India, Reino Unido, Alemania y Francia.

   Facebook ha recogido que durante la segunda mitad de 2018 se incrementaron las restricciones de contenido en su red social homónima e Instagram debido a las legislaciones nacionales de los países en un 135 por ciento, de 15.337 a 35.972, casi la mitad de ellas en India.

   Asimismo, la red social ha detectado 53 interrupciones temporales del servicio de su plataforma en nueve países durante la segunda mitad del pasado año, de las cuales el 85 por ciento de ellas proceden de India.

   Por último, la red social ha recogido en su informe las eliminaciones de contenidos a raíz de infracciones de los derechos de autor por las que ha eliminado en la segunda mitad de 2018 2.595.410 contenidos tras recibir 511.706 denuncias.

Leer más acerca de: