El 99% del contenido terrorista eliminado por Facebook es detectado por su IA antes que por cualquier usuario

Contador
375720.1.644.368.20171129151109
Vídeo de la noticia
Publicado 29/11/2017 15:11:09CET

   MADRID, 29 Nov. (Portaltic/EP) -

   El 99% del contenido eliminado por Facebook por apoyar a las organizaciones terroristas Estado Islámico y Al Qaeda es detectado por las herramientas de inteligencia artificial (IA) de la red social antes de que alguno de sus usuarios alerte de su existencia, según datos de la compañía. Facebook ha defendido la eficiencia de esta tecnología como vía para hacer frente al terrorismo 'online'.

   La responsable de Gestión Global de Política de la red social, Monika Bickert, y el responsable de Política de Antiterrorismo, Brian Fishman, han publicado un comunicado donde han recordado que Facebook comenzó el pasado mes de junio a usar la inteligencia artificial para detectar contenido terrorista. Estas herramientas son capaces de trabajar tanto con fotografías como con vídeos y texto, y puede distinguir imágenes empleadas como herramienta de reclutamiento de aquellas usadas para ilustrar noticias.

   Así, los representantes de la compañía han calificado de "prometedores" los resultados de los primeros meses de trabajo de este servicio, que consideran que se convertirá en una herramienta "más importante" dentro del "arsenal" para la protección y seguridad de Internet y Facebook. En paralelo, han afirmado, la red social continúa "expandiendo alianzas" con otras compañías tecnológicas, gobiernos y organizaciones sin ánimo de lucro.

   Bickert y Fishman han afirmado que, en estos momentos, el 99% de contenido terrorista que apoya a Estado Islámico y Al Qaeda que es eliminado por Facebook es detectado antes de que algún usuario de su comunidad haya alertado de su existencia, y "en algunos casos", antes de que se publique en directo a través de su plataforma. La compañía ha explicado que esto es posible, sobre todo, gracias al uso de "sistemas automatizados", como los que relacionan fotografías y vídeos o un 'machine learning' basado en texto, y ha asegurado que el 83% de las copias publicadas son eliminadas "durante la primera hora desde que son subidas".

   Facebook ha priorizado a Estado Islámico y Al Qaeda como los principales objetivos de su política antiterrorista por su "amenaza global en el mundo real y 'online'". Los representantes de la compañía han explicado que la búsqueda de un único grupo terrorista "podría no funcionar para la de otro", debido a las "diferencias estilísticas y de lenguaje" en sus propagandas, algo que han considerado "limitaciones" a la hora de automatizar la detección de contenido procedente de "organizaciones terroristas regionales". No obstante, prevén poder hacer frente a estos grupos en un futuro.

Esta web utiliza cookies propias y de terceros para analizar su navegación y ofrecerle un servicio más personalizado y publicidad acorde a sus intereses. Continuar navegando implica la aceptación de nuestra política de cookies -
Uso de cookies