Facebook comparte sus novedades en IA para la detección de contenidos inapropiados y la traducción

Conferencia de desarrolladores F8 de Facebook
CAPTURA
Actualizado: jueves, 3 mayo 2018 7:49

   MADRID, 2 May. (Portaltic/EP) -

   Facebook celebra este miércoles la segunda jornada de su conferencia anual de desarrolladores F8 que se ha centrado en las novedades en las que trabaja la compañía en relación a la inteligencia artificial, aplicada a la detección de contenidos inapropiados, la traducción o al reconocimiento de imágenes, para su comunidad de desarrolladores.

   El CTO de Facebook, Mike Schroepfer, ha sido el encargado de presentar este miércoles las novedades en las que está trabajando la compañía. En materia de inteligencia artificial, a partir de tres áreas principales: visión, procesamiento de lenguaje natural y razonamiento.

   En este área, la compañía ha anunciado Pytorch 1.0, un framework de las herramientas de inteligencia artificial de la compañía que unifica productos como Pytorch y Caffe2, y permite a los desarrolladores pasar con mayor facilidad de la investigación a la producción. También se ha integrado ONNX, el sistema con el que Facebook colabora con Microsoft y Amazon, de tal forma que Azure y AWS soportarán Pytorch 1.0.

   La IA es la "mejor herramienta" que tiene Facebook para "mantener la comunidad a salvo", como ha señalado Schroepfer. En el primer trimestre de 2018, el 99% del contenido eliminado por de la plataforma relaciona con ISIS y Al-Qaeda fue detectado por los sistemas internos de la compañía. En este sentido, Facebook también ha anunciado novedades en sus sistema de detección de contenidos perjudiciales, que identifica una mayor cantidad de contenidos, en menos tiempo.

   Los sistemas de procesamiento de imágenes de la compañía permiten detectar la posición en tiempo real de un objeto en movimiento, pero la nueva aproximación, Dense Pose, va un paso más allá al detectar a varios objetos en movimiento.

   Asimismo, su sistema de reconocimiento de imágenes ha sido entrenado no solo pasa distinguir elementos de una imagen, sino para identificar con mayor precisión qué es lo que muestra la imagen, es decir, no solo identifica una estatua, sino que identifica que se trata de la Estatua de la Libertad, por ejemplo.

   En lo que respecta al procesamiento de lenguaje natural, la compañía trabaja en un nuevo sistema de traducción más preciso, para que ofrezca respuestas traducidas mucho más similares a como se expresan las personas en sus respectivos idiomas.

REALIDAD VIRTUAL

   Las manos son esenciales para comunicarse y sentir que se está ahí. Trasladar las manos a la realidad virtual es complejo; se trata de trasladar su presencia a un entorno virtual, para realizar acciones simples, pero también acciones complejas. Para estas últimas, la compañía está invirtiendo en nuevos modelos para rastrear el movimiento de las manos con ayuda de sistemas de aprendizaje profundo. Este sistema registra el movimiento de las manos y su interacción con los objetivos.

   La compañía también trabaja en el desarrollo de sistemas que mejoren la visión en realidad virtual. El objetivo es incrementar el espacio de interacción, acercar los objetos con los que el usuario interactuará, y mejorar el enfoque, para que el usuario, al acercar o alejar un objeto, lo vea con la misma claridad con la que lo ve en el mundo real.

   En cuanto a la reconstrucción en tres dimensiones, la compañía trabaja en un sistema que emplea vídeos y fotografías de cualquier tipo de cámara para recrear habitaciones en realidad virtual, como anunció la compañía en la conferencia de su primera jornada. En las reconstrucciones, la compañía ha avanzado a la hora de reproducir los espejos y su reflejo, uno de los elementos que, como han explicado, plantea mayores problemas.

Leer más acerca de: