Adel Rouz (Fujitsu): "Europa lidera el desarrollo de la ética para la Inteligencia Artificial"

Adel Rouz, vicepresidente de Fujitsu Laboratories
FUJITSU
Publicado 09/11/2018 9:29:36CET

   MADRID, 9 Nov. (Portaltic/EP) -

   La Comisión Europea trabaja durante las últimas semanas en la creación de un marco de principios éticos para el desarrollo de la Inteligencia Artificial (IA). Lo mismo sucede en Estados Unidos, donde se ha solicitado al Gobierno que adopte las directrices respaldadas por 50 organizaciones científicas y 202 expertos, de la coalición The Public Voice.

   "Europa lidera el desarrollo de la ética para la Inteligencia Artificial", ha asegurado Adel Rouz, vicepresidente ejecutivo de Fujitsu Laboratories en Europa, en una entrevista concedida a Portaltic en el marco del Fujitsu Forum 2018. Este evento ha cerrado sus puertas este jueves en Múnich (Alemania).

   Rouz ha valorado el desarrollo de códigos de conducta para las máquinas inteligentes como "la clave para la responsabilidad social de la IA". Se espera que la Comisión Europea apruebe su borrador de conducta de IA a lo largo de este mes de noviembre. Tras un periodo de borradores y reformas de dos años, en 2020 estas recomendaciones se convertirán en políticas a nivel comunitario.

   Para ello, Europa ha reunido tanto a representantes de diversos sectores, desde empresas como la propia Fujitsu, como a investigadores de universidades como la de Oxford (Reino Unido). Esto ha atraído la atención de otros países, y "en Japón, el Gobierno está monitorizando los principios y las recomendaciones de Europa", ha asegurado Rouz.

   Entre las distintas aplicaciones de la IA, la compañía japonesa colabora actualmente en un proyecto desarrollado con los pacientes hospitalizados por adicción a alcohol o drogas en el Hospital Clínico San Carlos de Madrid. Esta herramienta analiza los hábitos de los internos y predice futuros intentos de suicidio, con un 85% de precisión.

"LAS DECISIONES QUE AFECTAN A LOS SERES HUMANOS NO DEBEN TOMARLAS LAS MÁQUINAS"

   Sin embargo, como ha resaltado Rouz, el sistema solo proporciona "consejo y ayuda" a los médicos y no decide de forma autónoma. "En la IA, las decisiones que afectan a los seres humanos no deben tomarlas las máquinas", ha defendido.

   Con ello, el directivo ha hecho referencia a una de las 12 directrices propuestas firmadas los expertos de The Public Voice en Estados Unidos, que mantienen que una decisión final que afecta a otro ser humano siempre debe recaer en otra persona, de manera que esta pueda asumir la responsabilidad por las decisiones tomadas.

   En este sentido, Rouz ha propuesto un sistema de responsabilidades para la IA similar al de la industria farmacéutica cada vez que se lanza un medicamento. "Actualmente se ha decidido que los responsables últimos son los directores de la compañía. Este es el mismo proceso que estamos implementando en la IA", ha formulado.

   Asimismo, Rouz ha mantenido que no tiene conocimiento de que Fujitsu esté implicado proyectos de desarrollo de sistemas de IA para fines militares, como recientemente han reconocido Google o Microsoft. También ha asegurado que estas aplicaciones no tienen cabida en la filosofía de la compañía de innovaciones centradas en el ser humano.

CIBERSEGURIDAD PREDICTIVA

   Como mecanismos de ciberseguridad, Fujitsu utiliza algoritmos basados en IA para predecir ciberamenazas a través del aprendizaje profundo. Este sistema "se basa en cuáles son los virus potenciales, no los ataques, sino en lo que trabajan los atacantes potencialmente desde la perspectiva del dispositivo", según Rouz.

   Por ejemplo, la ciberseguridad predictiva se puso en marcha durante el ciberataque sufrido por la agencia de noticias estatal de Catar el pasado año 2017, cuando resultó 'hackeada'. Estos mecanismos permitieron a las autoridades cataríes atribuir la responsabilidad a Emiratos Árabes, como recoge Reuters, y solucionar el problema de manera más rápida debido a que ya tenían información sobre la materia.

   Otra modalidad de herramientas de defensa la proporciona la computación cuántica, como es el caso de Digital Annealer, una plataforma de Fujitsu inspirada en esta tecnología que se utiliza en sistemas convencionales. "Algunas personas están usando la computación cuántica para la seguridad, en lo que conforma la seguridad cuántica", ha explicado el directivo de Fujitsu Laboratories.

"TENEMOS QUE AUMENTAR LA CONCIENCIA DE CIBERSEGURIDAD"

   El directivo de la multinacional japonesa ha abordado también de forma más general el tema de la seguridad en las nuevas tecnologías digitales, y ha defendido que como sociedad "tenemos que aumentar la conciencia de ciberseguridad de las personas".

   "No solo hay que facilitarles a las personas herramientas de seguridad, sino también confianza en la tecnología. Lo primero es la educación, lo segundo es la creación de una conciencia y, por último, la tecnología también necesita adaptarse", ha concluido Rouz.

Contador