Margaret Boden: "No se me ocurre ningún avance en IA que no pueda usarse con fines militares"

Actualizado 26/10/2018 14:51:46 CET
Margaret Boden, en Thinking Party 2018
FUNDACIÓN TELEFÓNICA

   MADRID, 26 Oct. (Portaltic/EP) -

   Entre los años 2030 y 2040, se espera que los avances tecnológicos conduzcan a que la Inteligencia Artificial (IA) alcance el nivel de inteligencia del ser humano, y que incluso lo supere para el 2050. Ante esta situación, "el matrimonio entre seres humanos e IA es impredecible".

   Así lo ha resumido Margaret Boden, profesora de ciencia cognitiva de la Universidad de Sussex (Reino Unido) especializada en Inteligencia Artificial, que ha participado este jueves en la inauguración del evento Thinking Party 2018, centrado en esta tecnología y en su impacto en el ser humano, y que se ha desarrollado en la Fundación Telefónica en Madrid.

   La ética en el desarrollo de la inteligencia de los robots ha sido uno de los temas que ha centrado la intervención de Boden. "No creo que sea posible conseguir una lista de reglas éticas para dar a un robot", ha explicado la científica británica en una entrevista concedida a Portaltic.

   "Eso no significa que no se puedan poner preferencias, pero es necesario tener un sistema de restricciones y satisfacciones, que es como tomamos nuestras decisiones morales, y no mediante la deducción o por reglas específicas", ha matizado Boden.

   De esta manera, para otorgar una dimensión ética a la IA, resulta necesario que ésta sea capaz de tomar decisiones y establecer prioridades. Sin embargo, Boden ha apuntado la imposibilidad de las propias personas para consensuar una lista de leyes morales universales.

   "Si se intenta que un robot siga unos principios morales determinados, es imposible que todas las personas estén satisfechas, porque no todo el mundo lo vería como ético", ha asegurado en la entrevista.

"NO ES POSIBLE UTILIZAR LAS LEYES DE ASIMOV PARA REGULAR LA ROBÓTICA"

   La experta británica, que en 2017 publicó su último libro sobre la materia, titulado precisamente 'Inteligencia Artificial', ha cuestionado los principios de la robótica establecidos por el escritor de ciencia ficción Isaac Asimov, que en la actualidad instituciones como la Unión Europea trabajan para actualizar pero cuya influencia sigue vigente.

   Para Boden, "no es posible utilizar las leyes de Asimov para regular la robótica, porque no es posible determinar qué es el daño, ya que puede tener muchos significados. Lo que una persona considera como daño, otra, no".

   La investigadora británica va más allá y ha asegurado que "no existen los robots éticos, porque no se les puede culpar por lo que hacen, la responsabilidad debe recaer siempre en el ser humano".

   Y ha puesto como ejemplo los casos en que se utilizan herramientas de IA para el sector sanitario, en los que las decisiones las siguen tomando los médicos, como sucede en la iniciativa de Fujitsu con el Hospital Clínico San Carlos de Madrid. Esta herramienta logra prevenir en un 85% los casos de suicidio entre internos adictos al alcohol y las drogas, según datos de la compañía japonesa.

IA CON FINES MILITARES

   Recientemente, la implicación de Google en el proyecto militar Maven con el departamento de defensa de Estados Unidos y la negativa de sus empleados a trabajar en el proyecto, ha puesto de manifiesto que los usos militares pueden ser una de las aplicaciones de la Inteligencia Artificial.

   La compañía de Mountain View tuvo que dar marcha atrás, cancelando su contrato de participación en el desarrollo de sistemas de navegación para drones con Estados Unidos, ante las críticas éticas por el uso de sus avances tecnológicos en armas potencialmente letales.

   Boden ha resaltado el aumento de la visibilidad de este problema en la actualidad, ya que "la gente está comenzando a pensar en estos temas", aunque también sitúa en una posición difícil a los desarrolladores de la inteligencia de las máquinas.

   "No se me ocurre ningún avance en IA que no pueda usarse con fines militares", ha advertido. "Incluso si intentas enfocarte en algo que en tu mente no tiene nada que ver con el ejército, puede que en el futuro acabe teniendo usos militares", ha concluido desde su experiencia como investigadora.

"LAS MÁQUINAS NO PUEDEN AYUDAR A LAS PERSONAS QUE NECESITAN APOYO EMOCIONAL"

   En el presente, las innovaciones en Inteligencia Artificial ya han dado a luz a sistemas con un amplio rango de aplicaciones, como es el caso del sistema de computación cognitiva Watson, de IBM. Esta herramienta se utiliza para funciones diversas, desde en los departamentos de recursos humanos hasta para colaborar en el tratamiento de enfermos de cáncer hospitalizados.

   Boden ha considerado que "no estamos cerca en absoluto de que las máquinas puedan lidiar con todas las cuestiones con las que lo hacen los seres humanos". Además, ha recalcado que incluso sistemas avanzados como Watson son limitados, ya que se basa en procesamiento de texto y carece de funciones humanas como la visión.

   La científica británica se ha mostrado también "preocupada" sobre los peligros de otra de las aplicaciones actuales de la IA: hacer compañía a personas mayores solitarias. Este tipo de aplicaciones se utilizan en países como Japón o Reino Unido, donde Boden se ha referido a casos en los pacientes apenas llegan a recibir dos minutos de contacto humano al día.

   "No tengo problema en la IA doméstica, o que se usa como entretenimiento, pero sí con que la IA se entienda para proporcionar compañía a personas y con fines emocionales. Las máquinas no pueden ayudar a las personas que necesitan apoyo emocional", ha denunciado.

"NO CREO QUE NUNCA CONSTRUYAMOS ROBOTS BIOLÓGICOS"

   Preguntada por el futuro de la Inteligencia Artificial, Boden descarta que el ser humano alguna vez llegue a construir robots con sus mismas características. "No creo que nunca construyamos robots biológicos que piensen como nosotros y que tengan nuestra inteligencia", ha mantenido.

   En cuanto al resto de perspectivas de futuro, la investigadora ha descartado una posible rebelión de las máquinas. "La principal razón de que los robots no nos dominarán es que no querrán. Los robots no tienen deseos ni objetivos de la manera en que los tenemos nosotros, no están implicados en sus procesos", ha concluido.

Contador