Elon Musk y los fundadores de Deep Mind firman un acuerdo para no crear sistemas letales de armas con IA

Caza F16 volando
PIXABAY (WIKILMAGES)
Publicado: miércoles, 18 julio 2018 12:59

   MADRID, 18 Jul. (Portaltic/EP) -

   Elon Musk, los fundadores de Deep Mind y miles de expertos del sector tecnológico han firmado un documento en el que se comprometen a no participar ni apoyar el desarrollo, fabricación, comercio o uso de armas letales autónomas.

   Future of Life Institute, un instituto de investigación sobre el futuro de la humanidad en relación con las nuevas tecnologías, ha presentado en el marco de la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI), celebrada en Estocolmo, un documento firmado por 164 organizaciones y 2.410 personas en el que se comprometen a no desarrollar sistemas letales de armas basados en Inteligencia Artificial (IA).

   La entidad relata que la inteligencia artificial (IA) está preparada para ocupar un papel cada vez más importante en los sistemas militares, pero existe la "necesidad urgente" de distinguir entre los usos "aceptables e inaceptables" de la IA.

   De este modo, líderes relevantes del sector tecnológico como Elon Musk o los fundadores de Deep Mind (Demis Hassabis, Shane Legg y Mustafa Suleyman) han firmado el documento, apoyando que la decisión de "acabar con una vida humana nunca" debería pertenecer a una máquina, añadiendo que no se debe permitir que las máquinas tomen "decisiones vitales".

   La carta relata que las armas letales autónomas que atacan objetivos sin intervención humana podrían ser "peligrosamente destabilizadoras" para los países y sus ciudadanos. En este sentido, se hace alusión a que miles de investigadores de IA coinciden en que este tipo de armamentos podrían convertirse en poderosos "instrumentos de violencia y opresión", situación agudizada si están relacionados con sistemas de vigilancia y datos.

   El documento explica que las características de las armas autónomas letales difieren mucho de las que poseen las armas nucleares, químicas y biológicas, puesto que las acciones individuales de un solo grupo de las primeras podrían desencadenar "fácilmente una carrera armamentística", que no podría ser controlada por la comunidad internacional.

   En la publicación de Future of Life Institute se hace un llamamiento a los gobiernos y sus líderes para desarrollar regulaciones y leyes en lo relativo a las armas letales autónomas.

   Los firmantes de la carta, entre los que se encuentran el fundador de Skype, Jaan Tallinn, o el líder de Google Research and Machine Intelligence, Jeffrey Dean, se comprometen a no participar ni apoyar el desarrollo, fabricación, comercio o uso de armas letales autónomas, además de solicitar a los líderes y responsables políticos repartidos por el globo que se unan a la iniciativa.