EJÉRCITO DE ESTADOS UNIDOS
NAIROBI, 26 Ene. (Fundación Thomson Reuters/EP) -
El Comité Internacional de la Cruz Roja (CICR) ha pedido a la comunidad internacional que comience a preparar una normativa que regule el uso de armas automatizadas capaces de matar sin interacción humana previa, las llamadas "armas letales autónomas" (LAW, por sus siglas en inglés), conocidas comúnmente por una designación más impactante: los "robots asesinos".
Estas armas son, por así decirlo, la evolución de la mina terrestre. Son, por ejemplo, las armas guiadas por radar que defienden hoy en día a los buques de guerra, como el sistema el US Phalanx CIWS el Russian Arena, el Trophy israelí o el AMAP-ADS, de fabricación alemana.
Sin embargo, esto es solo el principio. El CIRC intenta adelantarse a la imparable evolución de la tecnología bélica, y teme que los cooperantes humanitarios -- de por sí objetivo de las armas controladas por el ser humano -- tengan que lidiar con una nueva amenaza, esta vez completamente automática.
El director-general del CICR, Yves Daccord, cree que esta situación va a plantear cuestiones éticas. "Vamos a encontrarnos con armas que vuelan sin control remoto, con la inteligencia suficiente para localizar un blanco y decidir si es la persona correcta a la que eliminar", explica Daccord. "El mundo va a delegar su responsabilidad en un algoritmo que va a decidir quién es el enemigo y quién no; quién vive y quién muere", ha lamentado.
PROHIBIR O NO PROHIBIR
Una encuesta internacional publicada esta semana por la ONG Human Rights Watch y la Campaña para Detener a los Robots Asesinos demuestra que seis de cada diez consultados en 26 países de todo el mundo se oponen al uso de estas armas.
El sondeo de Ipsos concluye que la gente "cada vez se encuentra más en contra de la perspectiva de armas completamente automatizadas", según la directora de la división para el control de armas de HRW, Mary Wareham, quien se hizo eco a su vez de las palabras del secretario general de la ONU, Antonio Guterres, quien calificó estos sistemas de "políticamente inaceptables y moralmente repugnantes".
Daccord reconoce que lograr la prohibición de esta clase de armas es difícil, pero es factible "presionar para que, por lo menos, exista un mínimo de control humano en algún momento dado de la operación". El problema, como reconoce, es que "todavía no hay líneas maestras sobre su uso, así que es necesario crear una especie de gramática común entre estados".
Para el CICR esta normativa debería abordar cuestiones primordiales, comenzando por la propia definición de "armas autónomas", el nivel de supervisión humana sobre estas armas, la capacidad que tendrán sus usuarios para intervenir en ellas y desactivarlas llegado el caso, así como las condiciones generales de uso.
También habrá que hablar con los partidarios de las LAW, quienes defienden que las máquinas, en realidad, están humanizando la guerra al mejorar la precisión de los ataques. Al carecer de emociones humanas como el miedo o la venganza, señalan, minimizarán las muertes de civiles, dicen.
Daccord, sin embargo, aduce que estas máquinas tienen sus propios problemas como, por ejemplo, el mal funcionamiento de su protocolo de actuación y, sobre todo, el vacío legal que se genera cuando no existe un responsable directo al que culpar.
"En el caso de los 'drones', que son pilotados por control remoto, el derecho internacional puede responsabilizar a gente "Se puede responsabilizar a las personas según el derecho internacional humanitario con armas gestionadas a distancia, como drones. Con las armas autónomas, estamos en un nuevo territorio", ha declarado.
"Hay un proceso en curso, pero tenemos que lograr que los países se pongan de acuerdo sobre un texto común que no es fácil. Es mejor que comiencen a negociar ahora y encuentren un acuerdo que esperar un desastre mayor", ha avisado.