Llaman a regular las cuestiones éticas en el uso de robots de guerra

Avión no tripulado de EEUU, Drone
Avión no tripulado de EEUU, Drone / reuters

MADRID, 26 May. (EUROPA PRESS) -

   Con el creciente uso de aviones no tripulados en operaciones militares, tal vez sea sólo cuestión de tiempo que los robots sustituyen a los soldados. Si la guerra se hace completamente automatizada en el horizonte inmediato, una investigadora ya avisa de que no es demasiado pronto para empezar a examinar las cuestiones éticas que plantean los ejércitos de robots.

   En su reciente tesis sobre la ética de la automatización en la guerra, Linda Johansson , investigadora en la ética de robots en KTH Royal Institute of Technology de Suecia , sugiere que es necesario reconsiderar las leyes internacionales de la guerra, y comenzar a estudiar si los robots avanzados deben rendir cuentas de sus acciones.

   El uso de aviones no tripulados -o vehículos aéreos no tripulados (UAV)- va en aumento, y se está vertiendo cada vez más dinero en su desarrollo, cambiando claramente el contexto de los conflictos y que plantean nuevos interrogantes. "No es demasiado pronto para empezar a hablar de este tipo de problemas ... dada la velocidad de desarrollo", dice Johansson.

   Según un estudio de la ONU, civiles han sido asesinados en 33 ataques con drones independientes de todo el mundo. En Pakistán, entre 2.200 y 3.300 personas han muerto por ataques de aviones no tripulados desde 2004, 400 de los cuales eran civiles . Según las últimas cifras del Ministerio de Defensa de Pakistán , 67 civiles han muerto en los ataques con aviones no tripulados en el país desde 2008.

   "Los soldados pueden matar a otros soldados en una guerra - ¿sería permisible que alguien al otro lado de la Tierra atacase a los operadores que controlan los aviones no tripulados?" se pregunta Johansson.

   También cuestiona la ética de la asignación de los operadores de aviones no tripulados a la tarea de seguimiento de una persona dirigida desde una distancia segura durante días, tal vez incluso una semana, antes de golpear. "Esto es diferente de los soldados de combate ordinarias que se enfrentan a sus rivales directamente", dice. "El síndrome de estrés post-traumático que afecta a un operador puede ser tan grave como para un soldado regular".

   Actualmente, los drones siguen operados de forma remota por un ser humano, pero el avance tecnológico es tan rápido que la automatización completa es algo más que una lúgubre fantasía de la ciencia ficción.

   Johansson esboza un escenario para mostrar cómo llegar a ese punto presenta otras cuestiones éticas: "Pronto podríamos estar ante una situación en la que un operador controla dos drones en lugar de uno , debido a razones de coste", dice Johansson. "A esto se añade la tendencia humana a confiar en la tecnología. Ahora imagine una situación en la que hay que tomar decisiones muy rápidas. Se hace más fácil salir del bucle de decisiones entregando el control al robot o el ordenador. El hombre se convierte en el eslabón más débil".

   También podría argumentarse que los robots no tienen derecho a defenderse a sí mismos, ya que bajo las reglas de la guerra no están en peligro de perder sus vidas. "¿Quiere decir que han perdido el derecho de matar a los soldados humanos?", plantea.

   Los robots, especialmente drones, también pueden facilitar el desarrollo de la "guerra secreta", con baja transparencia y una mínima participación de las tropas.

ENLACES RELACIONADOS: Future of robot warfare poses ethical questions

Leer más acerca de: