IAI Mini Harpy, dron suicida IAI
El uso de drones con capacidad de ataque sin intervención humana abre un debate muy complejo sobre quién es el responsable si se produce una baja.
El uso de drones ha pasado de ser exclusivo de países militarmente muy avanzados como Estados Unidos a una herramienta más dentro de otros ejércitos de menor nivel. No nos tenemos que ir muy lejos para saber que países como España cuentan con diversos modelos más o menos avanzados y otros como Marruecos están en pleno proceso de adquisición de drones de nueva factura.
Pero esta tecnología se está llevando mucho más allá. En la industria militar actual podemos encontrar drones totalmente autónomos enlazados a cazas, de inteligencia capaces de recopilar información y otros que, directamente, están programados para matar a personas sin intervención humana.
Esto último se sumerge en un terreno moral, ético y jurídico muy pantanoso con muchas preguntas y pocas respuestas. Por ejemplo, sobre quién recae la responsabilidad si un dron mata de forma autónoma a una persona. Puesto que no se podría -por el momento- relacionar a nadie con esa muerte.
Esto, que puede parecer más propio de una película de ciencia ficción, es uno de los temas que trata el Consejo de Seguridad de las Naciones Unidas en un informe emitido el pasado 8 de marzo sobre el uso de drones autónomos en Libia contra las tropas de Haftar por parte de Turquía. "Los sistemas de armas autónomos letales se programaron para atacar objeticos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de disparar, olvidar y encontrar", apuntan desde la ONU.
Este hecho recogido en el informe supone la primera vez que un dron ataca autónomamente a humanos, aunque sin bajas confirmadas. O al menos que se conozca oficialmente. Nadie al otro lado estaba manejando al dron y mucho menos tenía el dedo apretado sobre el botón de disparar.
¿Quién dispara?
"La pregunta aquí es: estamos en sistemas donde se aumenta la inteligencia y el humano juega un rol primordial en la decisión [de dispara] o ya hemos pasado a un escenario en el que se deja la decisión al sistema", nos comentó Josep Courto, especialista en Big Data, cuando nos habló sobre las armas que disparan solas. "Y si es así, qué consideraciones éticas y morales se han tenido en cuenta".
Esta última es la clave de todo este asunto y en algo en lo que están trabajando algunas compañías que fabrican este tipo de sistemas junto con los diversos entes y organismos públicos encargados de la compra de armas.
Uno de los países que más avanzado está en la materia y el que marca el compás mundial es Estados Unidos. Tanto es así, que fue uno de los primeros en pronunciarse sobre esta tecnología en 2012. En noviembre de ese año, el Departamento de Defensa publicó una directiva que recogía la política del país respecto al uso de armas automáticas. "Los sistemas de armas autónomos y semiautónomos se diseñarán para permitir que los comandantes y operadores ejerzan niveles apropiados de juicio humano sobre el uso de la fuerza", según se recoge.
"Las personas que autorizan el uso, dirigen u operan sistemas de armas autónomos y semiautónomos deben hacerlo con el cuidado apropiado y de acuerdo con las leyes de guerra, los tratados aplicables, las reglas de seguridad del sistema de armas y las reglas de enfrentamiento aplicables", indica el mismo Departamento de Defensa. Sin acotar más.
En esta misma línea y en 2016, el por entonces subsecretario de defensa del Pentágono, Robert Work, declaró que "no delegaremos la autoridad letal a una máquina para que tome una decisión". Con un 'pero' importante: "[excepto] cuando hay cosas que van más rápido que el tiempo de reacción de un humano, como la guerra cibernética o la electrónica".
La Junta de Innovación de Defensa del Departamento de Defensa de Estados Unidos publicó en el 2017 un documento donde se recogen los principios y las recomendaciones del empleo de la Inteligencia Artificial en su área. El primer principio que publica es la responsabilidad sobre la tecnología y la implicación humana a la hora de ejercer "los niveles adecuados de juicio y seguir siendo responsables del desarrollo, la implementación, el uso y los resultados de los sistemas de IA".
Esta misma política parece ser la que han seguido un número importante de países del mundo que, por el momento, no han visto conveniente cruzar la fina línea de la primera ley de la robótica que aplicaba Isaac Asimov en sus novelas. En las diversas presentaciones de drones autónomos con IA, Estados Unidos ha remarcado que sigue apostando por esta política de control, ejecución y supervisión de ataques.
Aunque desde el país norteamericano también se alerta de que posiblemente algunos ejércitos no se acojan a esta ley no escrita y opten por programar a sus drones tareas de ataque sin intervención humana. En el caso de Turquía contra Haftar, queda claro que fueron las fuerzas aéreas turcas las que realizan el ataque, pero es imposible identificar a una persona directamente responsable.
Toda la polémica creada alrededor ha generado a su vez un movimiento social que se materializó en 2013 con la Campaing to Stop Killer Robots, una coalición de diversas organizaciones no gubernamentales en contra de las armas letales autónomas o LAWs, de su acrónimo en inglés.
Contra las LAWs
Lo ocurrido en Libia abre la puerta -y el debate- del empleo de drones autónomos o cualquier LAWs (Lethal Autonomius Weapons o Armas Letales Autónomas) sin un marco jurídico claro. Un hecho del que quedó reflejado en un julio de 2015 cuando 1.000 expertos en Inteligencia Artificial firmaron una carta alertando de la amenaza de las diferentes armas con IA y pidiendo la prohibición de las armas autónomas.
Entre los firmantes, se encontraron primeras espadas de la industria tecnológica y científica como Elon Musk, Stephen Hawking, Steve Wozniak y diversos ejecutivos de compañías como Skype o Google. El contenido indicaba los diversos problemas de control democrático de la guerra que implicarían el uso de estos sistemas autónomos. Por ejemplo, a la hora de condenar crímenes de guerra recogidos en el Derecho Internacional Humanitario y en la Convención de Ginebra.
El dron turco suicida
La aeronave a la que hace referencia el Consejo de Seguridad de la ONU es el STM Kargu-2, un cuadricóptero de fabricado en Turquía que se encuadra dentro de los denominados drones de merodeo. "Kargu es un dron de ataque de ala giratoria que ha sido diseñado para operaciones de guerra asimétrica o antiterrorista", según lo define la propia STM en su página web. Y que forman parte de la fuerza aérea de Turquía.
Su tecnología es capaz de atacar tanto a objetivos estáticos como en movimiento y lo consigue a través de su sistema avanzado de procesamiento de imágenes en tiempo real y algoritmos de aprendizaje automático integrados. Gracias a lo cual puede operar tanto de día como en la de noche, tiene sistemas de seguimiento de objetivos, sistemas de navegación avanzados, zoom óptico 10x y diferentes opciones de munición.
Quizá esta última es lo que lo convierte en un dron un tanto peligroso capaz de acarrear una carga explosiva en su pequeña pero letal bodega de carga. En cuanto a especificaciones, tiene una autonomía de 5 kilómetros durante un máximo de 30 minutos a una altitud máxima de 2.800 metros del nivel del mar y a una velocidad máxima de 72 kilómetros por hora.
Con un peso de poco más de 7 kilogramos y un rango operativo de temperaturas desde los 20 bajo cero a 50 sobre cero, su función será la de identificar el objetivo y atacarlo. Lo consigue explotando muy cerca de su objetivo a batir, ya sean humanos, vehículos o infraestructuras.
Según el reporte de Naciones Unidas, "los vehículos aéreos de combate no tripulados y la pequeña capacidad de inteligencia, vigilancia y reconocimiento de drones con los que cuentan las fuerzas afiliadas a Haftar fueron neutralizados mediante interferencia electrónica gracias al sistema de guerra electrónica Koral".
Fuente:omicrono
No hay comentarios:
Publicar un comentario