Las Naciones Unidas han reportado el primer ataque de un dron de combate contra una persona sin el comando de un operador. Los expertos advierten que el uso de este tipo de aviones no tripulados puede ser muy peligroso, ya que suelen escoger objetivos equivocados.
De acuerdo con el informe de la ONU, un dron militar turco Kargu-2 atacó a los soldados del Ejército Nacional Libio (ENL) del mariscal Jalifa Haftar en Libia en el 2020, operando en modo completamente autónomo.
Kargu-2 es un dron kamikaze tipo cuadricóptero de producción turca. Puede ser controlado de forma remota por un operador o utilizar una cámara de a bordo e inteligencia artificial para buscar objetivos de forma autónoma y apuntarlos.
La aeronave no tripulada pesa 15 kilos y tiene la capacidad de permanecer en el aire hasta 30 minutos. La munición con la que está equipado el dron puede ser de fragmentación para destruir al personal del enemigo, de alto poder explosivo antitanque (HEAT, por sus siglas en inglés) para atacar vehículos ligeramente blindados y termobárica para destruir objetivos en un espacio confinado.
Los especialistas señalan que durante el ataque los Kargu-2 son capaces de unirse en un enjambre de hasta 20 drones.
Prohibir las tecnologías peligrosas
Mientras tanto, los sistemas de armas totalmente autónomas se consideran una de las tecnologías militares más peligrosas que se están desarrollando actualmente, aseguran los expertos.
Muchos científicos, investigadores y politólogos, entre ellos Elon Musk, Stephen Hawking y Noam Chomsky, han pedido en numerosas ocasiones la prohibición de este tipo de armas, que tiene la capacidad de buscar y matar a personas específicas basándose en la inteligencia artificial.
Los expertos advierten que los conjuntos de datos utilizados para entrenar a estos robots asesinos autónomos para clasificar e identificar objetos pueden aprender lecciones incorrectas y apuntar objetivos equivocados.
Los defensores de los drones autónomos, como el Kargu-2, a su vez, aseguran que son capaces de distinguir objetivos entre los civiles. Sin embargo, los críticos están convencidos de que la tecnología aún es demasiado imprecisa.
El especialista en seguridad nacional Zachary Kallenborn escribió en la revista Bulletin of the Atomic Scientists (Boletín de los Científicos Atómicos) que los sistemas modernos de aprendizaje automático no pueden distinguir con precisión, por ejemplo, a un agricultor de un soldado.
No hay comentarios:
Publicar un comentario