Dado que es probable que las guerras del mañana sean más rápidas, más de alta tecnología y menos humanas que nunca, gracias a los avances en la "autonomización" de las plataformas terrestres, aéreas, marítimas y submarinas, ahora hay debates en todo el mundo sobre si será seguro para la humanidad depender de la confiabilidad y eficiencia de los robots militares. dadas las vulnerabilidades persistentes del algoritmo y los datos.
Tanto es así que el 26 de octubre se lanzó una campaña estudiantil llamada "#StopCambridgeKillerRobots" contra una investigación de la Universidad de Cambridge para el desarrollo de armas autónomas letales (LAW), denominadas 'Killer Robots'.
El programa fue financiado por Silicon Microgravity, un "spin-out de tecnología de sensores" de la Universidad, que había otorgado £ 567,000 en fondos de investigación a Cambridge durante el período 2015-19) y las compañías relacionadas con la industria de defensa como ARM Limited y Trimble Europe (cuyas subvenciones a la investigación universitaria ascendieron a £ 455,000 entre 2017-19 y £ 193,000 entre 2016-19 respectivamente).
De hecho, el mercado de robots militares ha estado mostrando un aumento constante en los presupuestos de defensa de los principales países en los últimos años. Los últimos datos disponibles sugieren que el tamaño del mercado de robots militares probablemente crecerá de $ 14.5 mil millones en 2020 a $ 24.2 mil millones para 2025, a una CAGR del 10.7%.
Se dice que los impulsores de este mercado incluyen el creciente uso de robots en áreas afectadas por ataques químicos, biológicos, radiológicos y nucleares (QBRN), el mayor uso de robots para contramedidas de minas y el creciente uso de UAV en misiones que amenazan la vida.
Cada rama del ejército estadounidense ahora está clamando por más y más robots. La Marina de los Estados Unidos está experimentando con un barco de 135 toneladas llamado 'Sea Hunter' que podría patrullar los océanos sin tripulación, buscando submarinos que algún día podría atacar directamente. ¡Será comandado por un oficial "no tripulado"!
El Ejército de los Estados Unidos está desarrollando un nuevo sistema para sus tanques que puede elegir objetivos de manera inteligente y apuntarles con un arma. También está desarrollando un sistema de misiles, llamado Joint Air-to-Ground Missile (JAGM) que tiene la capacidad de seleccionar vehículos para atacar sin que los humanos lo digan.
Y la Fuerza Aérea de los Estados Unidos está trabajando en su programa "SkyBorg", una arquitectura de equipo de aviones autónomos o no tripulados que permitirá a la Fuerza Aérea "posicionar, producir y mantener salidas de misión a un ritmo suficiente para producir y mantener la masa de combate en entornos disputados"
Rusia y China tampoco están inactivas. Se cree que Rusia tiene un submarino no tripulado que está equipado con "municiones nucleares". China dice que será el líder mundial en inteligencia artificial (IA) que es la base misma del desarrollo de tales robots para 2030.
El punto es que hoy en día el desarrollo tecnológico es tal que desde minas terrestres tontas hasta sofisticados drones militares, en el espacio y los océanos, los robots militares pueden ser (son) ampliamente desplegados para misiones peligrosas para que sus creadores humanos no sean puestos en peligro.
Tres tipos de robots
Los robots son de tres tipos. Los robots "automáticos" responden de forma mecánica a las entradas externas. Estos suelen ser sin ninguna capacidad de discriminar los insumos.
Los robots "automatizados" ejecutan comandos de forma cronológica preprogramada con sensores que ayudan a secuenciar la acción. En su mayoría están limitados por algoritmos que determinan sus reglas de operaciones y comportamiento a partir de acciones alternativas fijas, lo que los hace predecibles
Los robots "autónomos" son aquellos que pueden elegir entre múltiples opciones de acción basadas en la entrada sensorial y pueden lograr objetivos a través de la optimización a lo largo de un conjunto de parámetros. Aunque todavía están limitados por una gama de acciones preprogramada, pueden ejercer un juicio independiente sobre los cursos de acción para cumplir con la intención de nivel superior.
Los problemas o peligros, dicen los críticos, son principalmente con los "robots autónomos que están mejorando constantemente, gracias al avance en el campo de la IA.
Entrenamiento del ejército australiano con un prototipo 'Vision 60' como sensor multipropósito y bot de reconocimiento. (vía Twitter)
Hasta ahora, los robots siguen siendo controlados por humanos que deben aprobar el desencadenamiento de su violencia letal. Pero con la autonomía habilitada para la IA, la computación más rápida y mejores sensores, los robots autónomos pueden decidir sobre la selección y la participación de objetivos en función de las entradas del sensor y sin control humano. Y esto preocupa a los académicos, académicos legales y formuladores de políticas de que el advenimiento de tales robots provocará un "robopocalypse" de guerra deshumanizada.
Expertos advierten de 'robopocalypse'
Incluso muchos veteranos militares entienden que estos robots podrían conducir a una violación de la cadena de mando (confiabilidad) cuando ejecutan tareas basadas en datos corruptos (eficiencia) y algoritmos defectuosos. Los soldados pueden confiar demasiado en las máquinas y obtener una falsa sensación de seguridad sin comprender completamente cómo tales sistemas llegan a sus juicios, un fenómeno llamado "sesgo de automatización".
Además, hay otro peligro. Las guerras se deciden a través de la "Toma de Decisiones Estratégicas", dirigidas por el liderazgo civil o político de un país. Y aquí es precisamente donde surge un problema potencialmente importante cuando los análisis e inferencias generados por la IA podrían ganar un grado de autoridad sobredimensionado en las decisiones políticas.
Las cosas dependerán de las personas que tengan acceso a la IA y que, a su vez, estén en condiciones de contextualizar e interpretar sus resultados. Dado que las fuerzas armadas tienen ese acceso, las tensiones entre civiles y militares tienen todas las posibilidades de exacerbarse, especialmente en las democracias.
Pero, por muy inoportunas que sean estas posibilidades, veteranos como el ex general estadounidense Stanley McChrystal advierten que "los robots asesinos están llegando, y puede que nunca entendamos las decisiones que toman".
Una captura de pantalla de un vídeo producido por la empresa estadounidense Corridor Digital, especializada en efectos visuales. Muestra un robot del futuro que puede disparar a objetivos con una precisión perfecta a pesar de los obstáculos que le lanzan los personajes humanos.
Afirma que dotar a la IA de la capacidad de lanzar ataques letales será una cuestión de necesidad, aunque hacerlo podría conducir a un futuro "aterrador".
"Se ha creado una tecnología, se han puesto en marcha procesos para que funcione, pero luego, para operar a la velocidad de la guerra, se está esencialmente encendiendo y confiando en ella", argumenta el general McChrystal, y añade: "Un misil de hipervelocidad, un misil hipersónico que se acerca al portaaviones estadounidense, no tienes tiempo para que la gente haga un seguimiento, no tienes tiempo para que los líderes de alto nivel estén en el bucle de decisión, o no serás capaz de activar el misil. En un momento dado, no puedes responder con la suficiente rapidez si no lo haces".
Fuente:https://www.thedrive.com
No hay comentarios:
Publicar un comentario