Inicio

Desarrollo defensa y tecnología belica blog de difusión de tecnologías de sistemas de armas,noticias,conflictos internacionales, y la evolución histórica de material bélico en general

lunes, 14 de septiembre de 2020

¿Rusia o China liberarían armas de inteligencia artificial sin control humano en una guerra?

El Pentágono está expresando su preocupación por el uso que China y Rusia hacen de la inteligencia artificial para controlar los sistemas autónomos de ataque, utilizando potencialmente nueva tecnología para sacar a los humanos del proceso de toma de decisiones de la cadena de muerte.

El Pentágono está expresando su preocupación por el uso de la inteligencia artificial por parte de China y Rusia para controlar los sistemas autónomos de ataque, utilizando potencialmente nueva tecnología para eliminar a los humanos del proceso de toma de decisiones de la cadena de matanza.

Ha habido una preocupación de larga data entre los líderes del Pentágono de que, a pesar de las actuales directrices éticas de los EE.UU. que requieren que un humano esté "en el bucle" en relación con las decisiones sobre el uso de la fuerza letal, países como Rusia y China no operarán dentro de directrices éticas similares.

Hablando recientemente en el Simposio de IA del Departamento de Defensa, el Secretario de Defensa Mark Esper citó tanto a Rusia como a China como países que ahora presentan un alto nivel de amenazas a los EE.UU. en relación con su uso de IA y sistemas autónomos.

"Moscú ha anunciado el desarrollo de sistemas autónomos habilitados para la IA en vehículos terrestres, aeronaves, submarinos nucleares y comando y control. Esperamos que desplieguen estas capacidades en futuras zonas de combate", dijo Esper, según una transcripción del Pentágono.

Refiriéndose al uso integrado de Rusia de sistemas de armas como drones, artillería y ciberataques durante la anexión de Ucrania en 2014, Esper explicó que Rusia utilizó este tipo de redes avanzadas para "infligir graves daños a las fuerzas ucranianas".

Esper también citó los sistemas de armas chinos potenciados por la IA, como los drones de largo alcance y los vehículos terrestres autónomos para "contrarrestar la proyección de la energía convencional de los Estados Unidos".

"Los fabricantes de armas chinos están vendiendo aviones no tripulados autónomos que dicen que pueden llevar a cabo ataques selectivos letales", mencionó.

Sin embargo, estos acontecimientos, incluida la conocida observación de Putin de que "quienquiera que controle la IA controlará el mundo", no significan necesariamente que China y Rusia estén perceptiblemente por delante de los Estados Unidos en el ámbito de la IA. 

Orion UAV 

Resulta interesante que, desde 2009, los sistemas de navegación autónomos han permitido cada vez más a los sistemas de armas robóticas detectar, rastrear y destruir objetivos sin necesidad de intervención humana. La tecnología se ha estado desarrollando durante muchos años. Por ejemplo, el ahora cancelado Vehículo de Equipo Logístico Multiusos del Ejército de los EE.UU. era una plataforma anterior diseñada para utilizar misiles autónomos de navegación y antitanque Javelin. La posibilidad de que un robot encuentre y ataque objetivos enemigos con misiles Javelin de forma independiente ya existía hace diez años. En ese momento, el Ejército añadió una aclaración doctrinal adicional, reforzando de nuevo la necesidad de que los humanos tomen en última instancia todas las decisiones relativas al uso de la fuerza letal. En años posteriores, el Pentágono ha mantenido esta doctrina. 

La autonomía habilitada por la IA se encuentra ahora en las primeras fases de su utilización con fines defensivos contra objetivos no humanos en áreas como la defensa contra drones y las contramedidas para los cohetes, artillería y morteros enemigos que se aproximan. Este tipo de aplicación puede mejorar rápidamente las tecnologías de protección de las fuerzas al permitir decisiones mucho más rápidas con respecto a qué amenazas detener y qué interceptores o contramedidas utilizar.

Fuente:https://nationalinterest.org

No hay comentarios:

Publicar un comentario