La inteligencia artificial (IA) ha revolucionado numerosos sectores, y el ámbito de la seguridad y defensa no es la excepción. Desde la mejora de la logística hasta la automatización de sistemas de armas, la IA ha transformado la manera en que las Fuerzas Armadas operan. Sin embargo, a medida que los sistemas de IA se integran más profundamente en las operaciones militares, también se incrementan los riesgos asociados, particularmente en escenarios de conflicto bélico. Los adversarios pueden intentar abordar y neutralizar estos sistemas a través de ciberataques, manipulación de algoritmos o desactivación de redes críticas. Por lo tanto, proteger la IA siempre, no solo es vital, sino que se convierte en una prioridad estratégica.
La inteligencia artificial ofrece un sinfín de oportunidades en el ámbito militar[1] y constituye un importante reto para la seguridad y la defensa[2]. Ello obliga a que los países la tengan muy en cuenta en la elaboración de sus estrategias de seguridad nacional[3].
En primer lugar, la capacidad de la IA para procesar grandes cantidades de datos en tiempo real permite a los mandos tomar decisiones informadas y precisas. Este análisis avanzado de datos puede abarcar desde la interpretación de imágenes satelitales hasta la predicción de movimientos enemigos basados en patrones comportamentales y testados históricamente, transformado la manera en que operan las Fuerzas Armadas[4]
Además, la IA se utiliza para mejorar la eficiencia logística, optimizando la distribución de recursos en el campo de batalla y asegurando que las tropas estén siempre abastecidas y preparadas[5].
Otro aspecto clave es el uso de IA en la automatización de sistemas de armas. Drones y vehículos autónomos son capaces de operar en entornos peligrosos sin poner en riesgo vidas humanas[6]. Estos sistemas no solo aumentan la capacidad operativa, sino que también permiten realizar misiones que de otro modo serían demasiado arriesgadas.
Asimismo, la IA es fundamental en la ciberseguridad, ya que puede detectar y neutralizar amenazas en tiempo real, protegiendo infraestructuras críticas y redes de comunicación.
Riesgos: Manipulación de los sistemas de IA
“El arte supremo de la guerra es someter al enemigo sin luchar”[7]. Esta célebre frase de Sun Tzu, extraída de su obra ‘El Arte de la Guerra’, resuena con particular relevancia en el contexto de la inteligencia artificial en conflictos bélicos.
En la era digital, someter al enemigo sin lucha física puede lograrse a través de la manipulación y control de sus sistemas de IA, incluso antes de que comience un conflicto abierto[8]. Un adversario que logra infiltrarse y controlar la IA de un oponente puede, en efecto, ganar la guerra sin disparar un solo tiro. Este enfoque no sólo desestabiliza al enemigo, sino que también lo despoja de su capacidad de respuesta, poniendo en riesgo la seguridad nacional de forma significativa.
La manipulación de sistemas de IA en conflictos bélicos puede adoptar diversas formas, y es esencial que las Fuerzas Armadas comprendan tanto las tácticas de ataque como las posibles respuestas[9].
Un ejemplo claro de manipulación es el ataque conocido como ‘data poisoning’[10] o envenenamiento de datos, donde un adversario introduce datos falsos o corruptos en el sistema de IA para alterar su funcionamiento. Esto puede resultar en que la IA haga predicciones erróneas o tome decisiones basadas en información incorrecta. Más concretamente, en un escenario de guerra, un sistema de IA encargado de identificar objetivos podría ser manipulado para clasificar erróneamente vehículos civiles como objetivos militares.
Otro método de manipulación es el ‘adversarial attack’[11] o ataque adversario, donde pequeños cambios imperceptibles para los humanos son introducidos en las entradas de un sistema de IA, provocando que el sistema falle o tome decisiones incorrectas. En un contexto militar, esto podría ser utilizado para hacer que un sistema de reconocimiento facial identifique erróneamente a un combatiente enemigo como un aliado, o que un vehículo autónomo navegue hacia una trampa.
Un tercer ejemplo es la manipulación de algoritmos a través del ‘backdoor attack’[12], en el cual se inserta una puerta trasera durante el desarrollo del software de IA que permite a un adversario tomar control del sistema en momentos críticos. Este tipo de ataque podría permitir al enemigo desactivar sistemas de defensa o desviar misiones en curso.
Desafíos
Como ya se ha comentado, las oportunidades de uso de la IA en la defensa nacional no está exenta de riesgos que suponen un desafío para los ejércitos. Sobre ellos pone el foco esta sección.
La vulnerabilidad de estos sistemas inteligentes a potenciales ciberataques, no sólo en conflictos bélicos, sino incluso en tiempo de paz, pueden ser objeto de ‘hackeo’ para desactivarlos, manipular los datos que estos procesan o utilizarlos para desinformar. Por otro lado, la complejidad de los sistemas de IA requiere medidas mitigadoras también complejas.
No podemos olvidar la sobredependencia de la IA. En el caso de que las Fuerzas Armadas dependan demasiado de estos sistemas, podrían encontrarse en una posición vulnerable si la IA falla o es desactivada y de ahí que el enemigo pretenda en primer lugar entrar por esta vía para desactivar los sistemas o lo que es peor, para volverlos en contra
Dada la importancia crítica de la IA en la defensa así como los retos a los que está expuesta, es esencial implementar estrategias robustas para proteger estos sistemas[13]. A continuación, se exponen algunas posibilidades.
- Una de las principales estrategias es el fortalecimiento de la ciberseguridad. Esto incluye la implementación de protocolos de encriptación avanzados, el uso de inteligencia artificial para detectar y responder a amenazas en tiempo real, y la creación de redes de comunicación seguras y redundantes lo que significa crear múltiples capas de seguridad que puedan mitigar los efectos de un ataque, asegurando que si un sistema falla, otro pueda tomar su lugar sin interrumpir las operaciones. Además, es vital desarrollar sistemas de IA que sean resistentes a la manipulación y que puedan continuar operando incluso si algunos de sus componentes son comprometidos. El uso de ‘honeypots’[14] o trampas cibernéticas puede ser efectivo para identificar a los atacantes y estudiar sus métodos, permitiendo a las fuerzas armadas desarrollar contramedidas más robustas.
- Otra estrategia clave es la implementación de medidas de contingencia. Esto incluye la creación de planes de emergencia que se activen en caso de que un sistema de IA sea comprometido. Estos planes deben incluir procedimientos para restaurar rápidamente la funcionalidad del sistema, así como para mitigar cualquier daño causado por el ataque.
- Otro aspecto importante es el desarrollo de IA con capacidades de autoaprendizaje y adaptación en tiempo real. Esto permitiría a los sistemas de IA responder dinámicamente a amenazas que no habían sido previstas anteriormente, aumentando su resiliencia frente a ataques novedosos.
- También es importante entrenar a las Fuerzas Armadas en cómo operar sin la ayuda de la IA, de modo que estén preparadas para enfrentar situaciones en las que estos sistemas no estén disponibles.
- Es esencial que las Fuerzas Armadas mantengan un estado de alerta constante, incluso en tiempos de paz. La vigilancia continua y la preparación para una respuesta rápida y efectiva son fundamentales para contrarrestar los esfuerzos de un adversario que busca someter sin luchar. Este nivel de preparación no solo protege contra ataques directos, sino que también disuade al enemigo de intentar tales estrategias, al saber que sus esfuerzos podrían ser descubiertos y neutralizados antes de que puedan causar un daño significativo.
- Finalmente, la cooperación internacional juega un papel fundamental en la protección de la IA en tiempos de guerra. La creación de alianzas estratégicas que compartan información sobre ciberamenazas y desarrollen estándares comunes para la seguridad de la IA puede fortalecer la defensa colectiva. La colaboración entre naciones aliadas[15] también puede facilitar el desarrollo de contramedidas efectivas frente a posibles agresores que buscan explotar vulnerabilidades en la IA.
Integración
Es evidente que la IA ha transformado la defensa militar, y esto no ha hecho más que empezar y aún no somos capaces de ver todo el potencial de los sistemas de la IA generativa ofreciendo numerosas oportunidades para mejorar la eficiencia y la precisión en las operaciones. Sin embargo, es preciso ser consciente de que estos beneficios pueden venir envueltos en significativos desafíos y riesgos, especialmente en el contexto de un conflicto bélico, aunque no son menores en tiempo de paz, en el que el adversario pretenda ir haciendo de forma latente un ataque que facilite, llegado el momento, atacar sin apenas resistencia alguna la seguridad nacional. Por tanto, proteger los sistemas de IA en tiempos de guerra, es esencial para asegurar la integridad y la eficacia de las Fuerzas Armadas. Además de lo anterior, es clave ir articulando medidas en tiempos de paz que permita asegurar la efectividad de los modelos.
Esto no es algo nuevo: ya desde la vieja Roma, la ‘pax’ era usada para romanizar lo conquistado, pero a su vez para construir entre otras cosas sistemas logísticos de carreteras y almacenes de suministro que permitía el movimiento rápido de tropas por el extenso territorio del Imperio, en caso de tener que actuar. Se requiere, por tanto, un enfoque integral que combine el fortalecimiento de la ciberseguridad, el desarrollo de sistemas de IA resistentes y la preparación para contingencias. Solo a través de estas medidas se podrá garantizar que la IA sea una herramienta efectiva en la defensa nacional y garantice la seguridad nacional.
* Comunicación presentada en el XXXI Curso Internacional de Defensa, ‘Inteligencia Artificial: Oportunidades y desafíos para la seguridad y defensa’, Jaca 23-27 de septiembre de 2024.
[1] S. Sanchez Tapia, ed. (2024). ‘Seguridad en la era de la inteligencia artificial’, Center for Global Affairs & Strategic Studies, Universidad de Navarra. https://www.unav.edu/web/global-affairs/seguridad-en-la-era-de-la-inteligencia-artificial
[2] P. Las Heras (2023), ‘El reto de la inteligencia artificial para la seguridad y la defensa’, Center for Global Affairs & Strategic Studies, Universidad de Navarra. https://www.unav.edu/web/global-affairs/el-reto-de-la-inteligencia-artificial-para-la-seguridad-y-defensa
[3] E. Olier Arenas, (2024). ‘Panorama internacional de la inteligencia artificial en las actividades de defensa y seguridad’, Instituto Español de Estudios Estratégicos, Cuaderno de estrategia 226, pp. 11-17. https://publicaciones.defensa.gob.es/media/downloadable/files/links/l/a/la_inteligencia_artificial_en_la_geopol_tica_y_los_conflictos_ce_226.pdf
[4] A. Gómez de Ágreda, (2020). ‘Usos militares de la inteligencia artificial, la automatización y la robótica IAA&R’. Ministerio de Defensa, pp. 9-18. https://publicaciones.defensa.gob.es/media/downloadable/files/links/u/s/usos_militares_inteligencia_artificial.pdf
[5] Ministerio de Defensa, (2020). ‘Estrategia de Tecnología e Innovación para la Defensa ETID’. https://publicaciones.defensa.gob.es/media/downloadable/files/links/e/t/etid_estrategia_de_tecnolog_a_e_innovaci_n_para_la_defensa_2020.pdf
[6] A. Ortiz y T. Rodríguez, (2024). ‘Análisis de la geopolítica mundial mediante inteligencia artificial (IA) y big data’, Instituto Español de Estudios Estratégicos, Cuaderno de estrategia 226, pp. 63-72. https://publicaciones.defensa.gob.es/media/downloadable/files/links/l/a/la_inteligencia_artificial_en_la_geopol_tica_y_los_conflictos_ce_226.pdf
[7] Sun Tzu. (2019). ‘El arte de la guerra’ (L. Urdiales, traducción; Alianza Editorial) (Original de Circa siglo V a.C.), p. 26.
[8] J. Corchado, (2024). ‘Gestión de crisis mediante la utilización de IA’. Instituto Español de Estudios Estratégicos, Cuaderno de estrategia 226, pp 161-185. https://publicaciones.defensa.gob.es/media/downloadable/files/links/l/a/la_inteligencia_artificial_en_la_geopol_tica_y_los_conflictos_ce_226.pdf
[9] J. L. Pontijas, (2022). ‘Una nueva estrategia para la Unión Europeaa’, Instituto Español de Estudios Estratégicos, Cuadernos de Estrategia, 215, pp. 48-81. https://publicaciones.defensa.gob.es/media/downloadable/files/links/l/a/la_uni_n_europea_hacia_autonom_a_estrat_gica_1.pdf
[10] I. Goodfellow, Y. Bengio, & A. Courville, (2016). Deep learning (MIT Press ) pp. 290–295.
[11] Íbid.
[12] Íbid.
[13] Lupiáñez, M. (2023). ‘Cómo hacer frente a un ataque cognitivo: Prototipo de detección de la propaganda y manipulación en operaciones psicológicas dirigidas a civiles durante un conflicto’, Revista Instituto Español de estudios estratégicos, 22, pp. 61-94. https://revista.ieee.es/article/view/6058
[14] L. Spitzner (2003). Honeypots: Tracking hackers (Addison-Wesley Professional) pp. 135–138.
[15] G. León Serrano (2021). ‘Repercusión estratégica del desarrollo tecnológico’, Instituto Español de Estudios Estratégicos, Cuadernos de Estrategia, 207. pp 23–76. https://publicaciones.defensa.gob.es/repercusiones-estrategicas-del-desarrollo-tecnologico-impacto-de-las-tecnologias-emergentes-en-el-posicionamiento-estrategico-de-los-paises-libros-papel.html