Auge de la IA en el ámbito militar y sus riesgos

Auge de la IA en el ámbito militar y sus riesgos

ENSAYO*

26 | 02 | 2025

Texto

Los sistemas de armas autónomos mejoran la eficiencia operativa pero también aumentan la posibilidad de errores graves

Todos y cada uno de los grandes conflictos mundiales han marcado un antes y un después en la Historia, tanto por sus avances tecnológicos como estratégicos. En esta época actual, a pesar de no existir un conflicto mundial abierto, también estamos viviendo una época de cambios, aparentemente en el campo de las tecnologías de ámbito civil, pero con un elevadísimo potencial en la industria militar como, por ejemplo, la inteligencia artificial (IA).

La IA puede ser definida como “una tecnología que permite simular las capacidades humanas en la resolución de problemas, así como aprender a través del ensayo-error o por datos de alguna fuente concreta”. En esta definición, cabe destacar la importancia de la palabra “simular”, puesto que actualmente, esta tecnología es incapaz de pensar de forma abstracta como el ser humano.

Los últimos años han sido testigo de un notable avance en la IA, desde la aparición de modelos como Chat GPT, hasta sistemas capaces de generar imágenes muy realistas, en lo que constituye un ejemplo de IA ‘generativa’, que es aquélla que puede crear algo nuevo, como respuestas o imágenes, y que supone un progreso respecto a la ‘tradicional’ o ‘analítica’, que realiza tareas específicas de manera más eficiente al aprender de los datos y tomar decisiones. De todas ellas, la analítica es la que tiene más potencial en aplicaciones industriales y militares, concretamente en los campos de la estrategia y la inteligencia, en los que podría marcar un antes y un después.

Este análisis explora algunas de las diversas aplicaciones de la IA. Aborda los usos actuales de la IA en conflictos militares y profundiza en dos aplicaciones específicas de la IA en el ámbito militar: el armamento autónomo y la prevención de amenazas. Finalmente, analiza los riesgos asociados con esta tecnología, tanto en el ámbito militar como en el humano. La IA es una tecnología muy reciente, y como bien se sabe, lo desconocido aterra. Por ello, el artículo tratará también de los riesgos que esta tecnología acarrea, tanto en el ámbito militar como en el humano en general.

La IA tiene múltiples aplicaciones militares, como la ciberseguridad, la detección de amenazas reales, y muchas otras. Por poner un ejemplo, la IA permitirá automatizar los ciberataques, aumentando su velocidad y permitiendo explotar las vulnerabilidades de forma más eficiente. También tiene aplicaciones defensivas, pues sirve para analizar grandes volúmenes de información y para reconocer patrones anómalos que permitan responder rápidamente a las amenazas, llegando incluso a evitar su ejecución.

Uno de los retos más importantes es el del empleo de la IA en campañas de desinformación, creando contenidos falsos que pueden influir en la opinión pública o desestabilizar a los adversarios. Además, la dificultad para atribuir los ataques a actores específicos se ve agravada por el uso de técnicas avanzadas por parte de los atacantes. Las ciberamenazas evolucionan constantemente, y la IA permite a los atacantes adaptarse rápidamente a las defensas existentes, creando un ciclo continuo de ataque y defensa.

La IA en la guerra moderna

La IA está comenzando a usarse en conflictos internacionales, como en el que se libra en estos momentos en la franja de Gaza. De acuerdo con testimonios de la inteligencia israelí, el programa “Lavender” lleva en uso desde mayo del 2021. Se trata de un modelo probabilístico que, con parámetros que se desconocen, clasifica a la población de la Franja de Gaza en una escala de 0 a 100 en base a sus relaciones con Hamás, a través de una red de vigilancia instalada en la zona. Según las Fuerzas de Defensa de Israel (FDI), este sistema se emplea como “una herramienta más en el proceso de identificación de objetivos”, mostrando una eficacia del 90%. Este sistema se complementa con dos más: “Where's Daddy?” y “The Gospel”; el primero permite rastrear objetivos y atacarlos, mientras que el segundo identifica edificios desde los que supuestamente operan los militantes de Hamás.

Si la IA se aplica en este teatro con fines puramente probabilísticos, para alcanzar objetivos ofensivos, en el ucraniano se le da otro uso completamente diferente, pero no por ello menos determinante. Como es sabido, Rusia es uno de los países que más inversión realiza en IA. Ya desde 2017, el presidente Vladímir Putin afirmó que “quien sea líder de la inteligencia artificial será el líder del mundo”. En consecuencia, Moscú ha centrado principalmente sus esfuerzos en liderar el ámbito de la aplicación de IA en tecnología militar, particularmente en áreas como la robótica, la ciberdefensa o la desinformación, implementando en más de 150 sistemas militares, tanto consolidados como experimentales.

La IA puede tener una importante aplicación en apoyo al análisis de inteligencia basado en fuentes abiertas (OSINT, Open Source Intelligence), centrado en la obtención, análisis y explotación de información no clasificada y accesible al público. El análisis de fuentes como redes sociales y medios de comunicación permite generar conocimiento útil en múltiples ámbitos. Típicamente, este tipo de análisis requiere un gran número de analistas entrenados para leer y asimilar todas las fuentes, discerniendo cuáles son reales y cuáles son ‘fake news’ o ‘deepfakes’. La IA facilita este proceso al permitir identificar información relevante dentro de grandes volúmenes de datos en un tiempo mucho más reducido y contribuye a evaluar la veracidad de la información.

La OTAN utiliza la inteligencia artificial (IA) en el análisis de fuentes abiertas (OSINT) para localizar bases, unidades y material ruso cerca de la frontera norte de Europa mediante herramientas como Google Earth. La Alianza Atlántica no solo emplea esta tecnología con fines militares, sino también geopolíticos, como el monitoreo y seguimiento del deshielo en el océano Ártico, que tiene implicaciones significativas para el comercio marítimo. Sin embargo, la IA puede ser un arma de doble filo, ya que, como toda tecnología basada en sistemas informáticos, el adversario también puede utilizar herramientas similares para fines de inteligencia.

La inteligencia artificial es una tecnología que complementa otras disciplinas de inteligencia más allá de la OSINT. Por ejemplo, su aplicación en la SIGINT (inteligencia de señales), GEOINT (inteligencia geoespacial) e, incluso, en la HUMINT (inteligencia de fuentes humanas), puede potenciar la capacidad de recopilación y análisis de datos. Estas disciplinas son fundamentales para lograr una comprensión más completa y precisa del entorno operativo.

Armamento autónomo

El armamento autónomo, tal cual se imagina comúnmente, parece más sacado de una película de ciencia ficción que de la realidad. Sin embargo, nos encontramos en una época clave dentro de la industria militar, en la que el uso de IA puede marcar la diferencia y hacer esta utopía una realidad. Numerosos medios y expertos en este ámbito ya lo han afirmado. Así, por ejemplo, Paul Scharre, del Center for a New American Security (CNAS), afirmó que “cuando esta conversación comenzó, aproximadamente hace una década, en realidad era un poco de ciencia ficción. Y ahora, ya no lo es en absoluto. La tecnología es muy muy real”. Además, podría añadirse que, debido a que en el mundo civil se está invirtiendo cantidades ingentes de dinero para el diseño de vehículos autónomos, entre otros desarrollos, es una realidad casi incuestionable que en algún momento estos avances se trasladarán al mundo militar. Una de las empresas que más se involucra en el desarrollo de armamento autónomo impulsado por IA es “ShieldAI,” que crea drones que trabajan en conjunto a través de IA. Sin embargo, la empresa todavía no cuenta con aviones no tripulados con estas características.

Es importante diferenciar entre armamento autónomo y automático. El armamento automático, utilizado desde hace más de un siglo, opera sin intervención humana y no distingue entre amenazas, aliados o civiles. Tal es el caso, por ejemplo, de las minas antipersonal. El armamento autónomo, en cambio, utiliza inteligencia artificial y algoritmos avanzados para tomar decisiones sobre el uso de la fuerza sin intervención humana directa. Estos sistemas pueden identificar y atacar objetivos de forma independiente, manejando entornos complejos y tomando decisiones rápidas, con la capacidad de discernir entre objetivos con cierto grado de confianza. No se trata de una sola tecnología, sino de una “característica habilitadora”, pues la IA “permite añadir nuevas funciones a las herramientas de guerra para hacerlas potencialmente más eficientes, más baratas, más compactas y más autónomas”.

El presidente ruso, Vladimir Putin, declaró lo siguiente: “Quien se convierta en el líder de esta esfera [de la IA], gobernará el mundo". Sin embargo, el secreto real que permitirá dar un paso al frente con respecto al resto de países sería controlar el software de la IA, más que la creación de armas más impresionantes.

¿Por qué poner el énfasis en el software más que en el armamento? Muy simple: porque su mayor virtud es, irónicamente, su peor defecto. Al igual que es posible hacer que la IA aprenda a identificar objetivos correctamente, un mínimo cambio en la presentación de las características puede hacer que lo clasifique de forma totalmente antagónica (es lo que se denomina ‘ejemplos antagónicos’). Únicamente alterando varios pixeles, una persona vería lo mismo, pero un IA puede ver cosas totalmente diferentes (en el MIT se consiguió que una IA confundiera una tortuga con un rifle 3 veces consecutivas por medio de cambios mínimos). Esta vulnerabilidad es clave, pero se trata del ‘elefante en la habitación que nadie ve’.

Para concluir, está claro que la integración de estos sistemas en el campo de batalla puede mejorar la coordinación y la eficacia operativa, aunque también conlleva siempre riesgos relacionados con posibles fallos de comunicación o errores en la toma de decisiones, cuyo talón de Aquiles ya ha sido previamente mencionado. Por otro lado, el uso de armas autónomas plantea importantes dilemas éticos, como la preocupación por las decisiones sobre objetivos que podrían implicar a civiles y el riesgo de que la automatización reduzca el umbral para entrar en conflictos.

A medida que la inteligencia artificial y la robótica sigan evolucionando, el armamento autónomo también avanzará, lo que pone de relieve la necesidad de marcos normativos y éticos claros para garantizar una aplicación responsable y comprender su impacto en la sociedad y la guerra.

Prevención de amenazas

La prevención de posibles amenazas en el contexto de la inteligencia artificial para la seguridad y defensa del ciberespacio se centra en la identificación y mitigación de vulnerabilidades antes de que se materialicen los ataques.

Cabe destacar varias estrategias y tecnologías clave en este ámbito. Una de ellas es el perfilado de usuarios, un proyecto de la compañía española SIA, perteneciente a Indra especializada en ciberseguridad, que aplica técnicas de aprendizaje supervisado en el sector bancario. Este enfoque permite implementar medidas de protección personalizadas a cada amenaza, lo que resulta crucial dado que los usuarios son una de las principales vulnerabilidades de los sistemas.

Otra estrategia importante es la detección de ataques, proceso que constituye un paso previo a la reacción. Existen sistemas comerciales que utilizan inteligencia artificial para discriminar entre tráfico legítimo y malicioso, especialmente en el caso de ataques distribuidos de denegación de servicio (DDoS), lo que permite una respuesta más eficaz y rápida frente a estas amenazas.

Por último, puede destacarse la caza de ciberamenazas o ‘threat hunting’, un proceso proactivo e iterativo para identificar amenazas potenciales. La automatización parcial de esta búsqueda mediante IA puede mejorar su eficiencia, lo que sugiere que en el futuro se desarrollarán propuestas más avanzadas en este campo. Fuera del ámbito de las ciberamenazas, esta tecnología tiene perspectivas en la detección de amenazas físicas reales dentro del campo de batalla. Ya en la guerra de Afganistán, Michael Kanaan, antiguo oficial de inteligencia de la Fuerza Aérea estadounidense, destacó la importancia del generador de imágenes espectrales con el objetivo de detectar objetos ocultos a simple vista (explosivos, tanques…). Kanaan afirmó que este sistema les ayudó “a eliminar miles de kilos de explosivos en el campo de batalla. Sin embargo, pasamos demasiado tiempo mirando los datos y no suficiente tomando decisiones. A veces tardaba tanto tiempo que nos preguntamos si podíamos haber salvado más vidas”. Se trata de un claro ejemplo de lo que puede suponer este avance tecnológico en la prevención de amenazas, permitiendo actuar de una forma más inmediata y precisa, así como recopilando y generando cantidades ingentes de inteligencia útil de primera línea.

Estas estrategias reflejan un enfoque integral hacia la prevención de amenazas, combinando tecnología avanzada con un entendimiento profundo de las vulnerabilidades y tácticas de los atacantes.

Ética. Riesgos del uso de la IA con fines de control

Dentro de este apartado, es preciso hacer hincapié en múltiples aspectos, como la propensión del sistema a cometer errores, la deshumanización de los conflictos o la toma de decisiones. Todas estas preguntas surgen durante la investigación sobre el tema, y podrían resumirse en una única cuestión: ¿dónde deben ponerse los límites?

Simplificando mucho, una de las aplicaciones de la IA es la de actuar como un algoritmo probabilístico que reduce mucho el tiempo de cálculo. Como todo cálculo basado en estimaciones, es propenso a cometer errores que, sin una correcta supervisión, son inaceptables. Las Fuerzas de Defensa de Israel (FDI) afirman que su sistema tiene un intervalo de confianza de un 90%, lo que realmente es un logro matemático, pero… ¿qué ocurre cuando ese cálculo impacta de forma directa en la vida de las personas? A medida que aumenta la muestra, el error crece, y el impacto se hace brutal. Puede objetarse que no constituye una política de ‘cero errores’ y que los errores “se tratan estadísticamente”.

Siguiendo con la idea de la confianza progresiva en los sistemas de IA, cuando se confía en un programa, aunque sea al 90%, se pasa de pensar que únicamente hablamos de números, de estadística y probabilidades, a asumir que sus resultados son lo suficientemente fiables como para tomar decisiones basadas en ellos. De esta manera, puede afirmarse que, con el transcurso del tiempo, se pasará de usar la IA como una herramienta de ‘ayuda’ o de ‘optimización’ a emplearla como una herramienta en la que basar plenamente cualquier decisión. Este aspecto se podría extrapolar a múltiples ámbitos de la vida cotidiana, pero en el bélico, todo se magnifica.

Este ajuste da una conclusión lógica al cambio gradual descrito anteriormente, que aborda cómo la confianza en los sistemas de IA evoluciona de ser una herramienta de apoyo a convertirse en la base para tomar decisiones importantes, completando la idea de la confianza progresiva en los resultados de la IA. Son los científicos que programan algoritmos, y en todo caso los Estados, “los que no pueden desechar su responsabilidad y deben regular… deben mantener en su actuación los principios éticos y hacerse responsables legales al determinar su empleo y utilización”.

De esta forma, las personas no pueden basar sus decisiones únicamente en las matemáticas porque se pierde precisamente lo que nos hace humanos: la moral y la conciencia. Sin tener intención de hacerlo, puede llegar a abolirse la capacidad de objeción de conciencia de la población, así como la de razonar y decidir de forma LIBRE.

“Cumplir con las leyes de la guerra requiere de la capacidad de razonamiento humana, la habilidad de analizar las intenciones que están detrás de las acciones y tomar decisiones complejas sobre la proporcionalidad o necesidad de cada ataque. Las máquinas y los algoritmos no pueden recrear estas habilidades humanas, no pueden negociar, producir empatía o responder a situaciones impredecibles”.

Hay que tener en cuenta que, en la guerra, en muchos casos se dejan todos estos temas ‘en el fondo del armario’, puesto que se pone el foco en objetivos muy concretos. Para ilustrar hasta dónde es capaz de llegar el ser humano, valgan unas declaraciones alarmantes sobre si la IA deberá tener capacidad de tomar decisiones letales bajo supervisión humana: "las decisiones individuales frente a no tomar decisiones individuales es la diferencia entre ganar y perder, y no vas a perder”; “no creo que la gente a la que nos podríamos enfrentar hiciera eso, y les daría una enorme ventaja si nos impusiéramos esa limitación”.

Tras esta reflexión, en la cual se ha incidido únicamente en los ámbitos negativos, es importante destacar que la IA también tiene su lado positivo, y que será una herramienta útil en numerosos ámbitos, tanto civiles como militares. Todo depende de nosotros y de donde ponemos los límites.

Conclusión

La inteligencia artificial en seguridad y defensa ofrece grandes avances, pero también plantea serios retos éticos y de seguridad. Los sistemas de armas autónomos, que pueden tomar decisiones sin intervención humana, mejoran la eficiencia operativa pero también aumentan el riesgo de errores graves, especialmente en conflictos en los que están en juego vidas civiles.

Es crucial establecer marcos reguladores y éticos que garanticen un uso responsable de estas tecnologías, asegurando que las decisiones críticas permanezcan bajo supervisión humana. A medida que evolucione la IA, el equilibrio entre innovación y ética será clave para el futuro de la guerra y la paz.

 

* Comunicación presentada en el XXXI Curso Internacional de Defensa, “Inteligencia artificial: oportunidades y desafíos para la seguridad y defensa”, Jaca 23-27 de septiembre de 2024.

 

BIBLIOGRAFÍA

Abraham, Yuval. “‘Lavender’: The AI Machine Directing Israel’s Bombing Spree in Gaza”. +972 Magazine, 25 de abril de 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/

BBC News. “¿Qué Es La IA? Una Guía Sencilla Para Entender La Inteligencia Artificial - BBC News Mundo.” News Mundo, 12 de septiembre de 2023. https://www.bbc.com/mundo/resources/idt-74697280-e684-43c5-a782-29e9d11fecf3.

CNI. “Obtención”. Centro Nacional de Inteligencia, 21 de junio de 2023. https://www.cni.es/la-inteligencia/obtencion

Cozzi Elzo, Francisco. “Inteligencia Artificial Y Sistemas De Armas Autónomos”, Revista Marina, Chile, 20 de diciembre de 2019. https://revistamarina.cl/es/articulo/inteligencia-artificial-y-sistemas-de-armas-autonomos

Enciclopedia Significados, Equipo. “Inteligencia: Qué Es, Características Y Significado En Psicología.” Enciclopedia Significados, June 20, 2024. https://www.significados.com/inteligencia/

ISO. “¿Qué Es La Inteligencia Artificial (IA)?”, Organización Internacional de Normalización. https://www.iso.org/es/inteligencia-artificial/que-es-ia

Jerez, Alexia Columba. “La Inteligencia Artificial también entra en combate en la guerra en Ucrania.” Diario ABC, 1 de mayo de 2022. https://www.abc.es/economia/abci-inteligencia-artificial-tambien-entra-combate-guerra-ucrania-202203140205_noticia.html.

Las Heras, Paula. “El reto de la Inteligencia Artificial para la seguridad y la defensa”, Global Affairs & Strategic Studies, 18 de octubre de 2023. https://www.unav.edu/web/global-affairs/el-reto-de-la-inteligencia-artificial-para-la-seguridad-y-defensa

Parlamento Europeo. “¿Qué es la Inteligencia Artificial y cómo se usa?”, Parlamento Europeo,” 8 de septiembre d, 2020. https://www.europarl.europa.eu/topics/es/article/20200827STO85804/que-es-la-inteligencia-artificial-y-como-se-usa

Pérez, Lara. “IA: Principales Diferencias Entre Tradicional Y Generativa.” Contact Center Hub, 4 de septiembre de 2024. https://contactcenterhub.es/diferencias-ia-tradicional-y-generativa/

Porter, Tom. “El Pentágono, más cerca de tener armas con IA que decidan matar a humanos.” Business Insider España, 23 de noviembre de 2023. https://www.businessinsider.es/pentagono-armas-ia-matar-humanos-autonomas-1339738

Sánchez Tapia, Salvador (co), “Seguridad en la era de la Inteligencia Artificial”, Global Affairs Journal, Center for Global Affairs & Strategic Studies, 25 de enero de 2024. https://www.unav.edu/web/global-affairs/seguridad-en-la-era-de-la-inteligencia-artificial

The Economist. “Así usa Ucrania la Inteligencia Artificial contra Rusia”, en La Vanguardia, 12 de abril 2024. https://www.lavanguardia.com/internacional/20240412/9592801/ucrania-rusia-guerra-inteligencia-artificial.html