El reto de la inteligencia artificial para la seguridad y defensa

El reto de la inteligencia artificial para la seguridad y defensa

ENSAYO*

18 | 10 | 2023

Text

La IA aporta indudables ventajas en la recopilación de información, la toma de decisiones y la autonomía de sistemas, pero supone grandes desafíos éticos, legales y estratégicos.

In the image

Visor de un arma autónoma [Comité Internacional de la Cruz Roja]

Hace 25 años, una supercomputadora derrotaba por primera vez a un campeón de ajedrez, el ruso Garry Kasparov, un hito histórico que sin embargo solo fue el principio de un largo camino para la Inteligencia Artificial (IA).

Desde entonces, la IA ha ido creciendo exponencialmente y desempeñando un papel cada vez más prominente en numerosos aspectos de la vida humana. A medida que avanzamos en el siglo XXI, la IA ha demostrado su capacidad para transformar industrias, mejorar la eficiencia en diversas áreas y abrir nuevas posibilidades en la investigación y la innovación.

Uno de los ámbitos más impactantes y, a su vez, desafiantes en los que la IA está dejando su huella es en el ámbito de la seguridad y la defensa. En un mundo caracterizado por la creciente complejidad de las amenazas y la evolución constante de los conflictos, la integración de la IA en estrategias y operaciones militares plantea una serie de interrogantes cruciales, éticos y estratégicos, que deben ser cuidadosamente abordados para garantizar un equilibrio entre el poder transformador de la tecnología y la preservación de la seguridad global. Este planteamiento nos obliga a realizarnos la siguiente pregunta: ¿Cómo plantea la IA desafíos a la seguridad y defensa?

Desarrollo y aplicaciones de la IA en seguridad y defensa

La IA ha experimentado avances significativos en las últimas décadas, y su aplicación en el ámbito de la seguridad y defensa ha revolucionado la forma en que los gobiernos y las fuerzas armadas abordan los desafíos contemporáneos. Desde la recopilación de información hasta la toma de decisiones estratégicas, la IA ha demostrado su valía en diversas áreas cruciales para la seguridad nacional.

Uno de los aspectos más notables de la IA en defensa es su capacidad para analizar grandes cantidades de datos en tiempo real. Los sistemas de IA pueden procesar información proveniente de múltiples fuentes, como sensores, satélites y redes de vigilancia, y extraer patrones y tendencias que serían difíciles de detectar por métodos tradicionales. Los algoritmos de procesamiento de imágenes pueden identificar objetos, patrones y comportamientos anómalos, lo que mejora la detección temprana de amenazas y la identificación de objetivos.

La IA también ha desempeñado un papel crucial en el desarrollo de sistemas autónomos y vehículos no tripulados. Los drones y vehículos terrestres autónomos han demostrado su utilidad en la recopilación de información en entornos hostiles y peligrosos, la realización de misiones de reconocimiento y la ejecución de operaciones de búsqueda y rescate. Estos sistemas pueden ser controlados de manera remota o seguir rutas preprogramadas utilizando algoritmos de IA, lo que reduce el riesgo para el personal militar y permite una mayor flexibilidad en la planificación de misiones.

Retos y desafíos

Sin embargo, a medida que la IA se convierte en una parte integral de la defensa, surgen importantes desafíos éticos y legales. La toma de decisiones autónomas por parte de sistemas de IA plantea preguntas sobre la responsabilidad y la rendición de cuentas en caso de incidentes. Además, la posibilidad de que la IA pueda ser utilizada en operaciones ofensivas ha generado debates sobre la necesidad de regulaciones internacionales que controlen su desarrollo y uso.

Ciberseguridad

El Departamento de Defensa de Estados Unidos considera que “la IA es un instrumento esencial para predecir, identificar, y responder a ciberataques y otras amenazas físicas que provengan de fuentes diversas”[1]. Para lo cual se dirigen a la “cooperación público-privada, seleccionando aliados comerciales y académicos para desarrollar estos nuevos sistemas con especial atención en áreas tales como tratamiento de datos, evaluación y pruebas de nuevos sistemas, basados en IA y, fundamentalmente, en todo el amplio espectro de la ciberseguridad”.

No obstante, es importante destacar que los sistemas de inteligencia artificial pueden incrementar las debilidades en las estrategias de seguridad contra posibles ciberataques. En este sentido, es crucial considerar que un adversario potencial podría emplear malware para tomar el control, influenciar o distorsionar el funcionamiento de los sistemas de IA destinados a fines ofensivos o defensivos. Además, no debemos pasar por alto la capacidad de manipular los patrones y la arquitectura de sistemas autónomos.

Los atacantes también tienen un muy amplio abanico de posibilidades para la aplicación de tecnologías de inteligencia artificial o ‘machine learning’ en su beneficio. Y, de hecho, ya han comenzado a hacerlo, gracias a la extraordinaria capacidad de adaptación de estas tecnologías[2]

De todo esto podemos deducir el comienzo de una especie de ‘carrera armamentística’ de inteligencia artificial contra inteligencia artificial. Y en esa carrera, “los ciberdefensores tienen la desventaja de ser como los porteros de fútbol: han de tener éxito en todas sus intervenciones. A los atacantes, en cambio, les basta con transformar alguna de las ocasiones. Y en un partido que nunca tiene fin”.

Durante un extenso período, la participación humana seguirá siendo tan esencial como determinante. Así como las estrategias defensivas pueden beneficiarse ampliamente de la inteligencia artificial, es evidente que los agresores también lograrán ventajas similares. Por lo tanto, no parece descabellado considerar que la eterna confrontación entre defensores y atacantes, que comenzó hace tres décadas, continuará desarrollándose sin un final definitivo en un tablero cada vez más influenciado por la inteligencia artificial pero nunca de manera total.

Ética

Aunque la inversión en IA para uso militar ofrece ventajas estratégicas potenciales, también plantea preocupaciones éticas y cuestiones de seguridad[3].

Uno de los principales problemáticos que plantea la IA es el de la delegación de funciones a un algoritmo. Respecto a la selección y ataque a objetivos, y la utilización en este cometido de sistemas autónomos, se argumenta que no se puede dejar la responsabilidad de esa decisión en máquinas y robots por su falta de empatía si llegan a tener «la capacidad de seleccionar a los objetivos y atacar a estos por su cuenta»[4]. Se justifica la crítica en que los sistemas autónomos y la IA que los dirige son incapaces de discernir las complejas situaciones que se pueden producir en el campo de batalla, como la posibilidad de que determinados objetivos hayan perdido su valor militar, o evaluar si un objetivo pretende atacar o rendirse. Por ejemplo, «evaluar si un tanque es un objetivo militar o si el sistema de armas letal autónomo aceptaría su rendición no solo es cuestión de tener algoritmos inteligentes con altas capacidades de discernimiento. En su lugar, tenemos que considerar los valores subyacentes que nosotros, como humanos desarrollando tales algoritmos, deberíamos ser capaces de instalar en ellos».

Aunque la IA y la robótica aspiran a mejorar el rendimiento de los seres humanos y reducir sus limitaciones, las máquinas carecen de una inteligencia equiparable a la humana ni nuestra capacidad de interacción social, que nos permite reconocer e interpretar la conducta social compleja apoyados en diferentes códigos de signos y señales, y medida por pautas culturales y también por complejas circunstancias morales, como las que se producen en el campo de batalla.

En consecuencia, varias iniciativas han manifestado su preocupación por el uso inapropiado, prematuro o malicioso de las nuevas tecnologías indicando la necesidad de códigos de conducta éticos que promuevan un uso apropiado de la inteligencia artificial. Entre ellas ‘Stop Killer Robots’, lanzada en 2013 por el premio Nobel Jody Williams para promover la prohibición de lo que llama «robots asesinos», los sistemas que en el futuro serán capaces de elegir y disparar sobre objetivos sin ninguna intervención humana.

La responsabilidad, ¿de los hombres o de las máquinas?

Es innegable que la ética y el sistema legal han evolucionado en función de las necesidades humanas, y no con el propósito de abordar cuestiones relacionadas con las máquinas. Por lo tanto, surgen objeciones hacia la noción de otorgar personalidad jurídica a los robots, lo que implicaría la capacidad de asignarles responsabilidad por sus acciones o las consecuencias de estas. En consecuencia, “son los científicos que programan algoritmos y desarrollan la IA, y en todo caso los Estados, los que no pueden desechar su responsabilidad y deben regular el uso de esos sistemas, especialmente en su utilización militar. Son investigadores y Estados los que deben mantener en su actuación los principios éticos y hacerse responsables legales al determinar su empleo y utilización”.

Cuestión central para considerar éticamente es la autonomía de los sistemas y el control que sobre ellos ejerce el ser humano, que no puede hacer dejación de responsabilidad, en relación con los resultados de las acciones ejercidas con armas que llegan a ser letales. ¿Cómo se pueden responsabilizar a las armas autónomas? ¿Quién tiene la culpa de que un robot cometa crímenes de guerra? ¿Quién sería llevado a juicio? ¿El arma? ¿El soldado? ¿Los comandantes de los soldados? ¿La corporación que fabricó el arma? Las ONG y los especialistas en derecho internacional expresan preocupación por el riesgo de que las armas autónomas generen una significativa falta de transparencia en la responsabilidad. Frente a posibles errores en el funcionamiento y elecciones realizadas por sistemas automatizados, se plantea la necesidad ética de mantener un nivel de control humano constante, asegurando que siempre exista un individuo responsable y que la rendición de cuentas por sus acciones y decisiones sea comprobable.

Geopolítica

Es de común entendimiento en el contexto de las relaciones internacionales que el orden internacional durante el siglo XXI vendrá determinado por el poder que otorgue la tecnología. Se dice que el presidente de la Federación Rusa, Vladimir Putin, comentando con un grupo de periodistas y estudiantes rusos en 2017 declaraba que: «Quien se convierta en el líder en esta esfera [la inteligencia artificial] se convertirá en el gobernante del mundo». La realidad es que muchos países están desarrollando la IA. Estados Unidos, China y Rusia están cada vez más convencidos de que su liderazgo a nivel global será determinante en función de cuan potente sea su IA[5].

En este nuevo escenario, Estados Unidos y China surgen como las dos grandes potencias que, presumiblemente, dominarán el ciberespacio. “Europa, por su parte, parece adolecer de estas capacidades tecnológicas y corre el riesgo de padecer una suerte de ‘cibervasallaje’ o ‘cibercolonización’, con los peligros que esto entraña para la independencia y la autonomía europea en el contexto global”[6].

Por otra parte, la utilización de inteligencia artificial para la manipulación de datos a gran escala ha transformado el entorno económico global y el desarrollo de las principales corporaciones tecnológicas a nivel mundial, como Google (Alphabet), Apple, Amazon, Facebook (actualmente Meta) y Microsoft, junto con las compañías chinas Tencent y Alibaba. Estas empresas ejercen un poder tecnológico global, ya que dominan el ciberespacio mediante el uso de herramientas avanzadas basadas en inteligencia artificial y la manipulación de enormes volúmenes de datos procedentes de usuarios diferentes, incluyendo individuos, empresas e instituciones de todo el mundo. Este poder geopolítico a menudo subestimado ejerce una influencia significativa en las decisiones de inversión de numerosos gobiernos a nivel internacional, así como en el desarrollo tecnológico de empresas y universidades en el ámbito público y privado en una amplia gama de sectores.

Respuestas y estrategias

Hace apenas unos días más de 1.300 personas —entre los que se encuentran Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, fundador de Apple o el historiador Yuval Noah Harari— se unían para firmar una carta abierta que pide ralentizar el desarrollo e implementación de esta IA para gestionar y controlar adecuadamente los “profundos riesgos para la sociedad y la humanidad” que suponen. Ahora, gobiernos de todo el mundo están empezando a tomar medidas para limitarlas

La ONU y la Convención sobre ciertas Armas Convencionales (CAC)

La CAC que se desarrolla en Ginebra periódicamente conformada por 125 países, ha estado discutiendo posibles límites en el uso de armas autónomas letales, que son completamente operadas por máquinas y usan nuevas tecnologías como inteligencia artificial y reconocimiento facial.

El secretario general de la ONU, Antonio Guterres, había pedido a los países que presenten un “plan ambicioso” sobre nuevas reglas.

Las conversaciones de Ginebra, en curso durante ocho años, han adquirido una nueva urgencia desde que un panel de la ONU informó en marzo de 2021 que el primer ataque con drones autónomos podría haber ocurrido ya en Libia[7].

Los países que participan en las conversaciones de la ONU sobre armas autónomas no llegaron a iniciar negociaciones sobre un tratado internacional para regular su uso, sino que acordaron simplemente continuar las discusiones[8]. El Comité Internacional de la Cruz Roja y varias ONG habían estado presionando para que los negociadores comenzaran a trabajar en un tratado internacional que establecería nuevas reglas legalmente vinculantes sobre las armas operadas por máquinas.

Regulación por la UE y Estados

El gran potencial militar de la IA evidencia la necesidad de la UE de regularizar estas tecnologías, ya que la legislación actual, a través de la Ley de Inteligencia Artificial, no evita las implicaciones más graves de la IA militar. Es urgente establecer un marco legal eficaz y promover una IA responsable y ética.

La propuesta de Reglamento sobre Inteligencia Artificial (la Ley de IA), “promueve usos de la IA que sean éticos y respeten los derechos fundamentales, pero discretamente menciona en una nota a pie de página que los usos militares de la IA no entran en su ámbito de aplicación”[9].

Esto deja a los Estados miembros un amplio margen de maniobra para regular el uso de la IA en la guerra. Dada la inversión de la Unión en IA y otras tecnologías avanzadas que alcanzará el valor de casi 8.000 millones de euros entre 2021-2027, podría ser preocupante. Esto es posible gracias al Fondo Europeo de Defensa y a que la UE no prohíbe el uso de armas autónomas, a pesar de las resoluciones aprobadas por el Parlamento Europeo en 2014, 2018 y 2021.

A pesar de la exclusión de la inteligencia artificial militar, la Ley de IA tendrá un impacto considerable en la seguridad europea. Esto se debe a que muchos sistemas de IA tienen una naturaleza de doble uso, lo que implica que pueden aplicarse tanto en contextos civiles como militares. Por ejemplo, un algoritmo de detección de patrones puede desarrollarse para identificar células cancerosas o para seleccionar objetivos en operaciones militares.

En casos de doble uso como estos, la Ley de IA sería aplicable, ya que exige que los sistemas cumplan con sus regulaciones en lo que respecta a la IA de alto riesgo. No obstante, la implementación de estos requisitos regulatorios puede resultar problemática para sistemas que funcionan de manera autónoma o en entornos clasificados. Además, la mayoría de las organizaciones de defensa no siguen de cerca los desarrollos en política digital civil, lo que podría dejarlas poco preparadas para cumplir con la Ley de IA una vez que entre en vigor.

A nivel político, los gobiernos se están implicando cada vez más en las cuestiones regulatorias en torno a la IA militar. El gobierno holandés y el surcoreano organizaron conjuntamente una cumbre sobre la IA responsable en el ámbito militar (REAIM) en febrero de 2023, que reunió a más de 50 representantes gubernamentales para respaldar un llamamiento conjunto a la acción, con el objetivo de situar “el uso responsable de la IA en un lugar más destacado de la agenda política”. Los Departamentos de Defensa de Canadá, Australia, EEUU y Reino Unido ya han establecido directrices para el uso responsable de la IA. La OTAN adoptó su propia Estrategia de IA en 2021, junto con una Junta de Revisión de Datos e Inteligencia Artificial (DARB) dedicada a garantizar el desarrollo legal y responsable de la IA mediante una norma de certificación. Sin embargo, la Estrategia de IA de la OTAN puede enfrentarse a obstáculos de aplicación.

Aparte de la estrategia pública de Defensa de la IA de Francia, no existe un marco legal y ético a escala de la UE para los usos militares de la IA. En consecuencia, los Estados miembros pueden adoptar enfoques diferentes, lo que provocará lagunas en la regulación y la supervisión.

Por lo tanto, la Unión Europea debería asumir un papel proactivo y establecer un marco que abarque tanto las aplicaciones de doble uso como las aplicaciones militares de la inteligencia artificial. Esto se llevaría a cabo a través de una estrategia europea destinada a fomentar la utilización responsable de la inteligencia artificial en defensa, fundamentada en la categorización de riesgos conforme a la Ley de IA. Dicho enfoque proporcionaría orientación a las instituciones de defensa y a la industria en la promoción del desarrollo, adquisición y uso responsables de la inteligencia artificial, respaldados por valores compartidos

España

El Ministerio de Defensa ha regulado el futuro uso que puedan hacer las Fuerzas Armadas de la inteligencia artificial a través de la Resolución 11197/2023 por la que se aprueba la “Estrategia de desarrollo, implantación y uso de la Inteligencia Artificial en el Ministerio de Defensa”[10]. En el prólogo o preámbulo a la estrategia, Defensa subraya que “las personas que sirven en las Fuerzas Armadas son, y seguirán siendo, el activo más valioso del Departamento”.

Como consecuencia, el Ministerio proclama que “se utilizarán datos e información, herramientas y aplicaciones habilitadas para la IA para mejorar el entendimiento y capacidades de las personas, no con el objetivo de reemplazarlas, sino de complementarlas y facilitar que aporten mayor valor a sus actividades, alineándose además con los principios éticos que sean de aplicación”.

Por otro lado, destaca especialmente el principio de “responsabilidad humana y rendición de cuentas”. El Ministerio de Defensa garantiza por escrito que “cualquier desarrollo de inteligencia artificial, así como su utilización, deberá permitir una clara supervisión humana con el fin de garantizar la debida rendición de cuentas y la atribución de responsabilidades”.

Conclusiones

En conclusión, las aplicaciones de IA en el dominio militar aportan indudables ventajas, pues la IA ha transformado las operaciones militares al mejorar la recopilación de información, la toma de decisiones y la autonomía de sistemas, como vehículos no tripulados. Sin embargo, se plantean importantes desafíos éticos, legales y estratégicos. En términos de ciberseguridad, se advierte sobre la posibilidad de ciberataques y la carrera armamentística de IA contra IA. La ética surge como un punto central, cuestionando la delegación de decisiones autónomas a algoritmos y la responsabilidad de las máquinas en situaciones de conflicto.

Además, la IA está teniendo un impacto importante en la geopolítica, con Estados Unidos, China y Rusia compitiendo por el liderazgo en IA. La inteligencia artificial, como se ha explicado, es el campo donde se determinará el nuevo orden mundial. Un nuevo orden que, como ha sido la tónica de la historia humana, vendrá determinado por las estructuras de poder político y, por ende, militar, donde China y Estados Unidos aparecen como las dos grandes potencias de este siglo, sin olvidar otros países que juegan igualmente a ocupar y defender aquellos espacios geopolíticos que consideran propios.

Respecto a las distintas respuestas y estrategias ante los retos y desafíos que plantea la IA. Aunque la UE busca promover un uso responsable de la IA a través de la regulación, ésta no está orientada íntegramente a la defensa, por lo que se plantea la necesidad de un marco legal más sólido y coherente. En consecuencia, los estados van regulando de forma independiente el uso de la IA en defensa a través de estrategias nacionales. Esto plantea un problema pues el uso de la IA debe abordarse de manera adecuada y conjunta para maximizar sus beneficios y mitigar sus riesgos.

* Comunicación presentada en el XXX Curso Internacional de Defensa, “Los motores de cambio de la seguridad y la defensa”, Jaca 25-29 de septiembre de 2023

REFERENCIAS


[1] Olier, Eduardo, & Manuel Corchado, J. (2022). “Inteligencia Artificial: aplicaciones a la Defensa”. Instituto Español de Estudios Estratégicos. https://www.ieee.es/Galerias/fichero/docs_investig/2022/DIEEEINV01_2022_EDUOLI_Inteligencia.pdf

[2] Ministerio de Defensa (2020) “Usos militares de la inteligencia artificial, la automatización y la robótica” (IAA&R). Centro Conjunto de Desarrollo de Conceptos. https://emad.defensa.gob.es/Galerias/CCDC/files/USOS_MILITARES_DE_LA_INTELIGENCIA_ARTIFICIALx_LA_AUTOMATIZACION_Y_LA_ROBOTICA_xIAAxRx.-_VV.AA.pdf

[3] Morgan, F., Boudreaux, B., Lohn, A., Ashby, M., Curriden, C., Klima, K., & Grossman, D. (2020). “Military Applications of Artificial Intelligence. Ethical Concerns in an Uncertain World”. Rand Corporation. https://www.rand.org/content/dam/rand/pubs/research_reports/RR3100/RR3139-1/RAND_RR3139-1.pdf

[4] IEEE (2018). “La inteligencia artificial aplicada a la defensa”. Documentos de seguridad y defensa 79. Instituto Español de Estudios Estratégicos. https://publicaciones.defensa.gob.es/la-inteligencia-artificial-aplicada-a-la-defensa-n-79-libros-pdf.html

[5] Romero Mier, S. G. (2019) “Inteligencia Artificial como herramienta de estrategia y seguridad para defensa de los Estados”. Revista de la Escuela Superior de Guerra Naval. Escuela Superior De Guerra Naval, Perú.

[6] Olier, E. Op. cit.

[7] Vega, Guillermo (28 de mayo de 2021). “La ONU informa del primer ataque de drones autónomos a personas”. El País.

https://elpais.com/tecnologia/2021-05-28/la-onu-informa-del-primer-ataque-de-drones-autonomos-a-personas.html

[8] Farge, Emma (17 de diciembre de 2021). “UN talks adjourn without deal to regulate «killer robots”. Reuters https://www.reuters.com/article/us-un-disarmament-idAFKBN2IW1UJ

[9] Fanni, Rossana. (28 de junio de 2023). “La UE debe abordar los riesgos que plantea la IA militar”. Política Exterior. https://www.politicaexterior.com/inteligencia-artificial-militar-union-europea/

[10] Ruiz Enebral, Aurelio (14 de julio de 2023). “Defensa garantiza que el uso militar de la inteligencia artificial tendrá siempre un control humano”. Confidencial Digital. https://www.elconfidencialdigital.com/articulo/defensa/defensa-garantiza-que-uso-militar-inteligencia-artificial-tendra-siempre-control-humano/20230712171647607253.html