En su clarividente y provocativo ensayo ‘La guerra del Golfo no ha tenido lugar’, Jean Baudrillard advertía a comienzos de los noventa de los riesgos de la autodisuasión, tras años de parálisis forzada por la implacable y certera amenaza de la destrucción mutua asegurada. “Autodisuasión total”, comentaba Baudrillard, “que llega hasta la autodisolución del bloque del Este, pero autodisuasión profunda de la potencia americana también, y de la potencia occidental en general, aquejada de parálisis por su propio poder e incapaz de asumirlo en términos de correlación de fuerzas”1. Se desvanecía poco a poco el espejismo de los dividendos de la paz, invertidos, con éxito desigual, en tantos dramáticos escenarios: en los Balcanes, en el Cáucaso postsoviético, en Oriente Medio... Para las poblaciones que sufrían los conflictos armados, la violencia, la destrucción y la muerte seguían cabalgando como jinetes apocalípticos, pero en los hogares occidentales las imágenes bélicas se convertían en lo que Michael Ignatieff calificó de “guerras virtuales”2, perfectas para ser consumidas sin riesgos, pero con conciencia indignada, frente al televisor. Luego vendrían el 11-S, el 11-M, el terrorismo global, la evidencia de que nuevos actores, más allá de las potencias tradicionales, poseían o querían tener capacidad de disuasión nuclear, y con todo ello se vendría a confirmar aquel presagio de Baudrillard, según el cual “esta imposibilidad de pasar a la acción [por parte de Occidente], esta falta de estrategia acarrea el triunfo del chantaje como estrategia”. Es, precisamente, “esa forma degenerada de la guerra que constituyen la manipulación y la negociación de rehenes” lo que caracterizaría a la noguerra.
Desde entonces, parece que la historia, en contra del archicitado presagio frustrado de Francis Fukuyama, nunca llegará a su fin. Y todo porque, cuando el futuro esté a punto de acabarse, ya sea porque el fin de las guerras y las revoluciones sangrientas den carpetazo a la historia o porque esté a punto de consumarse la destrucción mutua asegurada, siempre sonará el despertador de la disuasión nuclear que nos situará de nuevo en el día de la marmota de un eterno mundo de ayer, un escenario de conflictos de baja intensidad y sin grandes enfrentamientos interestatales. En ese mundo, en apariencia más estable, la revolución tecnológica, de la que la lnteligencia Artificial (IA) es hoy el máximo exponente, nos reta, en el ámbito de la seguridad, con una peligrosa paradoja, enunciada con toda su crudeza en 2012 en el Capstone Concept for Joint Operations de Estados Unidos: “Las tecnologías destructivas están al alcance de un abanico más amplio y dispar de adversarios. Como consecuencia, nuestro mundo es potencialmente más peligroso que nunca”. Una paradoja o un círculo vicioso similar al que atrapó al robot SPD-13 (Speedy) del relato de Isaac Asimov al intentar aplicar de forma rigurosa las famosas leyes de la robótica3. A medida que las tecnologías se abaratan y se extiende su uso, aumenta la probabilidad de que caigan en manos indeseables y sean precisas nuevas tecnologías capaces de destruir a la anterior o de obtener una ventaja indiscutible en caso de conflicto.
Dos años después del fundacional documento de Capstone, la anexión ilegal de Crimea nos sitúa todavía hoy en el fatalismo de una guerra fría victoriosa para las democracias liberales y una posguerra perdida por esas mismas potencias vencedoras, como analizaron con agudeza Stephen Holmes e Ivan Krastev (La luz que se apaga: Cómo Occidente ganó la Guerra Fría pero perdió la paz, 2019). Y, sin embargo, algo ha cambiado desde entonces, aunque todavía sea pronto para pronosticar que las sociedades libres han salido, definitivamente, de su letargo. Porque ese escenario de no-guerra híbrida, de posguerra de una guerra hibernada y no acaecida, acelerado por el cambio de era tecnológica y en un entorno operativo marcado por lo volátil, lo incierto, lo complejo y lo ambiguo (VUCA, según sus iniciales en inglés), se ha alterado irreversiblemente hace dos años con la injustificable y criminal agresión de Vladimir Putin a Ucrania. Esta vez, al sonar el despertador, hemos amanecido en un escenario mucho más parecido a una guerra convencional, con amenazas nucleares incluidas.
Más allá de la evolución concreta de las operaciones militares en Ucrania, de la toma de control de Bajmut y Avdiivka por parte del agresor ruso, de la falta de munición en los arsenales ucranios, de cierta erosión del apoyo a nuestro aliado en ciertas cancillerías y centros de poder occidentales, y de un decaimiento en el interés hacia este conflicto por parte de las opiniones públicas, no cabe duda de que la invasión de Ucrania supone un antes y un después en este prolongado conflicto entre las democracias liberales y el autoritarismo. La unidad sin fisuras de Occidente contra la agresión rusa, la ampliación de la OTAN y el rearme de Europa (Zeitenwende4, incluida) y el estrepitoso fracaso político y estratégico del autócrata Putin son hechos incontrovertibles, que nos sitúan en un escenario de horizontes éticos más real que el que preconizan muchos realistas: sin seguridad no hay libertad, pero sin libertad, la seguridad es la paz perpetua ejemplificada irónicamente por el hostelero holandés del texto kantiano5 ; la paz de los cementerios, convertidos, en este caso también, en camposantos de almas.
En este peligroso momento geopolítico, e indisolublemente ligado a él, irrumpe con fuerza el momentum tecnológico de la Inteligencia Artificial (IA), una innovación que ya está cambiando nuestras vidas cotidianas. Si preguntamos a cualquiera de las aplicaciones de IA generativa que están ya accesibles a golpe de clic en nuestros móviles u ordenadores sobre los posibles usos de esta tecnología en el ámbito de la seguridad y defensa, comprobamos enseguida que puede llegar a ser una herramienta revolucionaria por su capacidad en el análisis de grandes volúmenes de datos, una capacidad que puede permitir la detección temprana de amenazas y la prevención de ataques. La IA puede ser utilizada, además, para incrementar la exactitud de los sistemas de vigilancia y reconocimiento, para la prevención contra ataques cibernéticos y para la mejora de la toma de decisiones militares en los niveles táctico, operacional y estratégico. Capítulo aparte merece el desarrollo de armas autónomas, la aplicación de la IA que, junto a las capacidades desinformadoras de esta tecnología, más riesgos de todo tipo y prevenciones éticas despierta.
Las Fuerzas Armadas españolas, siempre atentas a cualquier innovación tecnológica y con grandes centros de reflexión y estudios estratégicos, han generado diversos documentos sobre la aplicación de la IA en la seguridad y defensa. Entre ellos, cabe destacar, por su carácter pionero y su claridad y rigor expositivo, la monografía Usos militares de la inteligencia artificial, la automatización y la robótica (IAA&R), elaborada por el Centro Conjunto de Desarrollo de Conceptos de nuestro Estado Mayor Conjunto. En la introducción de este interesante documento, Ángel López de Ágreda vuelve a incidir en el hecho de que “la guerra ya no ocurre tanto en el campo de batalla como entre la gente”. Es aquí, en este contexto híbrido y de tácticas asimétricas (la no-guerra de Baudrillard), donde la IA puede ofrecer todo su potencial desestabilizador, ya que “la guerra en la gente explota sentimientos más que razones, afectos más que efectos. Es una guerra basada en el conocimiento íntimo de cada adversario y de sus reacciones. Una guerra en la que los datos ya no se limitan a los combatientes uniformados. La opinión pública y la opinión publicada, la influencia y la reputación, las operaciones psicológicas en fin, adquieren una importancia fundamental en el manejo de la voluntad de propios y ajenos”.
Un aspecto importante del desarrollo de la IA en seguridad y defensa tiene que ver con la combinación de las distintas tecnologías de vanguardia emergentes: el desarrollo ágil de apps Low/Zero Code para DevSeCops (Desarrollo, Seguridad y Operaciones), la interacción con satélites de órbita terrestres baja (LEO) o no estacionaria (NGEO), el Internet de las Cosas militares (IoMT), las redes de 5G y 6G, los sistemas autónomos, las capacidades de aumento cognitivo, la hiperautomatización y el blockchain. Así, por ejemplo, el desarrollo de redes de 5G y 6G posibilitará comunicaciones más seguras y veloces que, a su vez, permitirán un mejor rendimiento de las herramientas de IA en situaciones de emergencia o en el campo de batalla. Es en la interacción de todas estas tecnologías donde la IA obtendrá todo su potencial.
Muchas de estas tecnologías proceden o han sido desarrolladas primero en el ámbito civil. A menudo, nos referimos a los extraordinarios avances que la investigación militar ha brindado a la sociedad en general: el radar, el microondas, la epidural, Internet, el GPS e, incluso, objetos de nuestra vida cotidiana como las zapatillas de felpa para estar en casa (inventadas por los soldados estadounidenses que utilizaron el acolchamiento de sus cascos para hacer su calzado hogareño más confortable), los alimentos deshidratados o el papel de aluminio (estos dos últimos, gracias a la NASA). Pero esta dualidad innovadora no deja de ser un viaje de ida y vuelta. Por eso, pretender detener la innovación solo en el terreno militar no solo es indeseable desde el punto de vista ético y político, puesto que hacerlo podría suponer una ventaja para quienes quieren poner en riesgo la paz mundial y desestabilizar nuestras democracias, sino una misión abocada al fracaso.
Otro punto relevante en el desarrollo de la IA en seguridad y defensa tiene que ver con la aparición de las llamadas operaciones multidominio. Este tipo de operaciones, que incorporan a los ámbitos de actuación tradicional de las fuerzas militares (tierra, mar y aeroespacial) los aspectos ciberespaciales y cognitivos, nacen precisamente, como ya ponía de manifiesto el fundacional Capstone Concept for Joint Operations de 2012, para contrarrestar los riesgos de la irrupción de las nuevas tecnologías. Por su parte, nuestro Estado Mayor de la Defensa propuso, en un documento público aprobado en 2020, definir las operaciones multidominio como “aquellas operaciones realizadas por la Fuerza Conjunta que, por su agilidad y complejidad, necesitan de una adecuada interoperabilidad y conectividad que posibiliten un control distribuido de los medios para permitir la integración de todas sus capacidades y así poder producir efectos en y desde cualquiera de los ámbitos de operación”6.
Un concepto clave de los sistemas del futuro será la nube de combate multidominio (Multi-Domain Combat Cloud), que conectará entre sí a todos los usuarios, plataformas, unidades y centros de mando y control en todos los dominios para obtener información precisa en tiempo real y actuar en consecuencia. Algunas plataformas de combate no tripuladas, en especial las aéreas y las navales, se conectarán entre sí en forma de enjambres y tomarán decisiones más o menos autónomas en tiempo real, como ha teorizado, entre otros, el experto en IA aplicada a seguridad y defensa Paul Scharre7. Por ese motivo, dentro de las operaciones multidominio, las capacidades de contrainteligencia artificial adquirirán cada vez mayor fuerza. Como ha afirmado el general Manfredo Monforte en un interesante artículo que introduce este concepto de “contrainteligencia artificial”, “debemos alcanzar la capacidad de detectar, identificar y neutralizar las nuevas amenazas que acompañan al desarrollo universal de la IA”.
Al plantearnos la necesidad de contrarrestar las capacidades que ofrece la IA para la seguridad y defensa, regresamos de forma natural al ámbito de los valores. En su mensaje para la celebración de la 57 Jornada Mundial de la Paz, el Papa Francisco ha apelado a nuestras conciencias para que no olvidemos que “la exclusiva capacidad humana de juicio moral y de decisión ética es más que un complejo conjunto de algoritmos, y dicha capacidad no puede reducirse a la programación de una máquina que, aun siendo ‘inteligente’, no deja de ser siempre una máquina”. En consecuencia, ha recordado el Papa, “es imperioso garantizar una supervisión humana adecuada, significativa y coherente de los sistemas de armas”. Más allá de cualquier ideología y creencia, el llamamiento del Papa no puede desoírse, pues se dirige, para preservarlo, al reducto más profundo del alma humana: nuestra capacidad de juicio moral.
En la misma línea de un uso ético de la IA, la “Declaración política sobre uso responsable de Inteligencia Artificial y autonomía en el ámbito militar”, de 9 de noviembre de 2023, supone un hito fundamental en la regulación ética de las nuevas tecnologías en seguridad y defensa. Impulsada por Estados Unidos y con una fuerte oposición de Rusia, se han adherido a ella ya más de una cincuentena de países; entre otros, todos los Estados miembros de la OTAN y de la Unión Europea, incluido, naturalmente, España. Se trata, como ha afirmado la vicepresidenta de Estados Unidos, Kamala Harris, de cobrar conciencia de que “la tecnología que tiene un impacto global requiere una acción global”8. El objetivo no es impedir el desarrollo de la IA en el ámbito militar, sino garantizar que su uso sea ético, responsable y contribuya a aumentar la seguridad internacional.
Respecto a los riesgos de la IA para aumentar la desinformación, en especial el llamado deepfake, hay que destacar el acuerdo alcanzado en febrero de este año por una veintena de empresas tecnológicas, entre ellas las cuatro grandes (Microsoft, Meta, Google y Amazon) y otras de enorme impacto social como X, TikTok, OpenIA…, para combatir la desinformación, en especial la generada por IA, en los más de cuarenta procesos electorales que se van a celebrar este año en el mundo y en los que va a participar la mitad de la población mundial. Dos aspectos del acuerdo pueden resaltarse en relación con el tema de nuestro artículo: el hecho de que ha sido firmado y presentado en la Conferencia de Seguridad de Múnich, punto de encuentro mundial de la comunidad de seguridad y defensa, y en segundo lugar, que el bien a proteger esté íntimamente relacionado con nuestros valores democráticos. Este acuerdo, denominado “La industria tecnológica contra el uso engañoso de la IA en las elecciones de 2024”, se suma a años de esfuerzos de la UE, la OTAN y los Estados Unidos para proteger una de las principales herramientas del pluralismo político y, por ende, de nuestro sistema de valores.
En definitiva, al abordar los usos de la IA en seguridad y defensa nos movemos en un escenario de doble filo en el que las nuevas tecnologías ofrecen al mismo tiempo enormes riesgos y oportunidades y dan lugar, además, a una carrera sin fin hacia la próxima innovación, lo que genera el riesgo añadido de desdeñar las “dimensiones políticas y humanas de la guerra”. A este último fenómeno, la idea de un arma milagrosa y definitiva se ha referido el general estadounidense de tres estrellas H. R. McMaster con la sugerente expresión “falacia del vampiro”, porque es imposible acabar con ella. Por supuesto, tal como apunta McMaster, que fue asesor de Seguridad Nacional del presidente de Estados Unidos, quienes se oponen a la idea de una solución tecnológica mágica son calificados enseguida de retrógrados.
No se trata, por tanto, de impedir el progreso ni de cazar vampiros, sino de analizar la cuestión en el contexto actual (con los riesgos que comporta la agresión de Putin a Ucrania y las lecciones que vamos aprendiendo) y reconocer las paradojas que los avances tecnológicos nos ofrecen. Sin duda, la IA jamás podrá sustituir la voluntad humana de hacer frente a un agresor, porque ningún algoritmo o frío cálculo podrá convencer a la razón práctica humana de que es preferible tolerar la invasión criminal a un Estado soberano a intervenir en su defensa. Por otra parte, el teatro de operaciones ucraniano nos trae noticias de la importancia de los avances tecnológicos, pero también de la necesidad de atender a lo esencial: la moral de las tropas, la munición, la artillería, la logística. Y, por supuesto, la inteligencia, también o principalmente la basada en fuentes humanas. Por eso, como corolario, podemos apuntar tres paradojas que este tema casi inabarcable nos provoca.
La primera de ellas podríamos denominarla “la paradoja del día de la marmota”. Los avances tecnológicos en seguridad y defensa aumentan hasta tal punto la capacidad destructiva que su uso queda casi inmediatamente descartado. El problema para las democracias liberales es que, en su afán de cumplir sus propios valores, pueden terminar convirtiéndose en rehenes de sus propias autolimitaciones. Es la situación de no-guerra que hemos descrito anteriormente con ayuda de Baudrillard. Y, sin embargo, ¿cómo no felicitarnos por los tres cuartos de siglo sin grandes conflictos interestatales? ¿Cómo no seguir planteando los avances tecnológicos en defensa como logros disuasorios? El propio Fukuyama reflexiona sobre este asunto en un reciente libro, en el que achaca el problema del desencanto (o aburrimiento cual marmotas) de nuestras sociedades al débil sentimiento de comunidad que el propio liberalismo promueve. Quizá el conflicto de Ucrania nos ayude a despertar nuestras conciencias y a fortalecer nuestra idea de comunidad en torno a nuestros valores.
La segunda paradoja en relación con el uso de la IA en seguridad y defensa podría denominarse “el dilema de Speedy”. O la conciencia del falso dilema de Speedy. Porque ninguna inteligencia artificial tendrá jamás la inteligencia moral para resolver un problema ético. Por eso, hoy más que nunca, los espectaculares avances tecnológicos ponen de relieve la importancia del soldado. Al igual que el desarrollo de la IA en el ámbito civil está propiciando una revalorización de las habilidades emocionales en el ámbito laboral, en el campo de la defensa las cualidades humanas y los valores militares cobran ahora un nuevo sentido. Porque serán los militares quienes deberán seguir tomando las decisiones en el campo de batalla. Y es a ellos, a su propia protección y seguridad, a los que se deben dedicar los principales avances en IA. Speedy debe saber que las leyes de la robótica de Asimov deben, prioritariamente, proteger a los hombres y mujeres que nos defienden. Y esto incluye no retraer recursos a lo más básico: la instrucción, la munición, los pertrechos…
La tercera paradoja tiene que ver con la película que ha inspirado el título de este artículo: Juegos de guerra (y prometo no hacer demasiados spoilers). La paradoja podría llamarse “el fatalismo del doctor Falken”. Como recordará quien haya visto esta película, el doctor Falken es el programador del WOPR, el superordenador que aprende a realizar simulaciones de planes militares a través de juegos. El desencantado doctor Falken, que considera que la guerra nuclear es inevitable, simboliza a la ciencia que se despreocupa de los efectos de sus creaciones, que no se hace preguntas antes de buscar soluciones; la paradoja de crear destrucción. Es probable que, desde la Segunda Guerra Mundial, no hayamos vivido un momento de mayor alineamiento de nuestros intereses y nuestros valores como que el que nos mueve en estos momentos a apoyar al pueblo de Ucrania; un pueblo que está dando un ejemplo de heroísmo, librando una guerra desigual por su propia existencia en nombre de todos los pueblos libres. Es importante no caer ahora en el desaliento, y no generar nuevas tecnologías desde una moral de derrota. Nuestras tecnologías deben estar alineadas con nuestros principios democráticos.
La solución a estas tres paradojas pasa por la obligación de un control humano de la IA en seguridad y defensa. Un control político basado en nuestros valores democráticos y ejercido, con reglas y órdenes claras, por nuestras Fuerzas de Seguridad y nuestras Fuerzas Armadas, las únicas organizaciones capaces de garantizarnos un uso adecuado, moderado y eficaz de las tecnologías de seguridad y defensa. Sin duda, no podemos quedarnos atrás, pero tampoco podemos avanzar a costa de nuestros valores. Porque las no-guerras, como nos demuestra Ucrania, pueden convertirse en guerras, y las guerras nunca serán virtuales, jamás serán un juego.
Reproducción del artículo publicado en el número 43 de Tribuna Norteamericana, editada por el Instituto Franklin, que se presentará en un evento organizado por el Instituto Franklin-UAH y Casa de América en colaboración con la Fundación Consejo España-EE.UU., el próximo día 25 de junio en la Casa de América de Madrid.
Notas a pie de página
- [1] Baudrillard, Jean: La guerra del Golfo no ha tenido lugar. Editorial Anagrama, 1991, pág. 10.
- 2 Ignatieff, Michael: Guerra Virtual. Más allá de Kosovo. Paidós, 2003.
- 3 Las tres leyes de la robótica, expuestas en el relato de Asimov “Runaround” (“Círculo vicioso”, en la versión española) son 1) Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño; 2) Un robot cumplirá las órdenes de los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley; 3) Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
- 4 En alemán, “cambio de tiempos”. Esta expresión, utilizada por el canciller Olaf Scholz en un discurso parlamentario poco después de la invasión rusa de Ucrania, se emplea para ejemplificar el cambio de rumbo hacia un mayor peso político y económico de la defensa en Alemania.
- 5 Al inicio de “Sobre la paz perpetua”, Kant refiere la anécdota de un hostelero holandés que tenía en su posada un cuadro de un cementerio con la inscripción “A la paz perpetua”.
- 6 Nota conceptual “Operaciones Multi-Dominio”. Estado Mayor de la Defensa, 2020.
- 7 Véase, por ejemplo, de este autor: “Robotics on the Battlefield Part II: the Coming Swarm”. Center for a New American Security, 2014.
- 8 Véase “Remarks by Vice President Harris on the Future of Artificial Intelligence”. US Embassy London United Kingdom, 2023. https://www.whitehouse.gov/briefing-room/speeches-remarks/2023/11/01/remarks-by-vice-president-harris-on-the-future-ofartificial-intelligence-london-united-kingdom
Referencias
- Asimov, Isaac. “Círculo vicioso” (“Runaround”), 1942. Se ha editado en diversas antologías; se puede encontrar, por ejemplo, en Yo, robot. Edhasa, 2019.
- Baudrillard, Jean. La guerra del Golfo no ha tenido lugar. Editorial Anagrama, Barcelona, 1991.
- Centro Conjunto de Desarrollo de Conceptos: Usos militares de la inteligencia artificial, la automatización y la robótica (IAA&R). Ministerio de Defensa de España, 2020. Disponible en línea.
- Freedman, Lawrence. La guerra futura; un estudio sobre el pasado y el presente. Crítica, 2019.
- Fukuyama, Francis. El liberalismo y sus desencantados: Cómo defender y salvaguardar nuestras democracias liberales. Deusto, 2022.
- __. El fin de la historia y el último hombre. Planeta, 1992.
- Holmes, Stephen y Krastev, Ivan. La luz que se apaga: Cómo Occidente ganó la Guerra Fría pero perdió la paz. Debate, 2019.
- Ignatieff, Michael. Guerra Virtual. Más allá de Kosovo. Paidós, 2003.
- Kant, Immanuel. En defensa de la Ilustración (incluye el ensayo “Sobre la paz perpetua”). Alba Editorial, 1998.
- McMaster, H. R. “Discussing the Continuities of War and the Future of Warfare and the Third Offset Strategy: The Defense Entrepreneurs Forum”. Small Wars Journal, 2014.
- Monforte Moreno, Manfredo. “Contrainteligencia artificial”. Academia de las Ciencias y las Artes Militares, 2023.
- Scharre, Paul. “Robotics on the Battlefield Part II: the Coming Swarm”. Center for a New American Security, 2014. Disponible en línea.
- USA Joint Chiefs of Staff. Capstone Concept for Joint Operations, 2012. Disponible en línea.
- “Declaración política sobre uso responsable de Inteligencia Artificial y autonomía en el ámbito militar”. Departamento de Estado de Estados Unidos, 2013. Disponible en línea.
- “Mensaje de Su Santidad Francisco para la celebración de la 57 Jornada Mundial de la Paz”. Ciudad del Vaticano, 2024. Disponible en línea.
- Nota conceptual “Operaciones Multi-Dominio”. Estado Mayor de la Defensa, 2020. Disponible en línea