La empresa china Chongqing Landship Information Technology (especializada en soluciones de conducción autónoma) ha realizado un detallado informe en el que explica cómo se puede utilizar la inteligencia artificial DeepSeek para aplicaciones militares.
China integra DeepSeek en su estrategia militar
Los principales usos militares que destaca el informe son:
- DeepSeek podría controlar los vehículos no tripulados, ya sea por mar, aire o tierra.
- Mejora en la toma de decisiones para jefes militares.
- Mejora en inteligencia, vigilancia y reconocimiento (ISR).
- Mayor integración con satélites, radares y drones.
- Aumento y mejora del combate autónomo.
- Utilización en guerra electrónica, interceptando y analizando comunicaciones en tiempo real.
¿Es DeepSeek diferente de otras IA militares?
Al final, los modelos de inteligencia artificial con aplicación militares, ya sea DeepSeek u otras desarrolladas por Estados Unidos o Israel, buscan optimizar lo máximo posible la recopilación de datos, automatizar todas las respuestas posibles en combate y mejorar el análisis militar a nivel estratégico.
Pero la IA china presentaría algunas diferencias notables con otras extranjeras. Y quizás la más importante sea el enfoque que tiene DeepSeek hacia una autonomía militar total, es decir, que mientras otras IA todavía quieren respetar una normas éticas y supervisar de manera humana los ataques que puedan ser letales, DeepSeek está diseñado para poder operar con una independencia tal que este tema se ha convertido en preocupación para algunos expertos en seguridad.
Su coste es más reducido que otras inteligencias artificiales y su acceso es masivo, por lo que al entrenarse con menos muchos menos recursos y usando técnicas como la “destilación de conocimiento”, DeepSeek podría ser más accesible y fácilmente escalable en las fuerzas armadas chinas.
Y por otro lado tenemos su vinculación con Norinco, que es una de las principales empresas estatales de defensa de China, por lo que podríamos pensar que DeepSeek no es solo un avance tecnológico, sino que es una estrategia de Pekín a largo plazo…
DeepSeek ya controla vehículos militares
El pasado febrero, la empresa Landship confirmó que había integrado DeepSeek en su vehículo militar autónomo Xingji P60, llamado CS/VP16B en la pasada exposición de defensa internacional IDEX 25, y expuesto en el stand de Norinco (China North Industries Corporation).
La compañía declaró que el P60 integra el software de conducción autónoma de uso civil de Landship con los modelos de LLM de DeepSeek, diseñados para aplicaciones militares, para mejorar el procesamiento de información y la toma de decisiones de estos vehículos autónomos en entornos complejos.
También se han firmado acuerdos de colaboración para desarrollar vehículos autónomos de rescate todoterreno con DeepSeek integrado en ellos.
DeepSeek R1: la IA china que preocupa a Occidente
El pasado 20 de enero el mundo tembló cuando China mostro al planeta su nueva inteligencia artificial: DeepSeek R1. Lo barato y rápido de este sistema hizo dudar a propios y extraños para después confirmar la premisa china de que las otras inteligencias artificiales que estaban en el mercado eran caras, e incluso menos eficientes, en comparación con DeepSeek.
Pero claro, todo tiene truco, y DeepSeek no se entrenó desde cero (lo que encarece el sistema), DeepSeek R1 lo hizo “preguntando” a otras inteligencias artificiales más avanzadas, como ChatGPT de OpenAI o Qwen de Alibaba. Esta técnica, conocida como “destilación de conocimiento”, permite que un modelo más pequeño aprenda de uno más grande sin necesidad de usar tantos recursos.
Este avance sorprendió a muchos en la industria tecnológica. Tras la presentación de DeepSeek R1, las acciones de algunas empresas de IA en EE.UU. y el resto del mundo cayeron en picado y los inversores temieron que el valor de estas compañías estuviera sobrevalorado ante la competencia china.
Políticos estadounidenses presentaron el pasado mes de febrero un proyecto de ley en el Congreso para prohibir el uso de DeepSeek en dispositivos gubernamentales, alegando el peligro que ello supondría para la seguridad nacional. Algunos Estados norteamericanos, como Nueva York y Virginia, así como la US Navy y la NASA, han prohibido a sus empleados utilizar DeepSeek en dispositivos oficiales.
DeepSeek y su papel en la estrategia militar china
Al igual que ocurre con otras inteligencias artificiales, DeepSeek supone un desafío para Occidente tanto en el ámbito civil como en el militar. El miedo a que estos sistemas puedan guardar todas nuestras consultas e información es latente, pero si pensamos en el modus operandi de China y su falta de “respeto” a la propiedad intelectual internacional, o la facilidad con la que copian productos y proyectos de todo tipo, ese miedo se podría convertir en terror.
En lo militar, hemos visto que esta IA china podría tener menos consideraciones éticas que sus homólogos occidentales a la hora de apoyar ataques autónomos letales.
Esta IA podría formar parte de una estrategia bélica a largo plazo de China, entre las que podría encontrarse el concepto que está desarrollando Pekín de guerra centrada en redes, que busca conectar satélites, radares, sistemas de comunicación y unidades de combate en un solo ecosistema digital. También esta tecnología podría apoyar y mejorar otro plan en la que el país asiático está mostrando gran interés; la guerra de enjambres de drones y vehículos autónomos, y la guerra electrónica y la ciberdefensa. Además de que va a ser usada con toda seguridad en la guerra de la información (desinformación) y propaganda.
¿Está el mundo preparado para una IA militar sin supervisión humana?
El mundo aún no está preparado para una inteligencia artificial militar completamente autónoma. Aunque países como Estados Unidos, China e Israel han avanzado en IA aplicada a la defensa, la mayoría de estas tecnologías aún requieren supervisión humana para garantizar cierto control ético y estratégico.
DeepSeek representa un desafío sin precedentes, ya que su desarrollo parece orientado a la total independencia operativa, sin intervención humana en la toma de decisiones letales. Esto ha generado preocupación en organismos internacionales y expertos en seguridad, que advierten sobre los riesgos de una guerra automatizada sin límites éticos claros.