OpenAI: una empresa civil… ¿y militar?

La compañía está dando pasos para implicarse en los contratos de defensa.

Oscar Ruiz -Escudo Digital.

Experto en migraciones y analista internacional.

Guardar

Sam Altman, CEO de la empresa civil OpenAI. Foto: Europa Press.
Sam Altman, CEO de la empresa civil OpenAI. Foto: Europa Press.

OpenAI ha dado pasos importantes hacia su incursión en proyectos militares, especialmente en los EE.UU., junto a la contratación de Dane Stuckey, que se unirá a OpenAI como su nuevo director de seguridad de la información (CISO) tras una década en Palantir. Por sí sola, la contratación de Stuckey podría ser simplemente una nueva incorporación, pero llega en un momento en el que OpenAI está acercándose al mundo de los contratos militares y de defensa.

El momento militar de OpenAI

Hace tan solo unos meses, y sin que mucha gente lo notara, OpenAI eliminó de sus políticas de uso el lenguaje que prohibía el uso de sus productos para “militar y guerra”. A pesar de que la nueva política aclara que la compañía se abstendrá de involucrar sus herramientas en el desarrollo de armas o actividades que puedan causar daño, ha dejado espacio para colaborar en aplicaciones de seguridad nacional y defensa. Pocos después de este cambio, se informó que la compañía estaba trabajando en proyectos de software para el Pentágono. Más recientemente, OpenAI se asoció con Carahsoft, un contratista gubernamental que facilita al Gobierno la adquisición de servicios de empresas privadas de manera rápida y con poca carga administrativa, con la esperanza de asegurar trabajos con el Departamento de Defensa.

Además, se sabe que el Departamento de Defensa tiene 83 contratos activos con diversas empresas y entidades para trabajos de inteligencia artificial generativa, con montos que oscilan entre los 4 y los 60 millones de dólares. En este caso, OpenAI no fue nombrada específicamente entre los contratistas, pero su trabajo podría estar oculto a través de asociaciones con otras firmas que figuran como contratistas principales.

Se puede afirmar por lo tanto que OpenAI está colaborando con el Departamento de Defensa de los Estados Unidos (DoD) y con la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA). Entre los proyectos, se incluyen el desarrollo de herramientas de ciberseguridad de código abierto para proteger infraestructuras críticas. La colaboración se enmarca en el “AI Cyber Challenge” de DARPA, una iniciativa que busca reforzar la seguridad de software abierto utilizando inteligencia artificial. OpenAI ha mostrado también interés en aplicar sus modelos en temas relacionados con la prevención del suicidio de veteranos, un área en la que el Ministerio de Defensa estadounidense ya ha iniciado conversaciones preliminares con la compañía.

81699958 l normal none
OpenAI está colaborando con el Departamento de Defensa de Estados Unidos.

Como (no) utilizar la IA: la polémica esta servida

De entre todos los debates en torno a cómo se debe y no se debe utilizar la IA, el uso para la guerra y propósitos militares es fácilmente el más controvertido. Grupos de defensa han advertido sobre los riesgos, especialmente considerando los sesgos conocidos en los modelos de IA y su tendencia (a veces) a inventar información. Y también muchos han reflexionado sobre la moralidad de las armas autónomas, que podrían tomar vidas sin ninguna intervención o dirección humana. En 2018, miles de empleados de Google protestaron contra firma de un contrato del Pentágono conocido como “Proyecto Maven”, que inspiró renuncias masivas en esta empresa, a causa de su contrato de big data con el Servicio de Inmigración y Control de Aduanas de EE.UU. (ICE, por sus siglas en inglés) para rastrear inmigrantes no documentados.

En el caso de OpenAI, y aunque mantiene que prohibirá el uso de sus tecnologías para armas, ya hemos visto que esto se mueve en un terreno muy resbaladizo. OpenAI no solo permite, sino que también busca activamente usos militares que prohibió el año pasado…  Además, existen muchas formas preocupantes en las que los modelos podrían ser utilizados para apoyar directamente operaciones militares letales sin funcionar directamente como armas.

Sería difícil asegurar que los despidos y dimisiones que han sucedido este año en OpenAI están directamente relacionados con las nuevas ambiciones militares de la compañía porque las razones expuestas de dichas renuncias no han sido muy claras, aunque sí que algunos de ellos expresaron su preocupación por el tema de seguridad.

Ventajas de OpenAI en el sector militar

Capacidad de análisis y toma de decisiones. Las tecnologías de OpenAI pueden mejorar significativamente las capacidades de análisis en tiempo real y la toma de decisiones en operaciones militares y de inteligencia. La integración de sus modelos con las plataformas del Ministerio de Defensa de EE.UU. podría optimizar el procesamiento y análisis de grandes volúmenes de datos críticos, como se ha demostrado en su colaboración con Microsoft y Palantir para ofrecer servicios de inteligencia artificial a agencias de inteligencia estadounidenses.

Ciberseguridad avanzada. La experiencia de OpenAI en la creación de algoritmos avanzados le permite aportar valor en proyectos de ciberseguridad, ayudando a mitigar amenazas cibernéticas emergentes en sistemas y redes de infraestructura crítica.

Inconvenientes y riesgos

Moralidad y uso de la tecnología en la guerra. La participación de OpenAI en el sector militar reaviva preocupaciones éticas sobre la posibilidad de que sus modelos puedan usarse de forma indebida para fines ofensivos, aunque no estén diseñados para desarrollar armas directamente. La eliminación de las prohibiciones explícitas ha llevado a críticos a advertir que aún existe un riesgo de que estas herramientas puedan emplearse en actividades militares indirectas pero con consecuencias mortales.

Fugas y sesgos en modelos de IA. Los modelos generativos de OpenAI, como GPT-4, han sido objeto de críticas por sesgos y por la generación de información inexacta, lo que podría traducirse en decisiones críticas erróneas si estos sistemas se integran sin un control humano adecuado.

Conclusiones

Aunque la entrada de OpenAI en proyectos militares y de defensa se está realizando de manera gradual y por ahora de manera limitada a la ciberseguridad y apoyo a misiones no letales, no existen restricciones internas lo suficientemente claras para evitar que esta empresa termine participando de manera directa en la producción de armas y sistemas letales. La colaboración ya iniciada con DARPA y el Ministerio de Defensa norteamericano puede ser una puerta de entrada a más proyectos a medida que la empresa y sus aliados en defensa exploran nuevas aplicaciones para su tecnología de IA.

Lo que parece claro, es que el OpenAI de 2024 y su futuro previsible es una empresa muy diferente a la que sus empleados se unieron hace años y a la que el público en general conoció. El tiempo dirá si OpenAI se sube al carro (millonario) de la industria de defensa.