La Inteligencia Artificial se enfrenta a proyectos civiles y militares

Los desarrolladores "civiles" se ponen en pie de guerra contra el uso de sus proyectos y de los avances de la inteligencia artificial para fines militares.

Oscar Ruiz -Escudo Digital.

Experto en migraciones y analista internacional.

Guardar

Inteligencia Artificial (IA)
Inteligencia Artificial (IA)

DeepMind, la división encargada de desarrollar de inteligencia artificial de Google, se enfrenta a un motín. Casi 200 empleados han firmado una carta en la que instan a la compañía a cancelar sus contratos con organizaciones militares, incluido un importante acuerdo con el ejército israelí bajo el nombre de proyecto Nimbus, del que hablaremos más adelante. Este "levantamiento" no hace otra cosa que reflejar la creciente preocupación sobre el uso de la inteligencia artificial en aplicaciones militares, especialmente en áreas que podrían implicar vigilancia ciudadana y armamento basado en esta tecnología disruptiva y, que guste o no, es de uso dual.

En dicha carta, los trabajadores afirman que estos contratos violan los principios éticos de Google, que promueven el uso responsable de la inteligencia artificial y evitan desarrollos que puedan causar daño o ser utilizados en la creación de armas. Es cierto que DeepMind había "esquivado" previamente participar en proyectos militares, pero su integración con las operaciones de Google, desde su adquisición en 2014, ha facilitado una mayor cercanía con contratos del gobierno y también militares.

De hecho, el proyecto Nimbus es un contrato de tecnología en la nube valorado en 1.200 millones de dólares, firmado entre Google, Amazon Web Services (AWS) y el gobierno israelí. Iniciado en 2021, su objetivo es proporcionar infraestructura informática en la nube y herramientas avanzadas de inteligencia artificial a diversas agencias del gobierno israelí, incluyendo su ejército. Este proyecto destaca por integrar capacidades como el reconocimiento facial, la categorización automatizada de imágenes, el seguimiento de objetos e incluso el análisis de sentimientos, lo que permite un procesamiento más eficiente de grandes volúmenes de datos.

La infraestructura en la nube de Nimbus permite consolidar los datos gubernamentales, facilitando la cooperación entre diferentes departamentos y optimizando tanto la toma de decisiones como el acceso a la información. Además, ofrece herramientas avanzadas de inteligencia artificial que pueden ser utilizadas en tareas de seguridad y vigilancia, lo que ha suscitado críticas debido al posible uso de estas tecnologías en la monitorización de poblaciones, especialmente la palestina. Asimismo, el proyecto tiene el potencial de mejorar significativamente la eficiencia de los servicios públicos, agilizando procesos burocráticos como la renovación de licencias o el acceso a datos médicos, lo que se alinea con los esfuerzos de transformación digital de Israel.

A pesar de los beneficios tecnológicos que promete, Project Nimbus ha generado una fuerte polémica. Activistas pro-palestinos y empleados de Google y AWS han expresado su preocupación por el papel que estas tecnologías podrían jugar en la intensificación de la vigilancia y la expansión de asentamientos en territorios ocupados, lo que ha alimentado el debate sobre el impacto de este contrato en los derechos humanos.

Aunque en la carta de protesta no se mencionan conflictos específicos, se sugiere que las tensiones en Oriente Medio y el papel de la IA en operaciones militares estarían muy presentes en las preocupaciones que han expresado los trabajadores de Deepmind.

A pesar de la petición formal para que Google revise sus contratos y establezca un mecanismo de supervisión sobre el uso de su tecnología en entornos militares, la empresa no ha tomado medidas concretas hasta la fecha y no se prevé que algo parecido vaya a ocurrir.

El rapidísimo desarrollo de la Inteligencia Artificial, y la asimilación casi instantánea de esta disrupción por parte del sector militar, nos está llevando mucho más deprisa de lo que pudiéramos imaginar a un escenario de confrontación cívico-militar, representado hasta ahora por los grandes desarrolladores de IA, que observan cómo esta tecnología se implanta en sistemas de armamentos y sistemas no tripulados militares (y son bien remunerados por ello) y que ya están afectando algunos derechos básicos de los ciudadanos, ya sea en zonas de conflicto o no. La vigilancia permanente e injustificada es uno de los mayores temores que exponen los desarrolladores de la IA, además del uso de esta tecnología para eliminar vidas humanas.

Archivado en: