• Home /

  • Sociedad /

  • El Parlamento Europeo pide prohibir el reconocimiento facial automático en espacios públicos

El Parlamento Europeo pide prohibir el reconocimiento facial automático en espacios públicos

Silvia

Redactora especializada en Seguridad y Tecnología.

Guardar

People Faces Recognized With Intellectual Learning System
People Faces Recognized With Intellectual Learning System

Europa ha dado un paso más para regular el uso de las tecnologías biométricas de vigilancia masiva impulsadas por la inteligencia artificial (IA), como los sistemas de reconocimiento facial.

El Parlamento Europeo ha respaldado la primera propuesta de legislación sobre la utilización de la IA en el viejo continente, presentada el pasado mes de abril por las dos agencias de privacidad de la Unión Europea – el Comité Europeo de Protección de Datos (EDPB) y el Supervisor Europeo de Protección de Datos (EDPS). Este proyecto de ley incluía la prohibición del uso de la vigilancia biométrica remota en lugares públicos y los eurodiputados no solo la han apoyado, sino que han ido más allá al proponer medidas más estrictas para salvaguardar los derechos fundamentales de los ciudadanos.

En una resolución adoptada este miércoles por 377 votos a favor, 248 en contra y 62 abstenciones, los eurodiputados advierten del riesgo de sesgo algorítmico que implica las aplicaciones de la IA y enfatizan la necesidad de incorporar supervisión humana y controles jurídicos para evitar la discriminación, especialmente cuando la IA se utiliza en los controles fronterizos.

"Los operadores humanos siempre deben tomar las decisiones finales", han recalcado los eurodiputados agregando que los sujetos monitoreados por sistemas impulsados por IA deben poder apelar sus decisiones.

Hace hincapié en los problemas discriminatorios

La resolución, por el momento no vinculante, denuncia que "los sistemas de identificación basados ​​en inteligencia artificial ya identifican erróneamente a grupos étnicos minoritarios, personas LGBTI, personas mayores y mujeres en tasas más altas", lo que considera "particularmente preocupante en el contexto de la aplicación de la ley y el poder judicial".

Para "garantizar el respeto de los derechos fundamentales al utilizar estas tecnologías", los eurodiputados señalan que los algoritmos deben ser "transparentes, rastreables y suficientemente documentados". Y apuntan: "Siempre que sea posible, las autoridades públicas deberían utilizar programas de código abierto para ser más transparentes".

Las solicitudes de los eurodiputados ante estas "controvertidas tecnologías"

Con el fin de velar por el respeto a la privacidad y la dignidad humana, los eurodiputados piden una "prohibición permanente del reconocimiento automático de personas en los espacios públicos" alegando que los ciudadanos "solo deben ser monitoreados cuando sean sospechosos de un delito".

El Parlamento Europeo también ha solicitado que se prohíba el uso de bases de datos privadas de reconocimiento facial, como el sistema Clearview AI que utilizan algunas fuerzas policiales europeas. Asimismo, reclama la prohibición de la vigilancia policial predictiva basada en datos de comportamiento y de los sistemas de puntuación social, "que intentan evaluar la confiabilidad de los ciudadanos en función de su comportamiento o personalidad".

Finalmente, los eurodiputados han mostrado su preocupación por el uso de datos biométricos para identificar a las personas de forma remota. El texto cita como ejemplo el proyecto iBorderCtrl, "un sistema inteligente de detección de mentiras para la entrada de viajeros a la UE" que consideran debería dejar de utilizarse.

Petar Vitanov, del Grupo de la Alianza Progresista de Socialistas y Demócratas, es uno de los eurodiputados que ha votado a favor de esta resolución y la ha defendido haciendo esta declaración: "Los derechos fundamentales son incondicionales. Por primera vez en la historia, pedimos una moratoria en el despliegue de los sistemas de reconocimiento facial en el ámbito policial, pues la tecnología se ha demostrado ineficaz y a menudo discriminatoria. Estamos en contra de las técnicas de predicción del comportamiento basadas en inteligencia artificial, así como del tratamiento de datos biométricos para la vigilancia masiva".