La 'app' Clearview AI reabre el debate sobre el reconocimiento facial

Guardar

Sistemas de reconocimiento facial
Sistemas de reconocimiento facial

Clearview AI es una aplicación de reconocimiento facial diseñada para que la policía pueda identificar a los criminales en un contexto en el que los legisladores y las empresas privadas buscan regular y en algunos casos prohibir el uso de esta tecnología por los riesgos que entraña para la privacidad.

Según detallan en The New York Times (NYT), la base de datos de Clearview AI tiene más de 3.000 millones de fotografías de personas, recogidas de redes sociales como YouTube, Facebook o Venmo, donde se encontraban de forma pública, y millones de imágenes más procedentes de otras webs. Lo que sobrepasa cualquier base creada por una empresa de Silicon Valley, apuntan.

Esta base de datosayuda a las fuerzas policiales a identificar "perpetradores yvíctimas" de algún crimen, como defiende la compañía. Precisamente en supágina web, destacan el papel que ha tenido en el seguimiento de"pedófilos, terroristas y traficantes sexuales" y en los trabajospara "exonerar a los inocentes e identificar a las víctimas de delitos,incluido el abuso sexual infantil y el fraude financiero".

En la descripción dela 'app', además, la compañía destaca la "precisión, fiabilidad ylegalidad" de la identificación que realiza, para lo que emplea unatecnología que ha sido "probada independientemente" por autoridadesnacionalmente reconocidas.

Entre los clientes deesta aplicación se encuentran más de 600 agencias de seguridad de EstadosUnidos, y un "puñado" de empresas con fines de seguridad, según datosde la compañía aportados al medio citado.

Parte de su éxitoradica en lo simple de su uso: con solo hacer una fotografía de una persona ysubirla al programa, se puede acceder a las imágenes compartidas por esapersona de forma pública y enlaces a las plataformas donde se encuentranpublicadas.

Pero las capacidades de Clearview AI podrían extenderse a la calle, a eventos multitudinarios o de paso de muchas personas, ya que en su código - analizado por NYT -, recoge lenguaje de programación que permite su emparejamiento con gafas de realidad aumentada.

El periódico, incluso, recoge un ejemplo de su uso que permitió identificar al autor de un asesinato en 20 minutos. Gracias a la grabación de un testigo que pasaba en el momento y que grabó el altercado, la Policía pudo identificar al culpable por su conexión con un vídeo que anteriormente se había subido a Internet en el que también se le había etiquetado con su nombre.

El caso es llamativoporque la Policía no tenía registros gubernamentales de esa persona, comoapuntan en NYT, al no tener carnet de conducir ni haber sido arrestado deadulto.

Las mujeres afroamericanas son más propensas que otros grupos a ser identificadas erróneamente

Los programas dereconocimiento facial se basan en una base de datos y un algoritmo(inteligencia artificial) entrenado con las imágenes que contiene la base y queayuda a identificar a las personas. No obstante, este sistema acusa una seriede sesgos, ya que, para 'aprender', el algoritmo depende de los ejemplos conlos que ha sido entrenado, no solo en calidad sino también en variedad.

Estos sesgos plantean problemas a la hora de identificar a personas de razas no caucásicas. El algoritmo también presenta mayores fallos en el caso de las mujeres, como denunció el Instituto Nacional de Estándares y Tecnología de Estados Unidos en una investigación.

En ella, el Institutoseñaló que los algoritmos identificaron erróneamente de 10 a 100 veces más lascaras de afroamericanos y asiáticos que las de caucásicos. Asimismo, y según elestudio, las mujeres afroamericanas son más propensas que otros grupos a seridentificadas erróneamente en una base de datos con fotografías policiales delFBI.

Por otra parte,compañías como Microsoft o IBM han acudido a las fotografías compartidas deforma pública por los internautas en plataformas sociales para componer susbases de datos, precisamente como ha hecho la compañía responsable de ClearviewAI -si bien las primeras defendían que se facilitaban esas bases solo a lacomunidad investigadora-.

Se trata de unapráctica que, si bien muchos defienden que es legal, al tratarse de imágenescompartidas de forma pública y por tanto al alcance cualquiera en Internet,también se ha planteado que pueda chocar con regulaciones sobre la protecciónde datos, puesto que los usuarios no suelen ser conscientes este uso para susimágenes.

Es el caso delReglamento General de Protección de Datos (RGPD) de la Unión Europea que, en suartículo 9, establece que "quedan prohibidos el tratamiento de datospersonales que revelen el origen étnico o racial, las opiniones políticas, lasconvicciones religiosas o filosóficas, la afiliación sindical, y el tratamientode datos genéticos, datos biométricos dirigidos a identificar de manera unívocaa una persona física, datos relativos a la salud o datos relativos a la vidasexual o las orientación sexuales de una persona física".

Este artículo recoge excepciones, como que el usuario haya dado su "consentimiento explícito para el tratamiento de dichos datos personales con uno o más de los fines especificados" o que el tratamiento se refiera "a datos personales que el interesado ha hecho manifiestamente públicos".

La Unión Estadounidense por las Libertades Civiles denuncia el potencial abuso de esta herramienta por parte de las autoridades

El reconocimiento supone un problema para la privacidad y la seguridad de las personas que no escapa a los legisladores. En el marco europeo, la Comisión Europea, en un borrador, plantea la posibilidad de prohibir el uso de la tecnología de reconocimiento facial en lugares públicos por un periodo de hasta cinco años con el fin de avanzar en el desarrollo de soluciones que mitiguen los riesgos que supone.

Entre losrequerimientos que recoge, se propone la implementación de normas específicasque vinculen a las autoridades públicas, independientemente de que estatecnología sea usada por actores públicos o privados. Las normas"regularían en más detalle la tecnología de reconocimiento facial enespacios públicos", complementando las provisiones del RGPD.

El año pasado, laciudad estadounidense de San Francisco prohibió el uso de la tecnología dereconocimiento facial por parte de la Administración Pública -medida tomadatambién en Oakland y Somerville-. Esta decisión bloqueó el uso policial de unaherramienta que les ayudaba a identificar a sospechosos de crímenes.

Organizaciones como laUnión Estadounidense por las Libertades Civiles denuncian el potencial abuso deesta herramienta por parte de las autoridades, ya que les otorga un "podersin precedentes" para rastrear a la gente en su día a día. Otros, noobstante, rechazan la prohibición, por no permitir usar las ventajas que traela tecnología.

El presidente de laasociación de oficiales de policía de San Francisco, Tony Montoya, reconocióque esta herramienta no era "cien por cien precisa", pero defendió suéxito "en al menos proporcionar pistas a los investigadorescriminales".