La ‘app’ Clearview AI reabre el debate sobre el reconocimiento facial

240
reconocimiento facial

Clearview AI es una aplicación de reconocimiento facial diseñada para que la policía pueda identificar a los criminales en un contexto en el que los legisladores y las empresas privadas buscan regular y en algunos casos prohibir el uso de esta tecnología por los riesgos que entraña para la privacidad.

Según detallan en The New York Times (NYT), la base de datos de Clearview AI tiene más de 3.000 millones de fotografías de personas, recogidas de redes sociales como YouTube, Facebook o Venmo, donde se encontraban de forma pública, y millones de imágenes más procedentes de otras webs. Lo que sobrepasa cualquier base creada por una empresa de Silicon Valley, apuntan.

Esta base de datos ayuda a las fuerzas policiales a identificar “perpetradores y víctimas” de algún crimen, como defiende la compañía. Precisamente en su página web, destacan el papel que ha tenido en el seguimiento de “pedófilos, terroristas y traficantes sexuales” y en los trabajos para “exonerar a los inocentes e identificar a las víctimas de delitos, incluido el abuso sexual infantil y el fraude financiero”.

En la descripción de la ‘app’, además, la compañía destaca la “precisión, fiabilidad y legalidad” de la identificación que realiza, para lo que emplea una tecnología que ha sido “probada independientemente” por autoridades nacionalmente reconocidas.

Entre los clientes de esta aplicación se encuentran más de 600 agencias de seguridad de Estados Unidos, y un “puñado” de empresas con fines de seguridad, según datos de la compañía aportados al medio citado.

Parte de su éxito radica en lo simple de su uso: con solo hacer una fotografía de una persona y subirla al programa, se puede acceder a las imágenes compartidas por esa persona de forma pública y enlaces a las plataformas donde se encuentran publicadas.

Pero las capacidades de Clearview AI podrían extenderse a la calle, a eventos multitudinarios o de paso de muchas personas, ya que en su código – analizado por NYT -, recoge lenguaje de programación que permite su emparejamiento con gafas de realidad aumentada.

El periódico, incluso, recoge un ejemplo de su uso que permitió identificar al autor de un asesinato en 20 minutos. Gracias a la grabación de un testigo que pasaba en el momento y que grabó el altercado, la Policía pudo identificar al culpable por su conexión con un vídeo que anteriormente se había subido a Internet en el que también se le había etiquetado con su nombre.

El caso es llamativo porque la Policía no tenía registros gubernamentales de esa persona, como apuntan en NYT, al no tener carnet de conducir ni haber sido arrestado de adulto.

Las mujeres afroamericanas son más propensas que otros grupos a ser identificadas erróneamente

Los programas de reconocimiento facial se basan en una base de datos y un algoritmo (inteligencia artificial) entrenado con las imágenes que contiene la base y que ayuda a identificar a las personas. No obstante, este sistema acusa una serie de sesgos, ya que, para ‘aprender’, el algoritmo depende de los ejemplos con los que ha sido entrenado, no solo en calidad sino también en variedad.

Estos sesgos plantean problemas a la hora de identificar a personas de razas no caucásicas. El algoritmo también presenta mayores fallos en el caso de las mujeres, como denunció el Instituto Nacional de Estándares y Tecnología de Estados Unidos en una investigación.

En ella, el Instituto señaló que los algoritmos identificaron erróneamente de 10 a 100 veces más las caras de afroamericanos y asiáticos que las de caucásicos. Asimismo, y según el estudio, las mujeres afroamericanas son más propensas que otros grupos a ser identificadas erróneamente en una base de datos con fotografías policiales del FBI.

Por otra parte, compañías como Microsoft o IBM han acudido a las fotografías compartidas de forma pública por los internautas en plataformas sociales para componer sus bases de datos, precisamente como ha hecho la compañía responsable de Clearview AI -si bien las primeras defendían que se facilitaban esas bases solo a la comunidad investigadora-.

Se trata de una práctica que, si bien muchos defienden que es legal, al tratarse de imágenes compartidas de forma pública y por tanto al alcance cualquiera en Internet, también se ha planteado que pueda chocar con regulaciones sobre la protección de datos, puesto que los usuarios no suelen ser conscientes este uso para sus imágenes.

Es el caso del Reglamento General de Protección de Datos (RGPD) de la Unión Europea que, en su artículo 9, establece que “quedan prohibidos el tratamiento de datos personales que revelen el origen étnico o racial, las opiniones políticas, las convicciones religiosas o filosóficas, la afiliación sindical, y el tratamiento de datos genéticos, datos biométricos dirigidos a identificar de manera unívoca a una persona física, datos relativos a la salud o datos relativos a la vida sexual o las orientación sexuales de una persona física”.

Este artículo recoge excepciones, como que el usuario haya dado su “consentimiento explícito para el tratamiento de dichos datos personales con uno o más de los fines especificados” o que el tratamiento se refiera “a datos personales que el interesado ha hecho manifiestamente públicos”.

La Unión Estadounidense por las Libertades Civiles denuncia el potencial abuso de esta herramienta por parte de las autoridades

El reconocimiento supone un problema para la privacidad y la seguridad de las personas que no escapa a los legisladores. En el marco europeo, la Comisión Europea, en un borrador, plantea la posibilidad de prohibir el uso de la tecnología de reconocimiento facial en lugares públicos por un periodo de hasta cinco años con el fin de avanzar en el desarrollo de soluciones que mitiguen los riesgos que supone.

Entre los requerimientos que recoge, se propone la implementación de normas específicas que vinculen a las autoridades públicas, independientemente de que esta tecnología sea usada por actores públicos o privados. Las normas “regularían en más detalle la tecnología de reconocimiento facial en espacios públicos”, complementando las provisiones del RGPD.

El año pasado, la ciudad estadounidense de San Francisco prohibió el uso de la tecnología de reconocimiento facial por parte de la Administración Pública -medida tomada también en Oakland y Somerville-. Esta decisión bloqueó el uso policial de una herramienta que les ayudaba a identificar a sospechosos de crímenes.

Organizaciones como la Unión Estadounidense por las Libertades Civiles denuncian el potencial abuso de esta herramienta por parte de las autoridades, ya que les otorga un “poder sin precedentes” para rastrear a la gente en su día a día. Otros, no obstante, rechazan la prohibición, por no permitir usar las ventajas que trae la tecnología.

El presidente de la asociación de oficiales de policía de San Francisco, Tony Montoya, reconoció que esta herramienta no era “cien por cien precisa”, pero defendió su éxito “en al menos proporcionar pistas a los investigadores criminales”.