Esta práctica ha sido denunciada por miembros de la comunidad negra

Los expertos condenan el uso de la IA para predecir el rostro del crimen

22
joven negro
Foto: Europa Press

Las apariencias muchas veces engañan… Un grupo de 1.700 expertos científicos y humanísticos ha condenado el uso de la Inteligencia Artificial (IA) en el desarrollo de algoritmos para predecir crímenes basándose en datos biométricos, como el rostro de las personas, algo que alegan que reproduce injusticias sociales y puede perjudicar a las personas de raza negra.

Esta carta dirigida a la editorial Springer llega como respuesta al anuncio de la publicación de un artículo académico titulado ‘Una red neuronal profunda para predecir la criminalidad utilizando el procesamiento de imágenes’.

En este artículo, que aún no ha sido publicado, unos investigadores de la Universidad de Harrisburg (Estados Unidos) aseguran haber desarrollado un ‘software’ capaz de predecir la “criminalidad” analizando datos biométricos como los de reconocimiento facial.

El sistema está destinado para usarse por la policía y la justicia, con la intención de prevenir crímenes antes de que sucedan y tiene “una precisión del 80% y sin ningún sesgo racial”, según afirman sus autores.

Los 1.700 expertos piden a la editorial Springer que no publique el estudio

No obstante, un grupo de 1.700 expertos ha formado una coalición que pide a la editorial Springer que no publique el estudio, que revise los criterios que utilizó para evaluarlo y que condene el uso de tecnologías para predecir la criminalidad.

Los firmantes son académicos de ámbitos diversos, incluyendo estadistas, especialistas en inteligencia artificial y aprendizaje automático, juristas, sociólogos, historiadores, comunicadores y antropólogos. La coalición de científicos defiende que el uso de algoritmos para predecir la criminalidad basándose en datos biométricos y expedientes criminales “están basados en premisas científicas defectuosas, e investigaciones y métodos desacreditados a lo largo de los años”.

Entre los referentes desacreditados que citan los autores de la iniciativa se encuentra Cesare Lombroso, un criminólogo italiano del siglo XIX, que utilizaba la frenología para estudiar a las comunidades pobres y su propensión a cometer determinados crímenes.

“Estos métodos desacreditados continúan apareciendo, a menudo bajo el amparo de nuevos y supuestamente neutrales métodos estadísticos como el aprendizaje automático”, como denuncia la iniciativa, que alega que su uso contribuye a “reproducir injusticias sociales y causa daño real” a comunidades marginadas.

En los últimos años, los gobiernos han utilizado la IA para funciones relacionadas con la justicia como el reconocimiento facial, una práctica denunciada por miembros de la comunidad negra por el sesgo racial, aunque “estas voces continúan siendo marginalizadas” con los avances en estas tecnologías, según concluye la coalición.