• Home /

  • /

  • Una aplicación de IA nutrida con 100.000 fotos de niños felices para combatir los contenidos pedófilos en Internet

Ciberseguridad

Una aplicación de IA nutrida con 100.000 fotos de niños felices para combatir los contenidos pedófilos en Internet

El proyecto, desarrollado por la Universidad de Monash y la Policía Federal de Australia, consiste en un banco de imágenes de origen ético (compuesto por niños y adolescentes en situaciones de bienestar) para luchar contra los abusos infantiles.

Periodista

3 minutos

La aplicación de IA del banco de imágenes 'My pictures matter' aspira a aglutinar 100.000 imágenes de una infancia y adolescencia con bienestar para detectar y eliminar contenidos pedófilos. Imagen de 5540867 en Pixabay

Desgraciadamente los contenidos de carácter pedófilo están creciendo de manera exponencial en Internet. Así lo explica Janis Dalins, una de las principales responsables de la policía australiana en el combate contra los abusos sexuales que se producen contra la infancia y que luego se divulgan por la red. En palabras de Dalins "estamos asistiendo a un tsunami de materiales que retratan agresión sexual infantil y que se comparten de manera creciente a través de Internet". En Australia, por ejemplo, el país donde se enmarca esta noticia, la Comisión de Seguridad Electrónica describió, durante la fase más aguda de la pandemia del covid-19, un aumento del 129% de los informes que constatan situaciones delictivas que afectan a menores de edad, lo que representa un verdadero aluvión de "este impactante material que se filtra por internet". 

"My pictures matter": primer banco de imágenes de origen ético contra abusos infantiles 

Para luchar contra esos abusos y atajarlos de raíz, se ha modelado el el primer banco de imágenes del mundo de origen ético para preservar la salud y el bienestar infantil. La iniciativa, impulsada por AiLECS Lab, se denomina My Pictures Matter (Mis imágenes importan) y representa una alianza entre la Facultad de Tecnología de la Información de la Universidad de Monash, situada al sur de Melbourne, y la Policía Federal de Australia

El proyecto consiste en un instrumento de inteligencia artificial, que aspira a estar integrado por 100.000 imágenes de niños felices que retraten diferentes escenas de bienestar y salud de los más pequeños. Por ejemplo, de acuerdo con esta información del diario The Guardian, en el banco de imágenes que se está elaborando se puede apreciar a un niño jugando en la arena de la playa, también a un pequeño de nueve años que gana un premio en la escuela…

En suma, el algoritmo con el que se ha estructurado esta herramienta busca imágenes felices y seguras de la infancia con el objetivo de elaborar una base de datos de imágenes obtenidas éticamente que permita combatir la circulación de contenidos pedófilos en Internet. 

Cómo funciona el banco de imágenes por una infancia segura y protegida

Para nutrir esta herramienta digital, los impulsores de la propuesta han modelado la campaña ‘My pictures matter’, en la que se pide a personas mayores de 18 años que compartan fotos seguras de ellos mismos en diferentes etapas de su infancia y adolescencia. El objetivo de esta iniciativa es generar un algoritmo de aprendizaje automático, habilitado para leer infinidad de álbumes, hasta que aprenda como un niño como es un niño (lo mismo con los adolescentes) y cuáles son los factores que relatan que está en una situación de felicidad, alegría y bienestar. Después, a partir de estos parámetros, el algoritmo empezará a buscar esa clase de imágenes e identificará aquellas fotos que no cumplan con esos indicadores. 

Al obtener fotografías de niños de personas que actualmente son adultos, el profesor Campbell Wilson, codirector del proyecto, explica el valor que este consentimiento comporta en términos morales :”a través del consentimiento informado estamos tratando de construir tecnologías que sean éticamente responsables y transparentes”. 

Por su parte, la líder del proyecto y experta en ética de datos, la Doctora Nina Lewis, detalla que se procesarán de manera separada, y muy cuidadosa, las imágenes y los datos de las personas que contribuyen al banco de imágenes (básicamente, su correo electrónico). El esmero por preservar esa confidencialidad llega hasta el punto de que “las imágenes utilizadas por los investigadores no puedan revelar ninguna información personal sobre las personas representadas”. 

De qué modo "My pictures matter" agilizará la labor de rastreo de contenidos pedófilos 

Hasta ahora, el trabajo de identificar contenidos digitales que comportan abusos sexuales era largo, tedioso y aburrido. Así lo explica la comisaria Janis Dalins, que es la persona que encabeza este proyecto por parte de la policía australiana: Cuando trabajaba como forense digital había ocasiones en las que se pasaban días, semanas y hasta meses clasificando las fotografías”. Gracias a este instrumento de IA, la primera parte de este trabajo tan mecánico, aburrido e ingente será realizada por máquinas afinadas, con mucha mayor velocidad, que permitirán hacer una primera criba. Después, serán los investigadores humanos quienes afinen la búsqueda de contenidos delictivos que afecten a menores. 

Un horizonte alentador con esta base de imágenes de niños seguros y felices

Los responsables del proyecto de AiLECS Lab estiman que tendrán operativo el banco de imágenes para finales de 2022. La idea es que este repositorio de fotografías digitales (o convertidas a formato digital) esté integrado por al menos 100.000 imágenes de origen ético. Con esta formidable base de datos será más sencillo entrenar al algoritmo y detectar conductas delictivas que afecten a niños, niñas y adolescentes. Si quieres informarte con más detalle de este proyecto o aportar tus propias imágenes a la iniciativa, puedes hacerlo en la página web de My Pictures Matter.