En los últimos días las redes sociales se han llenado de imágenes con muñecos animados. La 'culpable' ha sido la última actualización de ChatGPT, que ha incluido una mejora para poder convertir fotos en ilustraciones al estilo de las películas de Hayao Miyazaki.
Incluso el propio CEO de la compañía, Sam Altman, ha actualizado su foto de perfil con una de estas instantáneas utilizando el filtro de Studio Ghibli.
Más allá del debate sobre la propiedad del arte y los derechos de autor, el uso de estas fotos ha levantado ampollas entre los expertos en ciberseguridad. Muchos piden a los usuarios que sean conscientes del tratamiento de sus datos personales al utilizar la tecnología de generación de imágenes con IA.
La firma dedicada a la privacidad y seguridad de datos Proton advierte de que lo que a priori puede parecer una moda divertida e inocente esconde algunos riesgos.
En la red social X la empresa ha comentado que "debido a los riesgos de filtración de datos, al compartir imágenes personales con la IA, se pierde el control sobre su uso, ya que estas fotos se utilizan para entrenar a la IA. Por ejemplo, podrían usarse para generar contenido difamatorio o acosador", alerta.
"Muchos modelos de IA, en particular los que se utilizan en la generación de imágenes, se basan en grandes conjuntos de datos de entrenamiento. En algunos casos, es posible que se utilicen fotos tuyas o con tu imagen sin tu consentimiento. Por último, tus datos podrían utilizarse para anuncios personalizados y/o venderse a terceros", añaden.
Mayor peligro si hay niños
En España la empresa Qustodio también ha lanzado un mensaje para advertir sobre los peligros de esta tendencia viral, ya que en muchos casos se están compartiendo fotos de niños. La compañía alerta sobre los riesgos que muchas familias podrían estar pasando por alto al pasar fotografías de los menores a los modelos de IA generativa.
"Es cierto que estas imágenes no se publican directamente en una red social, pero sí se quedan almacenadas en plataformas de IA que procesan y almacenan datos, muchas veces sin que el usuario sea consciente de cómo se gestionan ni con quién se comparten", señalan en un comunicado de prensa.
"En este sentido, muchas aplicaciones, especialmente aquellas que no pertenecen a grandes empresas tecnológicas con políticas más estrictas de privacidad, pueden compartir información con terceros, incluyendo los datos biométricos extraídos de las fotografías. Esto significa que los rostros de los menores podrían alimentar algoritmos sin un consentimiento explícito y quedar expuestos a usos posteriores desconocidos", añaden.
Emily Lawrenson, gerente de comunicación de Qustodio recuerda que "la IA Generativa ofrece oportunidades fascinantes, pero también requiere una comprensión crítica de sus límites y riesgos. Subir una foto entrañable puede parecer un gesto inocente, pero es importante recordar que, una vez está en la nube, perdemos el control sobre su destino".
Por su parte, la futurista Elle Farrell-Kingsley también ha señalado en X que subir fotos a herramientas de IA implica el riesgo de exponer metadatos, ubicación e incluso datos confidenciales, especialmente para niños.