Google ha presentado una nueva tecnología llamada IMAGEN, un modelo basado en Inteligencia Artificial (IA) capaz de crear imágenes de gran realismo a partir de breves descripciones de texto.
IMAGEN es capaz de convertir palabras o breves descripciones, como "un pequeño cactus con sombrero de paja y gafas de sol de neón en el desierto del Sáhara" o "un perro Pomerania sentado en el trono del rey con una corona y dos soldados tigre junto a él", en imágenes, tal y como ha avanzado Europa Press.
Para ello utiliza el Transformador de transferencia de texto a texto (T5), un modelo presentado en 2020 y en cuyos inicios era capaz de unificar entradas y salidas de cadenas de texto. Ahora, sin embargo, se ha modificado para realizar la síntesis de imágenes.
Si bien es cierto que, originalmente, la IA produce imágenes con una resolución de 64 x 64 píxeles, su tecnología es capaz de escalarlas primero a 256 x 256 píxeles y, a continuación, a 1.024 x 1.024 píxeles, generando un modelo de difusión en cascada.
Una de las premisas de IMAGEN es la de ofrecer resultados con un nivel de detalle más preciso con respecto a otros sistemas de conversión de texto en imágenes similares, como VQ-GAN+CLIP y DALL-E 2.
Para ello, ha presentado "una prueba de referencia exhaustiva y exigente para los modelos de texto-imagen" llamada DrawBench, que compara el modelo de Google con los anteriormente mencionados.
Este punto de referencia sirve para probar cómo se llevan a imágenes aspectos narrados en el texto, como la composición, la fidelidad, la cardinalidad, y las relaciones espaciales de los objetos.
La compañía ha destacado algunos puntos importantes de la investigación de imagen llevada a cabo para desarrollar esta IA, como el desarrollo de la nueva arquitectura propia Efficient U-Net, que es más eficiente en computación y en memoria.
Mucho por mejorar
Google ha anunciado que, por el momento, esta IA no es de código abierto ni accesible a nivel global. Esta decisión deriva de los posibles riesgos potenciales de uso indebido por parte de los usuarios.
Con ello, ha reconocido que las primeras pruebas que se han llevado a cabo con esta IA han permitido rápidos avances algorítmicos gracias a datos extraídos de Internet y que aún quedan muchos aspectos por mejorar.
En este sentido, ha indicado que estos datos no reflejan la diversidad, sino que se han centrado en "esterotipos sociales, puntos de vista opresivos y asociaciones despectivas o dañinas con grupos de identidad marginados".
Además ha puntualizado que, aunque han llevado un control para filtrar los datos que han recopilado para sus primeras pruebas con IMAGEN, el conjunto de datos utilizado LAION-400M mantiene un "contenido inapropiado, incluidas imágenes pornográficas, insultos racistas y estereotipos sociales dañinos".
Conviene recordar que hace unas semanas la empresa de investigación en IA sin ánimo de lucro OpenAI presentó DALL-E, su nuevo sistema de IA capaz también de convertir las palabras en imágenes realistas.
Esta tecnología puede editar fotografías en base a una petición escrita. Dentro de esta función entra la posibilidad de eliminar elementos como sombras, reflejos y texturas.