Aunque se ha corregido el problema, la app de ChatGPT para Mac ha permitido la exposición de las conversaciones, porque se almacenaban los chats en texto plano sin cifrar. Este fallo evidencia que la seguridad en los modelos de IA generativa aún están lejos de ser satisfactorios. Y no se ha solucionado hasta el pasado 28 de junio.
Existe tal ansia por ChatGPT que no siempre se miden bien los estándares de seguridad. La app móvil ya se puede disfrutarse desde el año pasado. La plataforma de escritorio para los ordenadores Mac de Apple salió al mismo tiempo que presentación de GPT-4o, en principio con acceso limitado. Pero OpenAI decidió apostar por la apertura de manera gratuita a los usuarios. La intención: que se pudiera disfrutar la herramienta de inteligencia artificial de forma directa.
El gozo ha durado un suspiro. Un fallo de seguridad en ChatGPT para Mac ha dejado al descubierto los datos de millones de usuarios. El motivo: se almacenaban los chats en texto plano sin cifrar. La consecuencia: cualquiera puede acceder a ellos por encontrarse en una carpeta sin protección. Resulta casi una invitación dejarse esta puerta abierta, sobre todo para los avispados ciberdelicuentes o las aplicaciones maliciosas. La protección al usuario esta vez no ha sido la máxima.
Saltan las alarmas
Dio la voz de alarma el ingeniero de datos español Pedro José Pereira Vieto, quien afirmó en el diario The Verge que “el chatbot de OpenAI no siguió la línea de seguridad de macOS”. Como no se utilizó el sistema sandbox estándar, Pereira se percató, cuando revisó archivos y caché almacenados, de que absolutamente todas las conversaciones registradas en la aplicación se almacenaban en texto sin formato.
Por sandbox se entiende un entorno de seguridad aislado y controlado donde las aplicaciones pueden ejecutarse de forma segura y limitada. Este entorno limita el acceso de las aplicaciones a recursos críticos del sistema, tales como archivos sensibles o configuraciones del sistema operativo.
La curiosidad del experto se debió a que no comprendía por qué la aplicación de ChatGPT para Mac no se hallaba en la tienda de aplicaciones para el ordenador, solamente en la página de OpenAI.
Para evidenciar el peligro, Pereira desarrolló una aplicación donde se demostraba el peligro. Y lo más grave, los textos aparecían con solo darle a una tecla. El experto indicó que los chats se guardaban en la siguiente ubicación de Mac: ubicación no protegida:~/Library/Application\Soporte/ com.openai.chat/conve… {uuid}/.
Corrección de la vulnerabilidad
Una vez detectado el fallo, OpenAI actualizó la app para cifrar las conversaciones con la encriptación de los chats. O el usuario actualiza a la última versión, o seguirá con problemas. Gracias al cifrado, los datos se convierten en formato ilegible mientras transitan por la red. Entonces, solo el emisor y el receptor con permiso pueden comprender el contenido usando una clave de descifrado.
“Conocemos el problema y hemos lanzado una nueva versión de la aplicación que encripta estas conversaciones”, anunció la portavoz de OpenAI Taya Christianson, en declaraciones a The Verge. Mantiene la compañía, según Christianson, el compromiso de “proporcionar una experiencia de usuario útil y los altos estándares de seguridad”. Tras la actualización de la app, la app ideada por Pereira ha dejado de funcionar.
No es este el primer fallo de seguridad vinculado a la inteligencia artificial. La reciente puesta de largo de Windows Recall, la función de Microsoft para IA, resultó un fiasco por sus posibles “agujeros” en materia de privacidad.