OpenAI ocultó un hackeo a los medios y a las autoridades

Un pirata informático logró hacerse con detalles sobre el diseño de las tecnologías de IA de la compañía.

Alberto Payo

Periodista

Guardar

Logo de OpenAI, propietaria de ChatGPT
Logo de OpenAI, propietaria de ChatGPT

En los últimos días se ha conocido que el gigante de la inteligencia artificial y creador del modelo de gran lenguaje ChatGPT, OpenAI, fue víctima de una violación de seguridad a principios del año pasado. 

Según informa The New York Times, un ciberdelincuente pudo acceder a los sistemas de mensajería interna de OpenAI y robar detalles sobre el diseño de las tecnologías de IA de la compañía. 

En concreto, el pirata informático extrajo detalles de las discusiones en un foro online en el que los empleados intercambiaban opiniones y reflexiones sobre sus últimas tecnologías, según han revelado dos personas familiarizadas con el incidente. 

No obstante, el atacante no llegó a entrar en los sistemas donde la empresa aloja y construye su inteligencia artificial. 

Por qué no dijeron nada

El hackeo no fue dado a conocer públicamente, ya que la empresa no lo consideró necesario al no haberse robado información sobre clientes o socios.

Además, los directivos de OpenAI pensaban que el incidente no constituía una amenaza para la seguridad nacional, ya que creían que el hacker era un particular y no tenía ningún tipo de vínculo conocido con un gobierno de otro país. 

Por todos estos motivos el coloso de la IA no llegó a informar al FBI ni a ninguna otra persona de las fuerzas del orden. 

Lo que sí hicieron los altos mandos de la firma fue comunicar lo ocurrido a la plantilla y a la junta durante una reunión general en San Francisco en abril de 2023.

Según recoge el diario neoyorquino, algunos empleados de OpenAI temieron que adversarios extranjeros como China pudieran hacerse con tecnología de IA, lo que eventualmente sí podría poner en peligro la seguridad nacional. 

Además, su manera de actuar ocultando lo sucedido llegó a generar inquietud sobre la manera de abordar la seguridad por parte de la empresa. 

Un empleado con responsabilidad en el programa técnico de OpenAI y dedicado a que las futuras tecnologías de IA no causen daños graves, Leopold Aschenbrenner, envió una nota a la junta directiva donde aseguraba que la empresa no estaba haciendo lo suficiente para evitar que el gobierno chino y otros adversarios extranjeros robaran sus secretos. 

Este trabajador, que fue despedido de la casa hace unos meses, indicó en un podcast que la seguridad de OpenAI no era lo suficientemente fuerte como para proteger contra el robo de secretos clave si actores extranjeros se infiltraran en la empresa.

Una portavoz de la empresa tecnológica ha señalado al New York Times que sus inquietudes no llevaron a su despido y que no están de acuerdo con muchas de las afirmaciones que ha hecho. "Esto incluye sus caracterizaciones de nuestra seguridad, en particular este incidente, que abordamos y compartimos con nuestra junta antes de que se uniera a la empresa”, ha asegurado.

Tan solo hace unos días que se ha conocido un problema de seguridad en ChatGPT. La aplicación para Mac facilitaba la la exposición de las conversaciones, porque se almacenaban los chats en texto plano sin cifrar.