• Home /

  • Ciberseguridad /

  • Más de un tercio de la información empresarial introducida en apps de IA generativa son datos regulados

Más de un tercio de la información empresarial introducida en apps de IA generativa son datos regulados

Un estudio de Netskope muestra que, de media, las empresas usan ya una decena de aplicaciones de genAI.

Alberto Payo

Periodista

Guardar

Los ciberdelincuentes y la IA generativa. Imagen de Sophos.
Los ciberdelincuentes y la IA generativa. Imagen de Sophos.

La empresa de ciberseguridad Netskope ha publicado una nueva investigación realizada por su equipo de inteligencia de amenazas que muestra que los datos regulados (aquellos que las organizaciones tienen el deber de proteger) representan más de un tercio de los detalles confidenciales que se comparten con las aplicaciones de IA generativa. Esto presentaría un riesgo potencial para la empresas de costosas violaciones de datos.

El estudio de Netskope Threat Labs también pone de manifiesto que tres cuartas partes de las empresas encuestadas bloquean por completo al menos una aplicación de genAI, lo que dejaría claro el interés de los líderes tecnológicos empresariales por limitar el riesgo de exfiltración de datos confidenciales. 

Sin embargo, la mayoría se quedaría atrás a la hora de adoptar soluciones avanzadas de protección de pérdida de datos (DLP) que son necesarias para habilitar genAI de manera segura: menos de la mitad de las organizaciones aplican controles centrados en los datos para evitar que se comparta información confidencial en la consultas de entrada. 

Los investigadores encontraron que el 96% de las empresas usan ya IA generativa. Este porcentaje se habría triplicado en los últimos 12 meses. 
Además, las compañías utilizan una media de una decena de aplicaciones de genAI, frente a las 3 de promedio que usaban el año pasado. Por otro lado, el 1% de los principales usuarios ahora usa una media de 80 aplicaciones, un aumento significativo frente a las 14 de hace un año.

Con el este incremento del uso, las empresas también han experimentado un crecimiento en el uso compartido de código fuente propietario dentro de las aplicaciones genAI, lo que representa el 46% de todas las violaciones documentadas de las políticas de datos. 

Estas dinámicas cambiantes complicarían la manera en la que las empresas controlan el riesgo, lo que impulsa la necesidad de un esfuerzo de DLP más sólido.

La investigación de Netskope evidencia, asimismo, que el 65 % de las empresas implementan un coaching de usuarios en tiempo real para ayudar a guiar las interacciones de los usuarios con las aplicaciones genAI. Esta herramienta habría representado un papel crucial en la mitigación de los riesgos de los datos, lo que ha llevado al 57 % de los usuarios a modificar sus acciones después de recibir alertas de coaching.

"Para proteger la genAI se necesitan más inversiones y una mayor atención, ya que su uso se está extendiendo por las empresas y no hay señales de que vaya a disminuir pronto", comenta en un comunicado de prensa James Robinson , director de seguridad de la información de Netskope.

"Las empresas deben reconocer que los resultados de genAI pueden exponer información confidencial, propagar información errónea o incluso introducir contenido malicioso de forma inadvertida. Esto exige un enfoque sólido de gestión de riesgos para proteger los datos, la reputación y la continuidad del negocio", añade. 

ChatGPT sigue manteniendo el trono

Del informe también se desprenden otras conclusiones interesantes, como que ChatGPT continúa siendo la aplicación más popular, con más del 80% de la organizaciones que la usan. 

Sin embargo, Copilot de Microsoft habría mostrado el crecimiento más espectacular desde su lanzamiento en enero de este año, con un 57%. Por otro lado, el estudio también revela que el 19% de las organizaciones han impuesto una prohibición total a GitHub Copilot.