Hasta hace poco tiempo, en las aulas se planteaba la inquietud entre los docentes sobre cómo trabajar los materiales extraídos de las búsquedas en internet con los estudiantes, la comprensión de contenidos, la elaboración propia de los textos y cómo evitar que el copiar-pegar perjudique el aprendizaje. Hoy la tecnología, de la mano de la inteligencia artificial y los chatbots, plantea una nueva herramienta y nuevos desafíos, tanto en las aulas como en las oficinas.
El inconveniente que se presenta no son los atajos que se puedan obtener, de hecho, el ahorro de tiempo siempre es algo valorable y puede favorecer la productividad, pero sí hay factores a considerar, como el chequeo de datos, los errores y las alucinaciones de los bots, porque, al fin y al cabo, la fuente de información también es Internet, y sabemos que no todo lo que aparece publicado en la red es información veraz, confirmada o confiable. A esto se suman las cuestiones de seguridad a las que podemos exponernos, así como los datos sensibles que podemos facilitar sin una total noción de sus implicaciones.
“¿Usarías ChatGPT en tu trabajo?” Preguntó Kaspersky a un grupo representativo de españoles en el mes de julio de este año. Las respuestas indican que el 70% se plantea usar la herramienta, mientras que un 16% de quienes participaron en la encuesta ya la utiliza y solamente un 14% no planea hacerlo a corto plazo.
El estudio de la compañía de ciberseguridad también analiza las tareas que los empleados españoles confían de manera más recurrente a ChatGPT. Entre quienes utilizan esta herramienta, un 52% lo hace para la redacción de contenidos y el 48% lo usa para generar ideas para proyectos. Le siguen con el 38%, los resúmenes de textos y las traducciones. Incluso, un 14% admite consultar ChatGPT para saber qué responder al correo de un jefe o un cliente.
“Uno de cada cuatro trabajadores españoles reconoce desconocer de qué manera funciona ChatGPT y lo que el chatbot hace con sus datos personales o los de la empresa.”
Por otro lado, aun no hay un consenso sobre la legitimidad del uso de la herramienta: el 32% de los trabajadores que usan ChatGTP reconoce haber utilizado sus respuestas como trabajo propio sin decírselo a sus compañeros o superiores, y casi el 14% de los trabajadores no ha informado a sus superiores de la utilización de la plataforma, a pesar de que en muchos casos se facilitan datos sensibles de la empresa.
“A pesar de que ChatGPT cuenta con medidas de seguridad para proteger la privacidad de sus usuarios, siempre existe la posibilidad de que sea vulnerado por ataques de hackers o malware. Por este motivo, es importante utilizar la herramienta con cabeza y evitar introducir información confidencial y delicada que pueda terminar en manos de ciberdelincuentes”, explica Marc Rivero, Lead Security Researcher de Kaspersky.
Sin embargo, no siempre la exposición a posibles vulneraciones es algo que se produce por desconocimiento, sino que también hay una cuota significativa de falta de consciencia. Un 16% de los encuestados asegura que no le preocupa la privacidad cuando interactúa con la IA. Y el 31% reconoce compartir información delicada en ChatGPT, a pesar de que está al tanto de la importancia de no compartir datos sensibles.
A esto se suma que uno de cada cuatro trabajadores españoles reconoce desconocer de qué manera funciona ChatGPT y lo que el chatbot hace con sus datos personales o los de la empresa.
Se vuelve fundamental entonces la formación de todos los empleados y las campañas de concienciación hacia el interior de las compañías. Así como es necesario educar para evitar el phishing, el ransomware o el fraude del CEO, también es clave trabajar sobre la utilización de estas nuevas herramientas.
En este sentido, no son solo los trabajadores los que no toman seriamente la incorporación de este tipo de plataformas en las tareas diarias. Casi un 46% de los empleados sostiene que sus empresas no tienen ninguna política de uso para los chats de Inteligencia Artificial generativa. Y un 27% asegura que, pese a haberse establecido una norma interna, esta no es aplicada por los empleados.
“Es más complicado que los empleados se tomen en serio la privacidad de los datos empresariales si desde las propias organizaciones no se promueven medidas para protegerlos. Por ello, es importante que las empresas desarrollen e implementen políticas de uso para nuevas herramientas como ChatGPT, de modo que los equipos conozcan los riesgos y tengan claro cómo actuar para proteger información sensible”, concluye Rivero.