Los ataques basados en inteligencia artificial no han hecho más que empezar. Cierto es que la automatización proporciona herramientas sofisticadas de defensa, pero también nuevas armas para que los ciberatacantes redoblen su eficacia. Pensemos en un uso tan sencillo como el de la archiconocida ChatGPT. Mientras algunos preguntamos por los mejores lugares para ir de vacaciones o cómo hacer una receta saludable en el airfryer, otros pueden escribir comandos como “diseña un email que parezca redactado por un banco y que inste a pinchar en un enlace”.
No será algo tan obvio, claro, pero sí igual de peligroso. Las herramientas de IA generativa pueden ser un gran aliado para el phishing, como lo son ya también para los deepfakes. De hecho, Microsoft y OpenAI ya han identificado a varios grupos de ciberdelincuentes vinculados a Rusia, Corea del Norte, Irán y China que han estado utilizando sus servicios para un amplio abanico de tareas sospechosas.
Si bien en todos los casos se trata de actores malintencionados que aparentemente llevan impulsado actividades ilegales desde hace tiempo, Microsoft y OpenAI señalan que todavía no han conseguido detectar ningún “ataque significativo” específico utilizando los grandes modelos de lenguaje de la IA. En cualquier caso, ambas compañías han decidido publicar su investigación para exponer cualquier tipo de movimiento en su etapa inicial.
Y es que el panorama resulta por lo menos preocupante. Los avances en la IA han generado una nueva realidad en la que los ciberataques se vuelven más complejos de prevenir y detectar. Por esta razón, resulta crucial que las empresas se adapten a estos cambios y busquen maneras para protegerse contra estas amenazas que evolucionan constantemente.
Robo de identidad
Así, el robo de identidad ha evolucionado notablemente, ya que las herramientas de IA facilitan la creación de identidades artificiales combinando, para ello, información real y ficticia. Estas identidades artificiales se utilizan, posteriormente, para cometer fraudes, lo que provoca importantes pérdidas económicas. A modo de ejemplo, la Federal Trade Commission (FTC, Comisión Federal de Comercio de EE. UU.) afirma que el robo de identidad generó pérdidas por un valor de 3.300 millones de dólares en 2020.
También los deepfakes se perfilan como una gran amenaza en 2024. Aunque a menudo los asociemos a memes como el que se ha viralizado en los últimos días parodiando la relación entre Pedro Sánchez y José Luis Ábalos, en realidad son algo mucho más peligroso. Capaces de conseguir suplantar las identidades de jefes, compañeros de oficina o asesores bancarios, pueden inducir a errores fatales en economías domésticas o empresas de cualquier tamaño y condición.
El último ejemplo lo pudimos ver hace unos días en Hong-Kong, donde un empleado realizó una transferencia de más de 23 millones de euros a su jefe, con el único problema de que no se trataba realmente de su superior, sino de una imagen generada con IA. Los estafadores habían logrado recrear una videoconferencia donde el “engañado” era la única persona real. El resto eran todos deepfakes.
La IA también mejora la ciberseguridad
El panorama puede parecer desolador, pero esto es solo una cara de la moneda. Al igual que sirve para incrementar la productividad de los atacantes, lo hace también con la de los defensores. Un ejemplo claro es su eficiencia frente a los ataques dinámicos. Un antivirus se basa en una base de datos de amenazas que es capaz de detectar. Cuando esos ataques cambian, podrían tener dificultades, al menos a corto plazo. La IA utiliza algoritmos de aprendizaje automático para analizar grandes conjuntos de datos y poder así detectar anomalías.
Esto va a permitir que detecten amenazas que están en evolución. Se van a identificar vectores de ataque a través del aprendizaje continuo, por lo que podrán fortalecer las defensas y evitar así la entrada de malware. Los defensores van a tener mucha más información, y van a usarla mejor, ante hipotéticos ataques.
Otra mejora es que está reduciendo la cantidad de falsos positivos. La IA tiene una mayor capacidad para analizar el comportamiento y diferenciar la actividad legítima de la intención maliciosa. Al tener análisis de comportamiento avanzado, va a detectar mejor cuándo puede tratarse de un falso positivo y evitar así problemas.
Además, la IA ayuda a mejorar la seguridad online al evaluar riesgos continuamente. Puede analizar comportamientos de usuarios, tráfico de red o incluso vulnerabilidades que pueda haber en el sistema. Todo esto aportará una mayor protección, para saber actuar lo antes posible. Responder rápido ante incidentes de seguridad, es esencial.
Con todo, nunca estamos a salvo de riesgos. La inteligencia artificial no garantiza una empresa o un negocio no vaya a ser el objetivo de un ataque de ransomware, o que uno de los empleados o de los socios no vaya a picar en uno de los cada vez más elaborados ataques de phishing que se sirven de la IA generativa.
Y, teniendo en cuenta que tanto la formación como las herramientas de prevención, cuestan tiempo y dinero, quizá la opción más práctica para una pyme sea hoy contratar un ciberseguro. Con precios que arrancan desde los doce euros al mes y cubren un elevado número de daños (también las posibles multas derivadas de un incumplimiento de la RGPD, la Ley de Protección de Datos europea) pueden ser una efectiva medida de defensa. Una opción que, además, puede ser urgente en tiempos donde la inteligencia artificial, para bien o para mal, cobra cada vez más relevancia.