Tecnólogos, científicos y especialistas en seguridad de distintos puntos del globo han manifestado durante los últimos meses su preocupación por el uso que los actores de amenazas pueden hacer de las nuevas herramientas de inteligencia artificial y los grandes modelos de lenguaje. Ahora es el Centro Nacional de Seguridad Cibernética (NCSC) perteneciente a la Agencia de Inteligencia, Seguridad y Cibernética del Reino Unido (GCHQ) quien alerta sobre estos peligros.
El informe del NCSC, llamado “El impacto a corto plazo de la IA en la amenaza cibernética”, señala que las bandas de ransomware ya están aprovechando las ventajas que la inteligencia artificial les proporciona para efectuar sus ataques y que estas nuevas herramientas les han permitido a piratas informáticos relativamente no cualificados u oportunistas “llevar a cabo operaciones de acceso y recopilación de información más efectivas al reducir la barrera de entrada a los ciberdelincuentes novatos, hackers a sueldo y hacktivistas”.
A su vez, es probable que esa barrera de entrada más baja contribuya al aumento global de los ataques de ransomware, mediante los cuales los delincuentes cifran los sistemas informáticos para obtener un rescate digital, explica la agencia Reuters.
La facilidad de acceso a estas herramientas junto a las posibilidades de seleccionar mejor a las víctimas que ofrece la IA, al poder identificar datos de alto valor para su examen y exfiltración, tendrá una notoria repercusión en la ciberseguridad mundial. “Es casi seguro que la IA aumentará el volumen y el impacto de los ciberataques en los próximos dos años”, advierte el informe.
El NCSC indica además que para el año 2025 “la IA generativa y los grandes modelos de lenguaje (LLM) harán que sea difícil para todos, independientemente de su nivel de comprensión de la seguridad cibernética, evaluar si una solicitud de restablecimiento de contraseña o correo electrónico es genuina, o para identificar intentos de phishing, suplantación de identidad o ingeniería social”.
En su nivel de peligrosidad más bajo, las herramientas de IA como los chatbots están ayudando a los ciberdelincuentes a crear correos electrónicos o documentos más convincentes utilizados en campañas de phishing. En ataques más sofisticados, los hackers aprovechan el potencial de la inteligencia artificial para la generación de software malicioso, continúa el informe.
Con respecto al phishing y la suplantación de identidad hay posiciones encontradas. Nunca fue tan fácil como ahora, con los chatbots y otras nuevas aplicaciones, escribir mensajes correctamente, sin errores de gramática, traducir textos para que parezcan escritos por personas nativas, así como generar imágenes, audios o vídeos fraudulentos convincentes.
Mientras que una investigación de Kaspersky reveló en noviembre pasado que la IA ha incrementado en hasta un 600% los ataques de phishing dirigidos y el uso de deepfakes, otros estudios afirman que la eficacia de estos correos electrónicos es la misma independientemente de si fueron escritos por un humano o un chatbot de inteligencia artificial. Se trata de una encuesta de la empresa norteamericana Splunk, enfocada específicamente en los correos de phishing y la traducción de los textos que implican, que indica que “las personas tienen una tasa de precisión cercana al 50% al determinar si un correo electrónico fue traducido mediante métodos tradicionales o herramientas de inteligencia artificial generativa”.
Desde una perspectiva macro, lo positivo es que la inteligencia artificial y los grandes modelos de lenguaje no dejan de ser herramientas, y como tales, pueden ser utilizadas para muchos fines, entre ellos la ciberseguridad. Detección de vulnerabilidades, mayor velocidad y optimización para actuar frente a incidentes, análisis de patrones o mejora del software de seguridad son solo algunas de las acciones que pueden enriquecerse.