Las bandas de ransomware reclutan pentesters para mejorar la efectividad de sus ataques

Estos grupos están contratando figuras de este tipo para probar si su software tendría la capacidad de penetrar en las organizaciones.

Alberto Payo

Periodista

Guardar

Prueba de penetración o pentesting
Prueba de penetración o pentesting

Muchos grupos de ransomware tienen estructuras de grandes corporaciones y trabajan constantemente para hacer que estos ataques resulten lo más efectivos posibles. 

Ahora, según se hace eco un estudio de Cato Networks referente al tercer trimestre del año, las bandas de ransomware se estarían dedicando a reclutar a evaluadores de penetración o pentesters para comprobar si sus ransomware funcionan para futuros ciberataques. 

Cato CTRL ha podido observar que los cibermalos buscan figuras de este tipo para unirse a varios programas de afiliados, incluyendo Apos, Lynx y Rabbit Hole. 

“El ransomware es una de las amenazas más extendidas en el panorama de la ciberseguridad. Afecta a todo el mundo, tanto a empresas como a consumidores, y los actores de amenazas intentan constantemente encontrar nuevas formas de hacer que sus ataques de ransomware sean más eficaces”, ha señalado Etay Maor, estratega jefe de seguridad de Cato Networks. 

Generalmente el software debe probarse antes de implementarse en entornos de producción, con lo que tiene mucho sentido que las bandas de ransomware quieran hacer lo propio también. 

Los peligros de la IA en la sombra

En el informe también se destaca que la 'IA en la sombra' estaría acechando en segundo plano a las organizaciones. 

Con este término se habla del uso no autorizado de apps y herramientas de inteligencia artificial dentro de una organización sin el conocimiento o la aprobación de los departamentos de TI o los equipos de seguridad. 

Cato CTRL ha rastreado una decena de apps de IA usadas por las empresas, comprobando varios riesgos de seguridad. La privacidad de los datos es su principal preocupación. 

“La IA en la sombra es una amenaza importante que ha surgido en 2024”, ha señalado Maor. “Las organizaciones deben ser conscientes del uso no autorizado de aplicaciones de IA y de los peligros de permitir que los empleados expongan información confidencial sin darse cuenta”.