• Home /

  • /

  • Estafas con la salud como gancho: cuidado con los deepfakes en las plataformas de Meta

Ciberseguridad

Estafas con la salud como gancho: cuidado con los deepfakes en las plataformas de Meta

La compañía Bitdefender ha realizado una investigación sobre el aumento de las estafas en Facebook, Messenger e Instagram.

2 minutos

Video con la voz de Brad Pitt clonada.

La compañía de ciberseguridad Bitdefender ha realizado una investigación sobre el aumento de las estafas que utilizan la salud como gancho mediante el uso de imágenes generadas por IA y deepfakes de audio y video en las plataformas sociales de Meta (Facebook, Messenger e Instagram). La salud y el bienestar son los temas preferidos que los ciberdelincuentes utilizan en sus campañas para robar información y engañar a las personas con el objetivo de conseguir dinero.

Las campañas utilizan imágenes, videos y tecnología de clonación de voz para replicar el tono de voz y las características de celebridades (como Brad Pitt,  Cristiano Ronaldo, George Clooney o Denzel Washington) y médicos o expertos en el ámbito de la salud para vender suplementos y curas milagrosas, medicamentos o tratamientos de bajo coste que prometen curar afecciones persistentes, incluso el cáncer, a través de anuncios falsos y sitios web fraudulentos. La investigación se llevó a cabo de marzo a mayo de este año.

Conclusiones de la investigación

En cuanto a cifras, el mayor número de seguidores de una página comprometida/falsa que promocionaba anuncios falsos superó los 350.000. Los delincuentes utilizaron más de 1.000 deepfakes de video distintos en todas las comunidades.

Las campañas se dirigieron a millones de destinatarios en todo el mundo, incluidas Europa, América del Norte, Oriente Medio, Asia y Australia. Pero la mayoría de los anuncios se centran en regiones geográficas específicas con contenido personalizado que utiliza los nombres de celebridades, políticos, presentadores de televisión, médicos y otros profesionales de la salud para atraer a los consumidores.

Un clon de una página de CNN que promociona una cura falsa para el tinnitus.

El objetivo principal es el fraude y robar dinero, como en la mayoría de las estafas online, pero también se han utilizado para recopilar datos e información personal.

La investigación muestra algunos datos preocupantes, como que la IA permite a los actores de amenazas adaptar los mensajes y anuncios fraudulentos a los intereses y vulnerabilidades de las personas y, como tal, aumenta la probabilidad de interacción con contenido fraudulento. Permite además a los estafadores generar mensajes altamente convincentes que son gramaticalmente correctos y están en contexto con los anuncios que impulsan a través de las plataformas de redes sociales.

Estrategias del mal

Los ciberdelincuentes utilizan varias estrategias para fortalecer su credibilidad y engañar a los usuarios de las redes sociales. Estas son algunas de las tácticas más utilizadas:

Los estafadores dirán cualquier cosa para convencer a la víctima de que compre sus productos y servicios falsos. Incluyen frases pegadizas diseñadas para cautivar y manipular las emociones.

Instan a las personas a decidir en el acto con ofertas y descuentos por tiempo limitado. Aunque inicialmente engañan a las personas con un descuentos por comprar un solo producto, los estafadores son extremadamente insistentes por teléfono tratando de que se compren varios productos a la vez para asegurarse de que el “tratamiento” sea efectivo.

Difunden falsas promesas para explotar a personas vulnerables que lo necesitan.

Utilizan la tecnología deepfake para crear contenido convincente pero totalmente elaborado. Todos estos métodos son parte de un esfuerzo concertado para engañar y manipular a los objetivos para sus propósitos.

Consejos

Bitdefender aconseja a los consumidores que desconfíen de las ofertas que utilizan el respaldo de celebridades que son demasiado buenas para ser verdad. Estas estafas están evolucionando rápidamente y se vuelven cada vez más difíciles de detectar a medida que la IA mejora.