• Home /

  • /

  • Una renovada estafa usa la IA para copiar la voz de familiares

Una renovada estafa usa la IA para copiar la voz de familiares

Los delincuentes la utilizan para pedir dinero clonando la forma de hablar de las personas a través de estas nuevas herramientas.

Anahí Di Santo.

Periodista.

Guardar

Nueva versión de una clásica estafa telefónica con el uso de IA
Nueva versión de una clásica estafa telefónica con el uso de IA

Mucho tiempo antes de la aparición de sofisticadas herramientas como VALL-E, ChatGPT y sus derivados, había una forma de estafa que consistía en una llamada telefónica, con una gran cuota de azar, donde una persona se hacía pasar por un familiar, podía llorar o pedir ayuda, hasta que la víctima intentando adivinar de quien se trataba, decía el nombre esperado por los delincuentes. A partir de ahí se simulaba un accidente, secuestro o alguna situación límite para que se pagara un rescate o se enviara dinero. Gran parte de la efectividad consistía en que la persona engañada no pudiera colgar la llamada para intentar comunicarse y ubicar a su familiar o allegado y comprobar el timo.

Hoy, los estafadores encuentran en las nuevas tecnologías una autopista de máxima velocidad para optimizar sus estrategias. Según indica la web Gizmodo, los sintetizadores de voz basados en inteligencia artificial han comenzado a ser la clave de esta nueva versión de una clásica estafa, que con 30 segundos de una muestra de voz pueden clonar el timbre y tono de una persona, haciendo que diga el texto que los delincuentes deseen.

Una de los softwares utilizados es Prime Voice IA, de la start up EvenLabs. Fue lanzada el pasado mes de enero en una versión totalmente gratuita y sin medidas que impidieran usos indebidos. Rápidamente comenzaron a circular por la web declaraciones falsas e inapropiadas de personas famosas, con gran realismo, a la vez que se empezó a utilizar para realizar estafas.

EvenLabs comunicó una semana después del lanzamiento que la herramienta comenzaría a ser de pago, para evitar estos deepfakes y el “mal uso”, y advirtió que todos los usuarios podrían ser rastreados ya que es necesario colocar un número de tarjeta de crédito para utilizarla. En principio sonaba bien, pero los planes disponibles tienen costos de entre 5 y 330 dólares, e incluso sigue vigente la opción de prueba de manera gratuita. Con lo que su uso sigue más que disponible.

La salvedad que aún tiene esta aplicación es que produce excelentes resultados en el inglés de Estados Unidos, pero ese acento se mantiene cuando se prueba la herramienta en otro idioma, lo que permite detectar una notable rareza cuando se utiliza en otras regiones.

Vall-E, creada por Microsoft, tiene un funcionamiento similar aunque no está abierta al público, al menos de momento. Sin embargo, opera como punta de lanza de otras herramientas que la imiten o emulen, quizá menos efectivas, pero de todos modos útiles para estos engaños.

Hasta ahora, los expertos afirman que el único método de evitar este tipo de estafas es verificar las llamadas antes de enviar dinero a nadie.

 

En EEUU ya es uno de los engaños más frecuentes

El periódico Washington Post indicó que las estafas telefónicas en las que se imita la voz de otras personas causaron pérdidas de 11 millones de dólares el año pasado, convirtiéndose en el segundo tipo de estafa más común en Estados Unidos.

Uno de los casos más resonantes fue el de Benjamin Perkin. Alguien se hizo pasar por su abogado y se comunicó con sus padres, les hizo escuchar una voz que sonaba como él y les pedía 21.000 dólares en bitcoins porque Perkin había matado a un diplomático estadounidense en un accidente de coche y necesitaba el dinero para cubrir gastos judiciales. Los padres enviaron el dinero y más tarde se enteraron de la estafa. Se estima que la voz de Perkin fue clonada a partir de unos videos que el hombre había colgado en Youtube hablando de motos de nieve, una de sus aficiones. La copia realizada a través de estas herramientas de IA fue lo suficientemente convincente para la pareja, que creyó estar hablando con su hijo.