Tecnología

Aumentan las estafas con voces clonadas de familiares usando inteligencia artificial

Comparte

Los cibercriminales están empleando la inteligencia artificial para clonar voces y realizar engaños. Esta técnica se está convirtiendo en una realidad alarmante en el mundo de la ciberdelincuencia.

Basta con tres segundos de audio para que una inteligencia artificial clone tu voz, permitiendo generar llamadas convincentes que pueden engañar incluso a personas cercanas al supuesto afectado.

Sin duda alguna, esta modalidad de estafa es una de las más elaboradas y creíbles. Para poder generar este efecto, los ciberdelincuentes replican una voz concreta a partir de un pequeño prototipo que introducen en un software de generación de voz. Esta IA analiza la muestra partiendo de patrones y busca en su base de datos voces similares para recrear la voz que interesa a los estafadores.

Tras duplicar la voz, los simuladores la utilizan contra los familiares de la víctima. Normalmente es una llamada telefónica en un contexto de emergencia. Las voces copiadas son casi indistinguibles de las originales, por lo que es muy fácil caer en el engaño.

Evita las estafas de las voces clonadas

La organización Electronic Frontier Foundation recomienda realizar preguntas personales que solo conozcan los familiares o crear una palabra clave para casos de emergencia.

Lograr no caer en la trampa resulta especialmente difícil en esos momentos tan críticos, pero eso es lo que buscan los criminales. Es por ello, que se debe verificar el número de la llamada, analizar bien el tono de la voz y dudar siempre al momento que soliciten los números de la tarjeta bancaria o dinero para evitar no caer en el engaño.

Con información de Versión Final