Logo El Cierre Digital
Manos sosteniendo un teléfono móvil con una imagen superpuesta de una persona encapuchada frente a una computadora y un símbolo de exclamación.
OCIO

Alerta máxima por una nueva estafa: se hacen pasar por un familiar y te engañan

Un método de fraude que está alarmando a las autoridades y estafando a víctimas al reproducir la voz de sus familiares

Una de las estafas más recientes emplea inteligencia artificial (IA) para clonar la voz de familiares y lograr que las víctimas confíen en los estafadores. El Instituto Nacional de Ciberseguridad (INCIBE) ha advertido sobre este método, en el que las personas reciben llamadas desde números desconocidos. Pero al responder, reconocen la voz de un familiar cercano solicitando ayuda o pidiendo información personal.

Este engaño utiliza tecnología avanzada de clonación de voz, logrando imitar con gran precisión el tono y timbre de cualquier persona con solo unos segundos de audio grabado.

Una persona con su móvil blanco en la mano y un símbolo de llamada rojo
Te llaman haciéndote creer lo que no es | Getty Images

Cómo funciona la clonación de voz

La clonación de voz con IA no es un proceso que requiera un gran número de grabaciones. Según expertos, basta con que los estafadores consigan fragmentos de audio de unos 20 segundos. Algo que pueden obtener de redes sociales, mensajes de voz o incluso de llamadas previas donde la víctima no percibe nada inusual.

Una vez procesada esa información, la IA es capaz de reproducir la voz del familiar de manera convincente, añadiendo incluso matices emocionales, como si la persona estuviera angustiada o preocupada.

Casos reales de esta estafa

Un ejemplo destacado ocurrió cuando una persona recibió una llamada y escuchó lo que parecía ser la voz de su marido, pidiéndole que enviara un mensaje urgente. Al percibir algo extraño en la llamada, la víctima decidió contactar directamente a su esposo mediante su número habitual y descubrió que no había sido él quien le había llamado.

Montaje de una familia feliz y unos billetes de euro al lado
Clonan la voz de un familiar tuyo | Billion Photos

Estos casos resaltan la efectividad de la estafa, ya que la víctima confía al escuchar una voz familiar y, en ocasiones, accede a proporcionar información personal o financiera sin sospechar.

La tecnología detrás del fraude

Rubén Maestre, un experto en ciencia de datos, señala que las herramientas de clonación de voz han evolucionado. Tanto hasta el punto de ser accesibles para estafadores con conocimientos básicos. 

La tecnología es capaz de imitar cualquier voz humana en pocos minutos. Lo que convierte este tipo de fraude en una amenaza real para muchas personas, especialmente aquellas que no están familiarizadas con este tipo de riesgos.

Una mujer en un escaneo de ojos, y en el círculo, unos billetes de 50 euros
La estafa se produce mediante la inteligencia artificial | Getty Images

Para protegerse, los expertos recomiendan desconfiar de llamadas sospechosas, confirmar la identidad del interlocutor por otros medios y no proporcionar datos personales bajo presión.

Este tipo de estafa con IA es un reflejo de cómo las tecnologías avanzadas pueden ser utilizadas para fines malintencionados. Recalca la importancia de estar siempre alerta frente a métodos de engaño cada vez más sofisticados.

➡️ Ocio

Más noticias: