Alerta máxima por una nueva estafa: se hacen pasar por un familiar y te engañan
Un método de fraude que está alarmando a las autoridades y estafando a víctimas al reproducir la voz de sus familiares
Una de las estafas más recientes emplea inteligencia artificial (IA) para clonar la voz de familiares y lograr que las víctimas confíen en los estafadores. El Instituto Nacional de Ciberseguridad (INCIBE) ha advertido sobre este método, en el que las personas reciben llamadas desde números desconocidos. Pero al responder, reconocen la voz de un familiar cercano solicitando ayuda o pidiendo información personal.
Este engaño utiliza tecnología avanzada de clonación de voz, logrando imitar con gran precisión el tono y timbre de cualquier persona con solo unos segundos de audio grabado.
Cómo funciona la clonación de voz
La clonación de voz con IA no es un proceso que requiera un gran número de grabaciones. Según expertos, basta con que los estafadores consigan fragmentos de audio de unos 20 segundos. Algo que pueden obtener de redes sociales, mensajes de voz o incluso de llamadas previas donde la víctima no percibe nada inusual.
Una vez procesada esa información, la IA es capaz de reproducir la voz del familiar de manera convincente, añadiendo incluso matices emocionales, como si la persona estuviera angustiada o preocupada.
Casos reales de esta estafa
Un ejemplo destacado ocurrió cuando una persona recibió una llamada y escuchó lo que parecía ser la voz de su marido, pidiéndole que enviara un mensaje urgente. Al percibir algo extraño en la llamada, la víctima decidió contactar directamente a su esposo mediante su número habitual y descubrió que no había sido él quien le había llamado.
Estos casos resaltan la efectividad de la estafa, ya que la víctima confía al escuchar una voz familiar y, en ocasiones, accede a proporcionar información personal o financiera sin sospechar.
La tecnología detrás del fraude
Rubén Maestre, un experto en ciencia de datos, señala que las herramientas de clonación de voz han evolucionado. Tanto hasta el punto de ser accesibles para estafadores con conocimientos básicos.
La tecnología es capaz de imitar cualquier voz humana en pocos minutos. Lo que convierte este tipo de fraude en una amenaza real para muchas personas, especialmente aquellas que no están familiarizadas con este tipo de riesgos.
Para protegerse, los expertos recomiendan desconfiar de llamadas sospechosas, confirmar la identidad del interlocutor por otros medios y no proporcionar datos personales bajo presión.
Este tipo de estafa con IA es un reflejo de cómo las tecnologías avanzadas pueden ser utilizadas para fines malintencionados. Recalca la importancia de estar siempre alerta frente a métodos de engaño cada vez más sofisticados.
Más noticias: