En redes sociales se viralizó un alarmante método de estafa que utiliza Inteligencia Artificial para clonar la voz de familiares cercanos y solicitar dinero de forma urgente a través de WhatsApp. Conocido como "vishing", este engaño emplea algoritmos de IA para crear audios que imitan el tono y timbre de una persona, logrando así una suplantación casi perfecta que hace difícil detectar el fraude. Un caso reciente expuesto en video muestra cómo, mediante un perfil robado de WhatsApp, un estafador intenta que la víctima transfiera dinero a una cuenta falsa con urgencia, haciéndose pasar por su madre.
La estrategia de los ciberdelincuentes se basa en conseguir fragmentos de voz en redes sociales, videos o llamadas, con solo unos segundos de audio suficiente para generar una réplica convincente. Posteriormente, al robar cuentas de WhatsApp, estos estafadores utilizan la voz clonada para enviar mensajes de texto y audios, creando una situación de emergencia que apela al vínculo familiar para solicitar ayuda económica.
Cómo funciona la clonación de voz con IA
La clonación de voz mediante Inteligencia Artificial utiliza avanzados algoritmos y redes neuronales para crear un modelo sintético de la voz de una persona. Este proceso requiere apenas unos segundos de grabación de audio para replicar con precisión el tono, timbre e inflexiones del hablante, lo que permite generar frases o palabras que la persona nunca dijo. La tecnología detrás de esta técnica evolucionó rápidamente, y los ciberdelincuentes pueden obtener muestras de voz desde redes sociales, plataformas de videos o incluso a través de llamadas telefónicas, con las que logran capturar las particularidades vocales de una potencial víctima.
En el contexto de las estafas, esta tecnología se aplica principalmente en ataques de "vishing" (phishing mediante voz), en los que se usa la voz clonada para engañar a amigos o familiares de la víctima con solicitudes urgentes de ayuda. Al tener acceso a la cuenta de WhatsApp robada de la persona y utilizando audios que imitan su voz, los estafadores logran crear una situación creíble que convence a los contactos cercanos de realizar transferencias bancarias o compartir información personal sensible. La naturalidad y precisión de los audios generados por inteligencia artificial pueden hacer que esta modalidad sea muy efectiva si no se toman las precauciones adecuadas.
Dejá tu comentario