ver más

Ya superaste el límite de notas leídas.

Registrate gratis para seguir leyendo

2 de noviembre 2024 - 07:30

Estafas por WhatsApp: clonan la voz de familiares con Inteligencia Artificial para robar dinero

El "vishing" se está volviendo cada vez más sofisticado y peligroso. Conocé cómo funcionan estas estafas y cómo actuar para no caer en la trampa.

ver más

La clonación de voz a través de inteligencia artificial permite a los estafadores suplantar la identidad de seres queridos, haciendo que las solicitudes de ayuda económica parezcan auténticas.

Gentileza: Valora Analitik

En redes sociales se viralizó un alarmante método de estafa que utiliza Inteligencia Artificial para clonar la voz de familiares cercanos y solicitar dinero de forma urgente a través de WhatsApp. Conocido como "vishing", este engaño emplea algoritmos de IA para crear audios que imitan el tono y timbre de una persona, logrando así una suplantación casi perfecta que hace difícil detectar el fraude. Un caso reciente expuesto en video muestra cómo, mediante un perfil robado de WhatsApp, un estafador intenta que la víctima transfiera dinero a una cuenta falsa con urgencia, haciéndose pasar por su madre.

El contenido al que quiere acceder es exclusivo para suscriptores.

La estrategia de los ciberdelincuentes se basa en conseguir fragmentos de voz en redes sociales, videos o llamadas, con solo unos segundos de audio suficiente para generar una réplica convincente. Posteriormente, al robar cuentas de WhatsApp, estos estafadores utilizan la voz clonada para enviar mensajes de texto y audios, creando una situación de emergencia que apela al vínculo familiar para solicitar ayuda económica.

lupa whatsapp.jpg

Cómo funciona la clonación de voz con IA

La clonación de voz mediante Inteligencia Artificial utiliza avanzados algoritmos y redes neuronales para crear un modelo sintético de la voz de una persona. Este proceso requiere apenas unos segundos de grabación de audio para replicar con precisión el tono, timbre e inflexiones del hablante, lo que permite generar frases o palabras que la persona nunca dijo. La tecnología detrás de esta técnica evolucionó rápidamente, y los ciberdelincuentes pueden obtener muestras de voz desde redes sociales, plataformas de videos o incluso a través de llamadas telefónicas, con las que logran capturar las particularidades vocales de una potencial víctima.

En el contexto de las estafas, esta tecnología se aplica principalmente en ataques de "vishing" (phishing mediante voz), en los que se usa la voz clonada para engañar a amigos o familiares de la víctima con solicitudes urgentes de ayuda. Al tener acceso a la cuenta de WhatsApp robada de la persona y utilizando audios que imitan su voz, los estafadores logran crear una situación creíble que convence a los contactos cercanos de realizar transferencias bancarias o compartir información personal sensible. La naturalidad y precisión de los audios generados por inteligencia artificial pueden hacer que esta modalidad sea muy efectiva si no se toman las precauciones adecuadas.

whatsapp

Medidas de protección contra el vishing y el robo de cuentas:

Últimas noticias

Dejá tu comentario

Te puede interesar

Otras noticias