En redes sociales se viralizó un alarmante método de estafa que utiliza Inteligencia Artificial para clonar la voz de familiares cercanos y solicitar dinero de forma urgente a través de WhatsApp. Conocido como "vishing", este engaño emplea algoritmos de IA para crear audios que imitan el tono y timbre de una persona, logrando así una suplantación casi perfecta que hace difícil detectar el fraude. Un caso reciente expuesto en video muestra cómo, mediante un perfil robado de WhatsApp, un estafador intenta que la víctima transfiera dinero a una cuenta falsa con urgencia, haciéndose pasar por su madre.
Estafas por WhatsApp: clonan la voz de familiares con Inteligencia Artificial para robar dinero
El "vishing" se está volviendo cada vez más sofisticado y peligroso. Conocé cómo funcionan estas estafas y cómo actuar para no caer en la trampa.
-
Whatsapp presentó su última novedad y ahora se podrán convertir mensajes de voz en texto
-
La forma más simple para activar la función para transcribir los audios en WhatsApp
La estrategia de los ciberdelincuentes se basa en conseguir fragmentos de voz en redes sociales, videos o llamadas, con solo unos segundos de audio suficiente para generar una réplica convincente. Posteriormente, al robar cuentas de WhatsApp, estos estafadores utilizan la voz clonada para enviar mensajes de texto y audios, creando una situación de emergencia que apela al vínculo familiar para solicitar ayuda económica.
Cómo funciona la clonación de voz con IA
La clonación de voz mediante Inteligencia Artificial utiliza avanzados algoritmos y redes neuronales para crear un modelo sintético de la voz de una persona. Este proceso requiere apenas unos segundos de grabación de audio para replicar con precisión el tono, timbre e inflexiones del hablante, lo que permite generar frases o palabras que la persona nunca dijo. La tecnología detrás de esta técnica evolucionó rápidamente, y los ciberdelincuentes pueden obtener muestras de voz desde redes sociales, plataformas de videos o incluso a través de llamadas telefónicas, con las que logran capturar las particularidades vocales de una potencial víctima.
En el contexto de las estafas, esta tecnología se aplica principalmente en ataques de "vishing" (phishing mediante voz), en los que se usa la voz clonada para engañar a amigos o familiares de la víctima con solicitudes urgentes de ayuda. Al tener acceso a la cuenta de WhatsApp robada de la persona y utilizando audios que imitan su voz, los estafadores logran crear una situación creíble que convence a los contactos cercanos de realizar transferencias bancarias o compartir información personal sensible. La naturalidad y precisión de los audios generados por inteligencia artificial pueden hacer que esta modalidad sea muy efectiva si no se toman las precauciones adecuadas.
Medidas de protección contra el vishing y el robo de cuentas:
- Limitar el uso de grabaciones de voz en redes sociales: Cuanto menos contenido de voz haya disponible en plataformas públicas, más difícil será para los delincuentes clonar la voz.
- Establecer palabras clave familiares para verificar la identidad: Crear preguntas de validación personal, como “¿cuál es el plato preferido de la abuela?”, puede ayudar a confirmar la autenticidad de la persona en situaciones sospechosas.
- No compartir códigos de verificación de WhatsApp: WhatsApp nunca solicita este tipo de códigos por mensaje. Si se recibe un pedido de código de verificación, es muy probable que se trate de un intento de estafa.
- Configurar autenticación en dos pasos en WhatsApp: Activar esta función añade una capa extra de seguridad, haciendo más difícil que alguien acceda a la cuenta sin permiso.
- Mantener dispositivos y aplicaciones actualizados: Las actualizaciones de software y de seguridad en los dispositivos ayudan a corregir vulnerabilidades que los delincuentes podrían aprovechar.
- Utilizar contraseñas seguras y únicas: Una contraseña robusta disminuye el riesgo de que se adivine o se crackee fácilmente, lo que protege la cuenta de WhatsApp y otros servicios.
- Desconfiar de solicitudes de dinero urgentes: Ante mensajes que piden transferencias inmediatas, lo mejor es verificar por otros medios la autenticidad de la situación antes de realizar cualquier acción.
Dejá tu comentario