Estafas con inteligencia artificial: especialistas alertan ante un nuevo método

La Inteligencia Artificial parece ser una herramienta que se está usando cada vez más en diferentes rubros, y los estafadores no se quedaron atrás.

Estafas.

Estafas.

La ciberdelincuencia es conocida por reinventarse constantemente y descubrir nuevos métodos para continuar realizando estafas. Recientemente, especialistas descubrieron una nueva modalidad donde las víctimas perjudicadas terminan perdiendo todos sus ahorros.

En el marco de las nuevas tecnologías, la Inteligencia Artificial (IA) como el ChatGPT, parece ser una herramienta que se está usando cada vez más en diferentes rubros, y los estafadores no se quedaron atrás. Si bien la suplantación de identidad haciéndose pasar por un familiar o amigo es muy común en el mundo de los engaños, ahora la técnica se sofisticó con el avance del esta tecnología.

Ciberdelito con IA: cómo funciona esta nueva modalidad

En esta ocasión se usa una IA para replicar la voz de las personas. Los delincuentes se hacen pasar por un "conocido" que pide con un tono desesperado y alarmante un pago urgente en criptomonedas o tarjetas de regalo para luego evitar ser identificados por sus víctimas.

La Inteligencia Artificial que utilizan los hackers tiene la función de recrear los tonos de voz de una persona. En ese sentido los ciberdelincuentes toman un fragmento de voz de cualquier video que está publicado en redes sociales y el software termina de estudiar el audio enviado.

Cómo cuidarse de estafas virtuales

El Banco Central de la República Argentina (BCRA) tiene una serie de recomendaciones para evitar estafas virtuales:

  • Activá la autenticidad de dos factores en cuentas de redes sociales y WhatsApp o las plataformas digitales que utilices.
  • No brindes ningún dato personal (usuarios, claves, contraseñas, etc)
  • Leé cada correo electrónico recibido con cuidado.
  • Tené cuidado con los enlaces sospechosos y asegurate siempre de estar en la página legítima antes de ingresar información de inicio de sesión.
  • Siempre hay que tomarse un minuto antes de actuar. Quienes realizan este tipo de estafas apelan a las emociones, descuidos y urgencias.

Por otro lado cabe destacar que si bien los audios generados por la Inteligencia Artificial son bastante precisos, las personas contamos con la ventaja de conocer muy bien a la supuesta persona a la que se imita. En ese sentido uno puede identificar ciertas rasgos del habla que no corresponden con nuestro familiar o conocido.

Dejá tu comentario

Te puede interesar