11 de febrero 2024 - 21:00

Insólito: una empresa fue víctima de una estafa millonaria con inteligencia artificial

Los estafadores imitaron las voces de los directivos de la compañía para engañar a un empleado para que haga transferencias bancarias.

Insolito método para la estafa.

Insolito método para la estafa.

Un empleado de una empresa multinacional de Hong Kong fue víctima de una estafa millonaria en la que los estafadores usaron un insólito método para engañarlo: usar la inteligencia artificial para hacerse pasar por un directivo de la compañía mediante la imitación de la voz.

Estafa millonaria: la IA robó 25 millones de euros

La víctima recibió un correo electrónico del director financiero (CFO) de la empresa, solicitando una transferencia de una gran suma de dinero y prometiendo una videoconferencia. Siguiendo las instrucciones, el empleado realizó múltiples transferencias a diferentes cuentas, totalizando aproximadamente 25 millones de euros.

hong kong
La estafa fue en una multinacional en Hong Kong.

La estafa fue en una multinacional en Hong Kong.

Tras enviar el dinero, el empleado de la multinacional realizó durante una semana varias videollamadas con el CFO de la compañía. Lo preocupante fue que los directivos de esos encuentros a distancia eran deepfakes, creados con tecnología de inteligencia artificial.

El empleado se dio cuenta del fraude cuando el verdadero jefe financiero lo confrontó sobre las transferencias. Para entonces, ya era tarde; el dinero había sido transferido a los piratas informáticos. La policía confirmó que los estafadores utilizaron videos públicos de los directivos y los alteraron con inteligencia artificial para llevar a cabo la estafa.

Cuál fue la estafa 25 millones de euros con inteligencia artificial

Los deepfakes fueron capaces de generar las frases deseadas por los hackers durante las videollamadas, incluso imitando la voz real de las personas suplantadas gracias a la inteligencia artificial.

inteligencia artificial
Inteligencia artificial.

Inteligencia artificial.

El engaño resultó muy convincente, ya que la víctima no notó nada inusual durante las videoconferencias. Se sabe que los cibercriminales intentaron realizar el mismo ataque con otros dos o tres empleados, pero los resultados de estos intentos no se conocen.

Los deepfakes no son una novedad. Se trata de archivos de vídeo, imagen o voz que han sido alterados mediante software de inteligencia artificial (IA) para parecer reales y auténticos.

Los hackers utilizan estos recursos para llevar a cabo diversos ataques. Un caso reciente que generó repercusión fue el de las supuestas fotos sexuales de Taylor Swift que inundaron X, ex Twitter. Sin embargo, en este caso se descubrió que las imágenes fueron generadas con una aplicación de Microsoft que ya fue solucionada.

Dejá tu comentario

Te puede interesar