Un empleado de una empresa multinacional de Hong Kong fue víctima de una estafa millonaria en la que los estafadores usaron un insólito método para engañarlo: usar la inteligencia artificial para hacerse pasar por un directivo de la compañía mediante la imitación de la voz.
Insólito: una empresa fue víctima de una estafa millonaria con inteligencia artificial
Los estafadores imitaron las voces de los directivos de la compañía para engañar a un empleado para que haga transferencias bancarias.
-
Insólito: el chatbot de una compañía de mensajería se rebeló y tuvieron que desactivarlo
-
Insólito: su jefe le dio "vacaciones pagas" y se fue a Brasil pensando que le pagaban el viaje
Estafa millonaria: la IA robó 25 millones de euros
La víctima recibió un correo electrónico del director financiero (CFO) de la empresa, solicitando una transferencia de una gran suma de dinero y prometiendo una videoconferencia. Siguiendo las instrucciones, el empleado realizó múltiples transferencias a diferentes cuentas, totalizando aproximadamente 25 millones de euros.
Tras enviar el dinero, el empleado de la multinacional realizó durante una semana varias videollamadas con el CFO de la compañía. Lo preocupante fue que los directivos de esos encuentros a distancia eran deepfakes, creados con tecnología de inteligencia artificial.
El empleado se dio cuenta del fraude cuando el verdadero jefe financiero lo confrontó sobre las transferencias. Para entonces, ya era tarde; el dinero había sido transferido a los piratas informáticos. La policía confirmó que los estafadores utilizaron videos públicos de los directivos y los alteraron con inteligencia artificial para llevar a cabo la estafa.
Cuál fue la estafa 25 millones de euros con inteligencia artificial
Los deepfakes fueron capaces de generar las frases deseadas por los hackers durante las videollamadas, incluso imitando la voz real de las personas suplantadas gracias a la inteligencia artificial.
El engaño resultó muy convincente, ya que la víctima no notó nada inusual durante las videoconferencias. Se sabe que los cibercriminales intentaron realizar el mismo ataque con otros dos o tres empleados, pero los resultados de estos intentos no se conocen.
Los deepfakes no son una novedad. Se trata de archivos de vídeo, imagen o voz que han sido alterados mediante software de inteligencia artificial (IA) para parecer reales y auténticos.
Los hackers utilizan estos recursos para llevar a cabo diversos ataques. Un caso reciente que generó repercusión fue el de las supuestas fotos sexuales de Taylor Swift que inundaron X, ex Twitter. Sin embargo, en este caso se descubrió que las imágenes fueron generadas con una aplicación de Microsoft que ya fue solucionada.
- Temas
- estafas
Dejá tu comentario