En muchas películas, vemos cómo los protagonistas principales utilizan la verificación por voz como máxima capa de seguridad ante el acceso de un objeto preciado. Siempre apareció como una tecnología futurista y algo prácticamente imposible de conseguir ya que la voz siempre fue algo personal e irrepetible como una huella digital.
La última línea de defensa: nuevos riesgos frente al auge del fraude por IA
Con el avance de la inteligencia artificial, aumentan los intentos de fraude digital, obligando a empresas y usuarios a reforzar sus estrategias de prevención y seguridad.
-
La Fed minimizó el impacto de la IA en el mercado laboral
-
Según la Inteligencia Artificial, estos 5 libros de ciencia ficción describen el mundo actual
La IA, en el centro de la escena
Hoy, esas escenas serían fáciles de resolver. Solo se necesitarían unos segundos de audio, obtenidos de una entrevista, una videollamada o un mensaje de voz, para entrenar un modelo de inteligencia artificial que replique timbre, entonación y hasta las pausas características de cualquier persona.
Tampoco se trata solo de espionaje de película. Hasta hace poco, cuando uno llamaba a un banco o a una línea de atención premium, había que pasar por una serie de pasos: esperar, hablar con un agente, confirmar datos. Ahora, como muestra un caso reciente de PolyAI, ya ni siquiera hay conversaciones reales ni largos tiempos de espera. Los asistentes virtuales con IA responden en segundos, entonan frases con aparente naturalidad e incluso manejan interrupciones. El problema es que estas mismas capacidades pueden ser utilizadas para suplantar identidades.
La última línea de defensa: nuevos riesgos frente al auge del fraude por IA
Sam Altman, CEO de OpenAI, advirtió que la autenticación por voz, muy popular entre clientes de alto patrimonio desde hace más de una década, está quedando obsoleta. En bancos de todo el mundo, este mecanismo permite a los usuarios acceder a cuentas pronunciando una frase específica. El sistema valida timbre, cadencia y tono, y confía en que la voz es un identificador único. No obstante, la clonación de voz mediante IA con apenas unos segundos de audio puede generar una réplica prácticamente indistinguible.
El riesgo es real. En 2017, la BBC puso a prueba el sistema de reconocimiento de voz del banco HSBC usando a dos hermanos mellizos. El resultado fue que las voces eran naturalmente parecidas, y el sistema fue engañado. Hoy, con IA generativa, cualquier grabación de baja calidad es suficiente para construir un modelo de voz convincente.
Ethan Mollick, académico experto en IA de la Universidad de Pensilvania, mostró en su blog One Useful Thing hasta qué punto esta tecnología ya es peligrosa. Sus pruebas revelan tres puntos: la capacidad de imitar emociones; la respuesta en tiempo real, que hace que la interacción fluya como en una conversación humana genuina; y la accesibilidad porque estas herramientas ya no están confinadas a laboratorios o empresas de seguridad.
En este nuevo escenario, las empresas no pueden depender de una sola medida de seguridad. Ya no alcanza con “algo que sos” (como la voz o la huella) o “algo que sabés” (como una contraseña). Hace falta una estrategia integral que combine múltiples factores de autenticación, monitoreo continuo de actividad y detección de anomalías en tiempo real.
Por eso, para las empresas es importante contar con un Chief Information Security Officer (CISO). Este profesional diseña estrategias para anticipar amenazas, diseñar defensas y educar a toda la organización sobre cómo protegerse en un entorno que cuenta con estos riesgos. Este tipo de protección es un activo estratégico para la reputación de las empresas. Un fraude exitoso puede traducirse en grandes pérdidas financieras, pero sobre todo en una erosión de la confianza con clientes que tarda mucho tiempo en recuperarse. Cada falla de seguridad tiene un precio doble: el daño reputacional y la frustración de usuarios que sienten vulnerada su información más personal.
En este contexto, además del CISO, surge con fuerza el rol del Head of Fraud, responsable de anticipar y detectar intentos de suplantación antes de que impacten en el negocio. Mientras el CISO diseña la estrategia integral de ciberseguridad, el Head of Fraud se enfoca en blindar procesos críticos, especialmente aquellos que involucran a clientes de alto valor o transacciones sensibles. Ambos roles, trabajando de manera coordinada, protegen no solo los activos de la compañía, sino también la confianza y la experiencia de quienes la eligen.
La clonación de voz, con todo su potencial disruptivo, es solamente la punta del iceberg. Detrás de este caso, los fraudes siguen evolucionando a la par de la tecnología y pueden adoptar formas cada vez más sofisticadas, como deepfakes y accesos no autorizados mediante vulnerabilidades digitales. La velocidad con la que estas amenazas se desarrollan exige una respuesta igual de ágil y compleja.
Por eso, el rol del CISO y del Head of Fraud no pueden entenderse como una reacción aislada frente a un tipo de fraude puntual, sino como una respuesta estructural a un nuevo paradigma de riesgo permanente. Su labor conjunta es esencial para construir organizaciones resilientes, capaces de anticiparse, adaptarse y defenderse frente a amenazas que no solo buscan comprometer sistemas, sino también erosionar lo más importante: la confianza de sus usuarios.
- Temas
- Inteligencia Artificial
Dejá tu comentario