5 de febrero 2026 - 09:36

Reino Unido y Microsoft desarrollarán un sistema para detectar deepfakes

El país europeo se unirá al gigante tecnológico para combatir esta categoría específica de información falsa. Según cifras del gobierno británico, en 2025 se compartieron 8 millones de deepfakes.

Reino Unido colaborará con Microsoft par a combatir los deepfakes. 

Reino Unido colaborará con Microsoft par a combatir los deepfakes. 

Reino Unido anunció este jueves una alianza con Microsoft, universidades y especialistas para avanzar en el desarrollo de un sistema capaz de identificar deepfakes en internet. La iniciativa forma parte de la estrategia oficial para establecer estándares que permitan enfrentar la proliferación de materiales engañosos y potencialmente dañinos generados por inteligencia artificial (IA).

Si bien el contenido manipulado circula desde hace años en la web, la expansión de los IA generativos - impulsada tras la irrupción de ChatGPT en 2022 - elevó la preocupación por el alcance y el nivel de realismo que hoy pueden alcanzar los deepfakes.

Reino Unido se unirá a Microsoft para desarrollar un sistema para detectar deepfakes

En ese contexto, el gobierno británico (conducido por el primer ministro Keir Starmer) que recientemente convirtió en delito la creación de imágenes íntimas sin consentimiento— confirmó que trabaja en un marco de evaluación destinado a fijar criterios homogéneos para analizar la eficacia de las herramientas de detección.

"Los deepfakes están siendo utilizados como arma por los delincuentes para defraudar al público, explotar a mujeres y niñas y socavar la confianza en lo que vemos y oímos", afirmó la ministra de Tecnología, Liz Kendall, en un comunicado.

deepfakes.jpg
Los deepfakes permiten generar contenido de video, imagen o audio, con un realismo al detalle a pesar de no haber sucedido.

Los deepfakes permiten generar contenido de video, imagen o audio, con un realismo al detalle a pesar de no haber sucedido.

Según detallaron las autoridades, el esquema buscará determinar cómo puede aplicarse la tecnología para evaluar, comprender e identificar material falso perjudicial sin importar su procedencia. Para ello, se someterán distintos sistemas de detección a escenarios reales vinculados con amenazas como el fraude, la suplantación de identidad y el abuso sexual.

Según detallaron, desde el gobierno británico consideran que esta metodología permitirá tanto al Gobierno como a las fuerzas de seguridad detectar brechas todavía existentes en los mecanismos de identificación y, al mismo tiempo, fijar expectativas claras para la industria respecto de los estándares que deberán cumplir estas soluciones.

Las cifras oficiales reflejan la velocidad del fenómeno: durante 2025 se habrían compartido unos 8 millones de ultrafalsos, un salto significativo frente a los 500.000 registrados en 2023.

La avanzada británica se inscribe en un escenario internacional en el que los reguladores intentan adaptarse a la rápida evolución de la IA. Este año, la urgencia se profundizó luego de que se revelara que la IA de Elon Musk, Grok, generaba imágenes sexualizadas no consentidas de personas, incluidos menores.

Qué es un deepfake

Los deepfakes son contenidos de video, imagen o audio alterados mediante software de inteligencia artificial para que aparenten ser originales y auténticos. En la mayoría de los casos, este contenido alterado busca tomar la identidad de alguien y difundir su discurso o video falso.

El concepto surge de la combinación de “fake” (falso) y “deep”, en alusión al deep learning o aprendizaje profundo, una rama del aprendizaje automático que permite a los sistemas analizar grandes volúmenes de datos para replicar patrones con alto nivel de precisión.

Donald Trump Papa.jpg
Trump como Papa: uno de los lados inocuos de esta tecnología.

Trump como Papa: uno de los lados inocuos de esta tecnología.

Si bien esta tecnología comenzó a desarrollarse hacia fines de la década de 1990, su notoriedad pública llegó en 2017. En los últimos años - desde la aparición de ChatGPT - estas herramientas lograron perfeccionarse y hoy vemos que con inteligencias artificiales más flexibles - como la mencionada Grok - los usuarios tienen al alcance de la mano una herramienta para genera contenido realista sobre figura públicas.

El realismo que alcanzan estos archivos se explica por la sofisticación de los programas que los generan. Estas herramientas buscan imitar el funcionamiento de las redes neuronales y ciertos procesos del cerebro humano, lo que aumenta la probabilidad de que los usuarios perciban el contenido como verídico y caigan en interpretaciones erróneas.

Dejá tu comentario

Te puede interesar