Reino Unido anunció este jueves una alianza con Microsoft, universidades y especialistas para avanzar en el desarrollo de un sistema capaz de identificar deepfakes en internet. La iniciativa forma parte de la estrategia oficial para establecer estándares que permitan enfrentar la proliferación de materiales engañosos y potencialmente dañinos generados por inteligencia artificial (IA).
Reino Unido y Microsoft desarrollarán un sistema para detectar deepfakes
El país europeo se unirá al gigante tecnológico para combatir esta categoría específica de información falsa. Según cifras del gobierno británico, en 2025 se compartieron 8 millones de deepfakes.
-
Windows 11 ya está instalado en 1.000 millones de dispositivos
-
Nvidia, Microsoft y Amazon evalúan invertir u$s60.000 millones en OpenAI
Reino Unido colaborará con Microsoft par a combatir los deepfakes.
Si bien el contenido manipulado circula desde hace años en la web, la expansión de los IA generativos - impulsada tras la irrupción de ChatGPT en 2022 - elevó la preocupación por el alcance y el nivel de realismo que hoy pueden alcanzar los deepfakes.
Reino Unido se unirá a Microsoft para desarrollar un sistema para detectar deepfakes
En ese contexto, el gobierno británico (conducido por el primer ministro Keir Starmer) que recientemente convirtió en delito la creación de imágenes íntimas sin consentimiento— confirmó que trabaja en un marco de evaluación destinado a fijar criterios homogéneos para analizar la eficacia de las herramientas de detección.
"Los deepfakes están siendo utilizados como arma por los delincuentes para defraudar al público, explotar a mujeres y niñas y socavar la confianza en lo que vemos y oímos", afirmó la ministra de Tecnología, Liz Kendall, en un comunicado.
Según detallaron las autoridades, el esquema buscará determinar cómo puede aplicarse la tecnología para evaluar, comprender e identificar material falso perjudicial sin importar su procedencia. Para ello, se someterán distintos sistemas de detección a escenarios reales vinculados con amenazas como el fraude, la suplantación de identidad y el abuso sexual.
Según detallaron, desde el gobierno británico consideran que esta metodología permitirá tanto al Gobierno como a las fuerzas de seguridad detectar brechas todavía existentes en los mecanismos de identificación y, al mismo tiempo, fijar expectativas claras para la industria respecto de los estándares que deberán cumplir estas soluciones.
Las cifras oficiales reflejan la velocidad del fenómeno: durante 2025 se habrían compartido unos 8 millones de ultrafalsos, un salto significativo frente a los 500.000 registrados en 2023.
La avanzada británica se inscribe en un escenario internacional en el que los reguladores intentan adaptarse a la rápida evolución de la IA. Este año, la urgencia se profundizó luego de que se revelara que la IA de Elon Musk, Grok, generaba imágenes sexualizadas no consentidas de personas, incluidos menores.
Qué es un deepfake
Los deepfakes son contenidos de video, imagen o audio alterados mediante software de inteligencia artificial para que aparenten ser originales y auténticos. En la mayoría de los casos, este contenido alterado busca tomar la identidad de alguien y difundir su discurso o video falso.
El concepto surge de la combinación de “fake” (falso) y “deep”, en alusión al deep learning o aprendizaje profundo, una rama del aprendizaje automático que permite a los sistemas analizar grandes volúmenes de datos para replicar patrones con alto nivel de precisión.
Si bien esta tecnología comenzó a desarrollarse hacia fines de la década de 1990, su notoriedad pública llegó en 2017. En los últimos años - desde la aparición de ChatGPT - estas herramientas lograron perfeccionarse y hoy vemos que con inteligencias artificiales más flexibles - como la mencionada Grok - los usuarios tienen al alcance de la mano una herramienta para genera contenido realista sobre figura públicas.
El realismo que alcanzan estos archivos se explica por la sofisticación de los programas que los generan. Estas herramientas buscan imitar el funcionamiento de las redes neuronales y ciertos procesos del cerebro humano, lo que aumenta la probabilidad de que los usuarios perciban el contenido como verídico y caigan en interpretaciones erróneas.
- Temas
- Microsoft
- Reino Unido






Dejá tu comentario