A medida que la Inteligencia Artificial avanza en diferentes direcciones y los navegadores incorporan agentes - capaces de gestionar reservas, compras o distintos trámites online -, también crece la preocupación por los desafíos que esto abre en materia de seguridad. En este contexto, Google salió a detallar cómo planea blindar a los usuarios de Chrome mientras despliega sus nuevas capacidades de agencia.
Google dio detalles de su estrategia de ciberseguridad ante el avance de los agentes inteligencia artificial
El gigante tecnológico ahondó en las medidas tomadas para cuidar a sus usuarios a la hora de desplegar las nuevas capacidades de agente de Chrome. Límites de interacción en las webs y autorización en casos sensibles, alguna de las novedades en materia de seguridad digital.
-
La Inteligencia Artificial de Google que te ayuda a estudiar y a organizar el material en minutos
-
Qué fue lo que más buscaron los argentinos en Google sobre el deporte en 2025
Google dio detalles las medidas que tomará en materia de ciberseguridad ante las nuevas funciones de su agente de Chrome.
Anteriormente, la compañía había presentado un avance de las capacidades de agente en Chrome en septiembre. En ese sentido, las nuevas funciones se implementarán en los próximos meses.
Google implementará nuevas medidas de seguridad para los agentes IA
El centro de la estrategia de Google serán los modelos de observación y consentimiento explícito del usuario. Según explicó la empresa, Chrome utiliza distintos modelos encargados de monitorear y evaluar las acciones sugeridas por el agente.
Uno de ellos es el llamado Crítico de Alineación del Usuario, construido con Gemini, que revisa las acciones generadas por el modelo de planificación. Si detecta que el plan se desvía del objetivo original del usuario, interviene y obliga a replantear la tarea. Para reducir riesgos, este crítico solo accede a metadatos y no al contenido completo del sitio.
A esa capa se suma un sistema de “conjuntos de orígenes”, un mecanismo que acota qué puede leer o escribir el agente dentro de la web. En la práctica, delimita sitios y secciones de páginas donde el modelo puede operar. Por ejemplo, en un e-commerce puede interpretar información útil para completar una compra, pero queda limitado respecto de banners, elementos irrelevantes o iframes sin permisos específicos. Esta separación reduce la superficie de ataque y evita fugas de datos entre distintos orígenes.
La empresa también incorporó otro modelo que inspecciona las URL generadas durante la navegación. Su función es bloquear accesos potencialmente maliciosos antes de que el agente avance.
Google remarcó que, en operaciones sensibles, el control seguirá en manos del usuario. Si la tarea implica ingresar a un sitio con información financiera o médica, Chrome pedirá autorización previa. Lo mismo ocurrirá cuando el agente tenga que usar el gestor de claves o ejecutar acciones concretas como realizar una compra o enviar un mensaje. Además, aseguraron que el modelo no tiene acceso a las contraseñas almacenadas.
A todo esto se suma un clasificador diseñado para detectar intentos de inyección rápida y frenar comandos que puedan derivar en acciones no deseadas. Google aseguró que está probando estas defensas con ataques creados por investigadores para robustecer el sistema antes del lanzamiento definitivo.
El tema no es exclusivo de Chrome: otros desarrolladores también están ajustando sus defensas. A comienzos de este mes, Perplexity presentó un modelo de detección de contenido de código abierto para mitigar ataques basados en inyección rápida, una de las amenazas más frecuentes en agentes con IA.





Dejá tu comentario