23 de diciembre 2025 - 21:40

ChatGPT bajo la lupa: OpenAI reconoce riesgos de ciberataques en su navegador con Inteligencia Artificial

La compañía admitió que las herramientas con agentes autónomos amplían la superficie de exposición digital y que ciertas técnicas de manipulación externa no pueden erradicarse por completo, aun con refuerzos de seguridad.

La firma tecnológica trabaja con simulaciones internas y controles preventivos para reducir el impacto de ataques que aprovechan mensajes ocultos en correos y sitios web.

La firma tecnológica trabaja con simulaciones internas y controles preventivos para reducir el impacto de ataques que aprovechan mensajes ocultos en correos y sitios web.

OpenAI

La compañía señaló que, pese a haber reforzado sus defensas, este tipo de ataques representa un problema estructural de la IA generativa y difícilmente pueda eliminarse por completo. Según OpenAI, el llamado “modo agente” amplía la superficie de riesgo, ya que combina autonomía operativa con acceso a información sensible.

Esa evaluación es compartida por organismos externos. El Centro Nacional de Ciberseguridad del Reino Unido advirtió que estas vulnerabilidades probablemente nunca puedan erradicarse del todo y recomendó concentrar los esfuerzos en reducir el impacto, más que en prometer una protección absoluta.

Defensas activas y riesgos persistentes

Como respuesta, OpenAI explicó que aplica un esquema de defensa dinámica basado en simulaciones internas de ataques. Para ello utiliza un sistema automatizado entrenado para actuar como atacante, que pone a prueba al navegador en entornos controlados y permite detectar fallas antes de que se exploten en situaciones reales.

La empresa reconoció, sin embargo, que no cuenta aún con métricas públicas que demuestren una baja sostenida en ataques exitosos, aunque afirmó que trabaja junto a equipos externos de seguridad desde antes del lanzamiento de Atlas.

Especialistas en ciberseguridad advirtieron que el riesgo en este tipo de herramientas crece cuando se combinan alto nivel de acceso con capacidad de acción autónoma. Por ese motivo, recomiendan limitar permisos, evitar accesos amplios a correos o cuentas sensibles y exigir confirmaciones humanas para operaciones críticas.

Desde OpenAI coincidieron en esa línea y aconsejaron configurar a los agentes con instrucciones específicas, controles previos y validaciones obligatorias, para reducir la posibilidad de manipulación mediante contenidos maliciosos ocultos.

Dejá tu comentario

Te puede interesar