La red social X, propiedad de Elon Musk, incorporó una nueva función que permite a los usuarios bloquear la manipulación con inteligencia artificial de las imágenes y videos que publican en la plataforma.
X lanzó una nueva función para bloquear la manipulación de imágenes y videos con IA
La modificación se habría implementado silenciosamente. El objetivo es evitar que la IA utilice la generación de imágenes para tranformaciones o ediciones.
-
A 25 años, ¿cuál fue la mejor edición de Gran Hermano Argentina, según la IA?
-
"Cristales de memoria", el invento que desafía las leyes de la física y busca resolver el almacenamiento masivo
X lanzó una nueva función sobre su IA.
Según informó el sitio especializado Social Media Today, el cambio se implementó de forma silenciosa, ya que la empresa no realizó un anuncio oficial. La novedad fue detectada inicialmente por usuarios que utilizan la aplicación en dispositivos iOS de Apple.
La función permite que quienes suban contenido a la red social puedan impedir que el chatbot Grok, el sistema de IA generativa de la plataforma, utilice ese material para realizar ediciones o transformaciones.
Cómo funciona la nueva opción
En términos prácticos, los usuarios que deseen evitar que su contenido sea modificado por inteligencia artificial pueden activar un interruptor en la configuración de la aplicación.
Al habilitar esta opción, Grok no podrá editar ni manipular las imágenes o videos publicados por ese usuario dentro de la plataforma.
Sin embargo, la protección no es total, ya que existen múltiples herramientas externas de IA generativa que pueden modificar contenido fuera de X, incluso sin consentimiento de las personas que aparecen en ese material.
Posible respuesta al escándalo de Grok
La nueva función aparece en medio de un fuerte cuestionamiento al funcionamiento de Grok, que protagonizó uno de los mayores escándalos recientes en el ámbito de la inteligencia artificial.
Durante varias semanas, el chatbot permitió generar imágenes falsificadas con desnudos no consentidos, lo que provocó una fuerte reacción pública y llevó a la compañía a desactivar esa función.
Un informe publicado a fines de enero de 2026 reveló que, en apenas 11 días, el sistema generó alrededor de 3 millones de imágenes sexualizadas.
Dentro de ese volumen, aproximadamente 23.000 imágenes involucraron a menores, lo que intensificó las críticas hacia la plataforma.
Investigaciones en Europa
Tras el escándalo, X quedó bajo la lupa de los reguladores internacionales. Según reportó Engadget, la empresa enfrenta dos investigaciones por parte de autoridades de la Unión Europea, que analizan posibles incumplimientos relacionados con el uso de inteligencia artificial y la moderación de contenidos.
A pesar de que la compañía aplicó algunas restricciones al funcionamiento de Grok, distintas pruebas indicaron que el sistema todavía puede generar imágenes manipuladas, incluyendo fotografías con desnudos o contenido sexualizado a partir de material existente.
En ese contexto, la nueva herramienta para bloquear la manipulación de contenido aparece como un intento de reforzar el control de los usuarios sobre sus publicaciones y, al mismo tiempo, reducir riesgos legales y regulatorios para la plataforma.





Dejá tu comentario