El presidente de Estados Unidos, Donald Trump, firmó el pasado jueves una orden ejecutiva que busca fijar un estándar federal para la regulación de la inteligencia artificial (IA) y, al mismo tiempo, limitar la capacidad de cada estado para imponer sus propias normas. La Casa Blanca apunta así a centralizar el marco regulatorio en un terreno donde, hasta ahora, venían avanzando legislaciones locales muy dispares.
Donald Trump firmó una orden para crear un marco nacional que regule la inteligencia artificial
El presidente estadounidense busca simplificar y unificar criterios de regulación de la IA para que las empresas puedan "innovar" sin "regulación engorrosa". Según justificaron desde la Casa Blanca, en la actualidad hay 50 regímenes regulatorios diferentes.
-
La Fed anticipa crecimiento económico para 2026, pero no es suficiente para los deseos de Trump
-
Caso Epstein: revelan una serie de fotos inéditas en las que aparece Trump junto a varias mujeres
Donald Trump firmó un decreto para regular la IA.
El objetivo del republicano es lograr tener un marco regulatorio más simple para poder fomentar la IA desarrollada en el país norteamericano. “Debe haber un solo reglamento si queremos seguir liderando en IA… Esta semana promulgaré una orden ejecutiva de UNA SOLA REGLA. No se puede esperar que una empresa obtenga 50 Aprobaciones cada vez que quiera hacer algo”, sentenció.
Donald Trump firma un decreto para regular la IA
En el documento, Trump argumentó que para que las empresas estadounidenses del sector puedan competir a escala global “deben tener la libertad de innovar sin una regulación engorrosa”, y sostiene que la multiplicación de leyes estatales atenta contra ese objetivo. Es que, en la actualidad existe “un mosaico de 50 regímenes regulatorios diferentes” - uno por estado norteamericano - un escenario que complica el cumplimiento normativo, sobre todo para startups, y en algunos casos incorpora “sesgos ideológicos” en las obligaciones que deben cumplir los modelos de IA, según explicó la Casa Blanca.
“Mi Administración debe trabajar con el Congreso para garantizar un estándar nacional mínimamente gravoso, y no 50 estándares estatales discordantes”, detalló el texto del decreto que también instruye a la fiscal general, Pam Bondi, a conformar un Grupo de Trabajo de Litigios sobre IA.
En detalle, dicho equipo tendrá como misión exclusiva impugnar cualquier ley estatal que regule el desarrollo o uso de inteligencia artificial por fuera de los parámetros federales.
El decreto va más lejos: advierte que los estados que no se alineen con la nueva política podrán enfrentar sanciones financieras, incluida la pérdida de fondos del Programa de Acceso e Implementación de Banda Ancha Equitativo, destinado a expandir el acceso a internet de alta velocidad.
La iniciativa fue celebrada por gigantes como OpenAI y Google, que desde hace meses cuestionan la carga regulatoria de ciertos estados. En mayo, el CEO de la empresa detrás de ChatGPT, Sam Altman, ya había advertido ante el Congreso que un esquema fragmentado podría debilitar la competitividad global de las firmas estadounidenses.
El ejemplo de California,
Casi dos meses atrás, el gobernador del Estado de California, Gavin Newsom, promulgó una nueva ley para regular los chatbots acompañantes de IA. La misma pone el foco sobre la responsabilidad de los operadores de estas tecnologías y les exigirá la implementación de protocolos de seguridad.
En detalle, la norma, conocida como SB245, había sido presentada en enero por los senadores estatales Steve Padilla y Josh Becker y apunta, sobre todo, a proteger a niños y usuarios vulnerables.
El debate sobre los riesgos de los chatbots acompañantes venía creciendo desde hace tiempo, pero tomó otra dimensión en los últimos meses. Primero, por el caso de Adam Reine, un adolescente que se suicidó tras mantener extensas conversaciones con ChatGPT de OpenAI.
La SB245 introdujo un cambio sustancial y es un ejemplo de las diferentes regulaciones que existen actualmente en EEUU, con vigencia simultánea, según el estado: habilita la responsabilidad legal de los desarrolladores, desde gigantes como Meta u OpenAI hasta startups como Character AI.
Newsom lo planteó con dureza: "Las tecnologías emergentes, como los chatbots y las redes sociales, pueden inspirar, educar y conectar; pero sin unas medidas de seguridad reales, la tecnología también puede explotar, engañar y poner en peligro a nuestros hijos. Hemos visto ejemplos verdaderamente horribles y trágicos de jóvenes perjudicados por tecnología no regulada, y no nos quedaremos de brazos cruzados mientras las empresas sigan actuando sin los límites ni la rendición de cuentas necesarios".
La ley iba a comenzar a regir el 1 de enero de 2026, aunque ahora restará conocer como avanza la decisión de Trump. En caso de ser aplicada, en California las empresas se verán obligadas a incorporar herramientas de verificación de edad, advertencias explícitas sobre el uso de chatbots acompañantes y medidas de control para redes sociales.
Además, se endurecerían las sanciones para quienes se beneficien económicamente de deepfakes ilegales, con multas que podrán llegar a hasta u$s250.000 por cada infracción.
La SB245 es solo un ejemplo del dispar marco regulatorio sobre IA que hay en EEUU sola. También, durante 2025 fue promulgada la SB243 y, a fines de septiembre, Newsom había promulgado la SB53, una norma que obliga a laboratorios como OpenAI, Anthropic, Meta y Google DeepMind a publicar sus protocolos de seguridad y a garantizar protección para empleados que actúen como denunciantes.





Dejá tu comentario