En el 2025 la inteligencia artificial (IA) explotó en uso masivo, mientras la comprensión real de su mecanismo siguió siendo sorprendentemente baja.
La Inteligencia Artificial no piensa, predice: lo que dejó el 2025 y el debate por la ley que se viene
A la IA no se la puede regular como si fuera un actor consciente, cuando no es más que un sistema estocástico de respuesta probabilísticas.
-
J.P. Morgan define el nuevo orden económico: IA, fragmentación e inflación recalibran el mapa global
-
Chau comercio electrónico tradicional: cómo la IA está tomando el control de las compras online
Tal vez el verdadero desafío de 2026 no sea sancionar una gran ley de IA. Tal vez sea algo más profundo: evitar que el derecho legisle sobre la sombra en vez de regular el mecanismo.
El usuario común usa los modelos generativos todos los días como si fueran sujetos racionales, cuando en realidad son sistemas probabilísticos que predicen la siguiente palabra con base en tokens, contexto y ajustes finos de algoritmos.
La gente les atribuye intención, razonamiento e incluso moralidad. Es la paradoja de la falta de información en la era de la infoxicación. Nadie va a lo profundo o muy pocos. Cuanto más invisible se vuelve la tecnología, más humana parece.
El problema es que sobre esa ilusión se construyen políticas públicas y discusiones jurídicas que no dialogan con el mecanismo real, sino a través de narrativas bien diseñadas por actores ocultos.
La ilusión antropomórfica o el truco del mago
Vamos a ser claros: ChatGPT no piensa tu respuesta. Calcula la siguiente palabra más probable según 175 mil millones de parámetros entrenados sobre billones de tokens. No razona: optimiza. No decide: estima. No sabe: aproxima. Todo su funcionamiento se reduce a distribuciones de probabilidad condicionadas al contexto que recibe. Y el avance es tal, que los modelos actuales son cada vez más proactivos -predictivos- del usuario por el solo hecho de conocer su contexto de uso.
Pero la realidad, es que cuando le preguntas algo, el modelo no "entiende" la pregunta. Tokeniza tu input, procesa relaciones estadísticas entre fragmentos de texto, y devuelve la secuencia de palabras más probable según los patrones que absorbió durante el entrenamiento. No hay comprensión semántica. No hay intencionalidad. Hay matemática aplicada a escala industrial.
Este malentendido no es trivial. Es estructural. Y condiciona todo: si partimos de premisas erradas, llegaremos a conclusiones erradas, desde cómo se legisla hasta cómo se litiga.
El año de la ilusión regulatoria
Mientras el usuario cree que conversa con "una inteligencia", los Estados descubrieron que dependen de cadenas de suministro “críticas” que necesitan controlar para ganar la nueva carrera geopolítica.
Europa investiga si Huawei puede apagar redes 5G en remoto. Reino Unido se pregunta si China puede desactivar buses eléctricos desde Shenzhen. Estados Unidos rescata a Intel de la quiebra con miles de millones de dólares, para no depender exclusivamente de NVIDIA en chips de IA.
El patrón es claro: el ciudadano usa la IA como un ente racional, y solo algunos gobiernos se encuentran disputando el mapa del control real, debajo de la espuma. Y ahí aparece una fisura que atraviesa a la gran mayoría: ¿cómo regular una herramienta cuyo soporte material no controlamos? Estados Unidos y China ya advirtieron esta guerra por la hegemonía de la IA y se disputan una nueva carrera geopolítica.
La implicancia de la confusión de conceptos -IA generativa, los agentes, los chatbot, los modelos multimodales, la MLL, se confunden en una misma bolsa- conlleva el riesgo de legislar la interfaz sin entender la infraestructura, entonces lo único que se regula es la ilusión que nos devuelve la pantalla.
Durante el año, hemos visto como la regulación global siguió atrapada en debates que pertenecen a otra década. Bruselas investigó a Google por su forma de ordenar contenidos comerciales; EEUU volvió a discutir si ese buscador es monopolio; y reaparecieron las viejas peleas por la comisión del 30% de las tiendas de apps, como si el futuro todavía pasara por un ícono en la pantalla.
La velocidad del cambio es tal, que el contraste es brutal: mientras el regulador ajusta la ubicación de un enlace, el usuario ya dejó de buscar enlaces. Formula una pregunta directa a un modelo generativo, cuya lógica interna ni el legislador ni el juez pueden auditar en serio, pues los datasets, denominados cajas negras, no tienen legislación ni frontera.
La paradoja la vimos cuando los reguladores de vanguardia a nivel mundial, finalmente reaccionaron con contradicciones reveladoras. En noviembre, la Unión Europea suavizó partes clave del AI Act (primera ley de IA en el mundo) tras la presión de Washington y los gigantes tecnológicos. Estados Unidos, por su parte, propuso concentrar la regulación de IA en manos federales para evitar 50 marcos estatales distintos, sin avanzar todavía en un marco global. El argumento: "competir con China".
La realidad: ninguno de los dos bloques quiere quedarse afuera de la exponencial innovación que promete controla los sistemas financieros, militares y económicos de occidente, moldeando la narrativa mundial a través de la IA -E.E.U.U. – o el control de sus ciudadanos -CHINA-.
Es decir, a la IA no se la puede regular como si fuera un actor consciente, cuando no es más que un sistema estocástico de respuesta probabilísticas, cuyo poder real está concentrado en cinco o seis corporaciones mundiales, hoy aliados con las principales potencias del mundo.
Argentina: regular la IA en las sombras
En octubre se presentó la "Hoja de Ruta para la adopción eficaz de IA en Argentina" por parte de la Comisión de Ciencia, Tecnología e Innovación de la Honorable Cámara de Diputados de la Nación. El documento reconoce la importancia estratégica de la IA, su impacto económico y la necesidad de evitar regulaciones que frenen la innovación. Todo parece razonable. Pero también exhibe lo que falta: una descripción clara del mecanismo que se pretende normar.
La IA aparece definida como un concepto tan amplio -energía, big data, robótica, IoT, machine learning, todo junto- que termina por confirmar el problema central: hablamos de IA mezclando conceptos y sin entender bien cómo funciona. Se insiste en que no debe frenarse la innovación, pero no se formula la pregunta básica: ¿qué debemos regular exactamente?
Si la IA produce estimaciones, no razones, entonces la responsabilidad humana no es un capricho ético: es la única conclusión técnica posible. Sin comprender esa diferencia, cualquier marco normativo corre el riesgo de legislar metáforas.
El documento argentino acierta cuando propone intervenir en aspectos concretos: actualizar la ley de datos personales, tipificar delitos vinculados a material sintético, definir reglas para deepfakes y usos nocivos. Esa regulación quirúrgica es el camino. Lo que sigue pendiente es algo más elemental: Argentina no puede regular una herramienta que la mayoría de quienes la votarán no sabe cómo funciona.
La economía del criterio
En un mundo donde parece que la IA viene a resolver problemas en piloto automático, nos olvidamos -o no sabemos -que la no tiene ética, moral, ni proyecto de vida. Amplifica lo que recibe. Si le das criterio, expande criterio. Si le das vacío, replica vacío. Esa es su naturaleza: no es un oráculo, es un espejo estocástico.
El riesgo no está en la máquina. Como señaló el investigador Dwarkesh Patel a mediados de este año: aunque los modelos son cada vez más potentes, la ganancia no es exponencial por sí misma, sino que depende del uso humano del sistema. Y eso, lejos de ser una limitación técnica menor, redefine completamente el problema: sin criterio humano, la IA no evoluciona. Está en quien delega el pensar sin comprender el mecanismo. Abogados que copian respuestas sin verificar premisas. Jueces que asumen que una salida probabilística equivale a un razonamiento jurídico. Legisladores que sancionan normas sobre fenómenos que no pueden describir ni entienden con precisión técnica.
El desafío de 2026
Tal vez el verdadero desafío de 2026 no sea sancionar una gran ley de IA. Tal vez sea algo más profundo: evitar que el derecho legisle sobre la sombra en vez de regular el mecanismo.
Mientras no entendamos qué es la IA vamos a regular sus efectos sin tocar su naturaleza. Y sin criterio humano, cualquier regulación es apenas una red lanzada al viento. El desafío no es domesticarla. Es no confundir predicción con pensamiento, y no delegar el criterio a un sistema que no lo tiene.





Dejá tu comentario