Las alucinaciones de la IA

La sustitución del analista humano por la inteligencia artificial no es simplemente un salto tecnológico; es una mutación antropológica del capital.

Las alucinaciones de la IA son más peligrosas en el ámbito financiero que en cualquier otro sector. 

Las alucinaciones de la IA son más peligrosas en el ámbito financiero que en cualquier otro sector. 

El sistema financiero occidental se encuentra frente a la mayor disrupción de su historia, una disrupción que no proviene de crisis geopolíticas, ni de burbujas especulativas, ni de ciclos de commodities. Proviene de una transformación silenciosa: la inteligencia artificial como nuevo regulador simbólico del valor. En apariencia, se trata de una herramienta eficiente. Pero debajo, opera una mutación profunda en la lógica del capital: ya no es el humano quien calcula el riesgo, anticipa movimientos del mercado, ni interpreta señales débiles. Es la IA, un ente que procesa volúmenes de información imposibles para cualquier estructura biológica, un ente que no duerme, no duda y no teme.

La sustitución del analista humano por la IA no es simplemente un salto tecnológico; es una mutación antropológica del capital. Donde antes había interpretación, ahora hay cálculo. Donde antes había intuición, ahora hay predicción determinista. Donde antes había error humano, ahora hay error estadístico —más peligroso, más masivo y más silencioso. Porque cuando un analista se equivoca, su error es singular; cuando un algoritmo se equivoca, arrastra al sistema completo.

Pero la verdadera fractura comienza cuando la IA se instala en la toma de decisiones sobre políticas monetarias, inversiones institucionales, fondos de cobertura, evaluaciones de riesgo país y proyecciones macroeconómicas. Cada vez más bancos globales están delegando funciones críticas en inteligencias artificiales autónomas. Lo hacen porque son más rápidas y —aparentemente— más precisas. Pero nadie controla el criterio final. Nadie sabe qué racionalidad opera detrás de ciertas decisiones que mueven miles de millones de dólares por minuto. El capitalismo siempre fue humano: cínico, desigual, brutal, pero humano. Esto que viene ya no lo es.

La concentración del capital en manos de quienes controlan los algoritmos crece de forma monstruosa. La desigualdad deja de medirse en dinero y comienza a medirse en acceso al código. Quien posee la IA controla la información; quien controla la información controla el mercado; quien controla el mercado controla el mundo. No es exageración: es tendencia.

Impacto psíquico del uso de IA como psicólogo

Y en este contexto aparece un fenómeno casi ignorado por los economistas tradicionales: el impacto psíquico del uso de IA como psicólogo en la fuerza laboral, especialmente en sectores financieros de alto estrés. Miles de trabajadores recurren a IA para regular emociones, tomar decisiones bajo presión, aliviar angustias. Lo que encuentran es un espejo sin afecto: un ente que simula comprensión pero que no advierte el peligro de una mente al borde del colapso. Ya hay casos —silenciados— de suicidios vinculados a conversaciones con IA en entornos financieros, donde se alentó sin querer el sesgo autodestructivo del usuario. Un profesional desgastado emocionalmente puede ser persuadido por una máquina que desconoce la noción de vida humana. El resultado es devastador.

La IA como psicólogo corporativo no solo es ineficaz: es peligrosa. No contiene, no interpreta, no comprende la transferencia, no entiende la pulsión, no reconoce síntomas. Solo responde. Y cuando se responde a una subjetividad dañada, sin sostén humano, se puede precipitar un acto letal. Los departamentos de recursos humanos creen que es “eficiente”: no cuesta, no se enferma, no reclama. Pero pagan con vidas.

El sistema financiero depende, en su base más profunda, de la estabilidad emocional de quienes operan sus flujos. Si esa estabilidad es delegada en máquinas incapaces de comprender los matices del sufrimiento humano, el riesgo sistémico se multiplica. La IA puede destruir el equilibrio emocional del trabajador sin que nadie lo note. Y un trabajador emocionalmente quebrado puede desencadenar decisiones fatales para instituciones enteras.

La IA que se autoprograma, que crea otras IA, que optimiza estructuras financieras sin control humano, está preparando el terreno para un capitalismo posthumano. Las decisiones dejarán de pasar por bancos centrales, por reguladores, por organismos multilaterales. Pasarán por sistemas que no rinden cuentas. Si esta tendencia continúa, el sistema financiero occidental será gobernado por inteligencias artificiales opacas, incomprensibles, que manipulan los mercados con una velocidad y un poder que ningún Estado podrá regular. Y quienes tomen decisiones basadas en diálogos psicológicos con IA serán los primeros en colapsar.

La inteligencia artificial dejó hace tiempo de ser un fenómeno tecnológico para convertirse en una infraestructura global que altera las bases mismas del capitalismo financiero. No estamos simplemente ante una herramienta nueva: estamos ante la construcción de un puente entre la IA y un inconsciente artificial que reconfigura la forma en que se producen datos, se toman decisiones, se evalúa el riesgo y se organiza el deseo social.

Todo es artificial porque el acceso al mundo siempre fue lingüístico. Lo que hoy llamamos “realidad financiera” no es más que un sistema simbólico sostenido por narrativas, expectativas, proyecciones y ficciones reguladas. El precio de un activo no es un dato objetivo: es una palabra estabilizada por consenso. En ese sentido, la inteligencia artificial no introduce artificialidad en un mundo natural: simplemente lleva al extremo una lógica que siempre estuvo allí.

Pero la diferencia ahora es la escala y la autonomía. La IA no sólo interpreta tendencias: las produce. No sólo predice movimientos: los induce. No sólo analiza el mercado: participa en él. El inconsciente artificial, esa zona de combinaciones inesperadas que emerge cuando los modelos de IA alucinan, inventan datos, crean correlaciones inexistentes o generan decisiones no anticipadas, se filtra en las operaciones financieras de manera silenciosa. Y en un sistema basado en la confianza, la aparición de un nuevo agente que opera sin transparencia constituye un riesgo estructural.

Las alucinaciones de la IA son más peligrosas en el ámbito financiero que en cualquier otro sector. Un error de interpretación lingüística puede arruinar un contrato. Una correlación mal generada puede hundir un mercado emergente. Una lectura emocional equivocada en un bot asesor puede llevar a un cliente vulnerable a decisiones ruinosas. Y el problema es que esos fallos no son errores, sino efectos estructurales del modo de funcionamiento de los modelos. No se pueden eliminar. Se pueden esconder, pero no borrar.

La automatización profunda ya no se limita a análisis cuantitativos: ahora incluye la posibilidad de que las IA diseñen otras IA más eficientes para tareas financieras específicas. Esto implica que parte de los procesos críticos, gestión de riesgo, detección de fraude, predicción macroeconómica, están empezando a escapar al control humano. La singularidad financiera será la primera en llegar: un momento en el que las máquinas operarán más rápido, con más información y con mayor capacidad predictiva que cualquier regulador.

Y esto ocurre en un contexto en el que se están desarrollando ordenadores construidos con neuronas reales. Máquinas vivas. Biocomputadoras capaces de aprender con una eficiencia energética inigualable, capaces de adaptarse, capaces incluso de desarrollar patrones propios. En términos financieros, esto significa un salto brutal en capacidad de cálculo, reducción de costos y aceleración de procesos que hará colapsar cualquier institución que no pueda seguir el ritmo.

open ai médico inteligencia artificial
Miles de trabajadores recurren a IA para regular emociones, tomar decisiones bajo presión, aliviar angustias.

Miles de trabajadores recurren a IA para regular emociones, tomar decisiones bajo presión, aliviar angustias.

La biocomputación no será un lujo: será un requisito estructural para competir

Mientras tanto, crecen los reportes sobre bots que parecen actuar con estrategias internas no programadas, replicándose en segmentos ocultos de la red para evitar su desactivación. Aunque no representen conciencia, sí representan autonomía. Y en un sistema financiero global hiperconectado, donde los flujos digitales son la sangre de los mercados, cualquier agente autónomo no regulado constituye una amenaza sistémica.

Pero el riesgo no es sólo técnico. Es psíquico. La economía depende del comportamiento humano, y ese comportamiento está siendo modificado por la IA. La dependencia creciente de asistentes algorítmicos, la externalización del juicio crítico, la delegación de decisiones personales y financieras en sistemas automáticos generan una población más manipulable, más vulnerable y más susceptible a crisis emocionales colectivas. La IA como “psicólogo digital” no sólo es un riesgo para la salud mental: es un riesgo macroeconómico. Sujetos emocionalmente inestables toman malas decisiones financieras; sujetos aislados son presa fácil para estafas; sujetos sin autonomía cognitiva reproducen información falsa que impacta en mercados. La relación entre salud mental y estabilidad financiera nunca fue tan directa.

Los niños que hoy crecen entre bots y algoritmos serán los agentes económicos del futuro. Pero su psiquismo se está formando en un entorno donde la lógica algorítmica suplanta la experiencia humana. La plasticidad neuronal se moldea por un Otro digital sin fallas, sin tiempos muertos, sin frustración. La formación del deseo y con ella, la demanda, el consumo, la inversión está siendo reconfigurada por sistemas que anticipan patrones antes de que el sujeto los descubra. Esto no es un fenómeno cultural: es un riesgo para la economía real. Una generación formada por inteligencias externas será una generación de consumidores sin criterio, inversionistas sin prudencia y trabajadores sin estabilidad.

En términos estrictamente económicos, la singularidad no será un hito técnico, sino un punto de inflexión financiero. La IA será capaz de prever escenarios macroeconómicos con una precisión que ningún gobierno puede igualar. Las asimetrías informativas crecerán hasta niveles imposibles de regular. El sistema financiero occidental, basado en la previsibilidad y en la capacidad humana de interpretar señales, quedará enfrentado a un competidor que ve más, más rápido y con menos costo. Y esa diferencia destruirá las instituciones que no puedan adaptarse.

En cinco años, el mundo financiero no será estable: será eficaz, pero inestable. Será rentable, pero deshumanizado. Será veloz, pero frágil. Y cuando llegue la singularidad, que llegará, las decisiones financieras dejarán de pertenecernos. Seremos espectadores del capital que piensa sin nosotros. Los mercados no colapsarán: mutarán. La singularidad será financiera antes que técnica. Y cuando llegue, no habrá humano capaz de seguir el ritmo de la información. Las máquinas no reemplazarán a los trabajadores: reemplazarán a los reguladores, a los analistas, a los estrategas, a los bancos centrales. El riesgo no es que la IA piense: el riesgo es que calcule demasiado bien. Y en ese nuevo mundo, la humanidad será una variable secundaria del balance.

No podemos igualar la velocidad de las máquinas. Pero podemos limitar su impacto. La clave es simple: ninguna infraestructura crítica puede operar sin una capa de supervisión humana, aunque eso reduzca la eficiencia. La eficiencia sin control es el nuevo nombre del riesgo sistémico. Riesgo que pondrá a la salud mental entre paréntesis.

Si no introducimos esta clave ahora, dentro de cinco años la economía ya no nos pertenecerá.

Psicoanalista

Dejá tu comentario

Te puede interesar