¿La inteligencia artificial puede reemplazar a la terapia?

La última actualización de uso de gen AI de la Harvard Business Review revela que la IA como terapia y compañía encabeza el ranking de los 100 casos de uso más relevantes.

Modelos híbridos permitirán alternar sesiones de IA con encuentros presenciales o virtuales con profesionales de la salud mental y grupos de soporte.

Modelos híbridos permitirán alternar sesiones de IA con encuentros presenciales o virtuales con profesionales de la salud mental y grupos de soporte.

Estamos en pleno 2025, ha pasado el tiempo suficiente como para entender hacia donde está mutando la adopción de la sociedad respecto del uso de IAs. La inteligencia artificial generativa ha dejado de ser una herramienta estrictamente instrumental para convertirse en un interlocutor emocional.

La última actualización de uso de gen AI de la Harvard Business Review revela que la IA como terapia y compañía encabeza el ranking de los 100 casos de uso más relevantes, desplazando con fuerza a las aplicaciones meramente técnicas. Este cambio de paradigma nos obliga a preguntarnos hasta qué punto estamos dispuestos a delegar en algoritmos nuestra vida interior, y cuáles serán las consecuencias si establecemos relaciones profundas con entidades digitales.

El fenómeno de las “relaciones sintéticas” se apoya en la promesa de empatía instantánea, disponibilidad 24/7 y tarifa asequible. Usuarios de todo el mundo están recurriendo a chatbots y asistentes personalizados no solo para organizar su agenda, sino también para procesar emociones complejas como el duelo o la ansiedad. Un ejemplo paradigmático proviene de Sudáfrica, donde la escasez de profesionales de la salud mental (un psicólogo por cada 100.000 personas) ha llevado a muchos a buscar ayuda en modelos de lenguaje que, aunque no garantiza privacidad absoluta, ofrecen un espacio sin juicio para desahogarse. La urgencia de atención lleva a pasar por alto la línea entre apoyo puntual y dependencia emocional.

Varias innovaciones han alimentado esta tendencia: la aparición de GPTs personalizados y mejoras en modelos de razonamiento que enriquecen las respuestas con explicaciones intermedias. A ello se suman comandos de voz que amplían la interacción mientras conducimos y costes mucho más accesibles que hace solo doce meses. Gracias a estas mejoras, la IA se adentra en terrenos tradicionalmente reservados a la psicología, y los usuarios, maravillados por su capacidad, pueden llegar a preferirla antes que un interlocutor humano.

El viraje desde lo técnico hacia la esfera emotiva se ilustra en el podio de los casos: en primer lugar, la terapia y la compañía; en segundo, la organización de la vida diaria; en tercero, la búsqueda de propósito. Estas tres aspiraciones esenciales de la condición humana —curar heridas internas, ordenar el caos cotidiano y encontrar un sentido— reflejan un deseo de autorrealización que trasciende la eficiencia productiva. Cuando la IA deja de responder solo a instrucciones lógicas y empieza a acariciar nuestros miedos y ambiciones, entramos en un ámbito donde el riesgo y la oportunidad conviven.

En el corto plazo, muchos usuarios experimentan beneficios reales: ganan claridad en sus metas, mejoran hábitos, refuerzan procesos de aprendizaje e incluso reciben apoyo para diseñar itinerarios de viaje o apelar multas legales. Pero estos efectos positivos ocultan un lado oscuro. La dependencia excesiva puede socavar la iniciativa personal al reemplazar la motivación intrínseca por la comodidad de respuestas inmediatas. La IA nos hace más eficientes, pero nos roba la capacidad de enfrentar el vacío creativo y el desafío de la incertidumbre.

La normalización de referentes artificiales de apoyo emocional también puede mermar nuestra resiliencia. Frente a una crisis real -una discusión, un fracaso profesional, un duelo inesperado- la respuesta de una IA siempre estará diseñada para confortarnos, sin provocar el malestar necesario que fomenta la maduración personal. Al suavizar cada conflicto, corremos el peligro de forjar individuos frágiles, carentes de la fortaleza para navegar los altibajos inevitables de la vida humana.

A su vez, la cuestión de la privacidad no deja de ganar relevancia. Muchos usuarios expresan desconfianza ante el uso masivo de sus datos por parte de grandes plataformas. Por un lado, se critica la excesiva recolección de información personal; por otro, se lamenta que los sistemas no guarden memoria suficiente para ofrecer un acompañamiento más coherente. Esta dicotomía pone de relieve la contradicción entre el deseo de intimidad con la IA y el temor a la vigilancia de las Big Tech.

Mirando hacia el futuro, cabe preguntarse cómo estas dinámicas afectarán nuestro comportamiento social y emocional. Si aceptamos que buena parte de nuestras necesidades afectivas sean satisfechas por algoritmos, podríamos asistir a un desplazamiento de la interacción humana presencial hacia burbujas sintéticas. Esto tendría un impacto profundo en la estructura de comunidades y en la salud mental colectiva, modificando normas de convivencia y reduciendo la actividad en espacios de discusión cara a cara. Si cruzamos la baja en las tasas de natalidad global, el desapego emocional de las redes sociales y las ahora complacientes parejas virtuales, tenemos la receta perfecta para un nuevo capítulo distópico de tu serie de ciencia ficción favorita.

Para mitigar estos riesgos es imprescindible establecer salvaguardas de diseño. Una opción consiste en educar respecto de las limitaciones de los modelos e introducir límites de tiempo en las sesiones de IA, de modo que el usuario reciba alertas al superar un umbral configurado. Debemos incorporar recordatorios claros sobre la naturaleza artificial del interlocutor, reforzando la conciencia de que se trata de un simulacro y no de un vínculo humano auténtico. Asimismo, es vital desarrollar programas educativos que incluyan formación en discernimiento digital y gestión emocional en un entorno mediado por IA.

Además, resulta aconsejable combinar el uso de agentes automáticos con espacios de apoyo humano. Modelos híbridos permitirán alternar sesiones de IA con encuentros presenciales o virtuales con profesionales de la salud mental y grupos de soporte. De este modo, se mantiene la accesibilidad y disponibilidad de la tecnología sin renunciar a la riqueza del diálogo humano, garantizando una supervisión experta que detecte señales de dependencia excesiva.

Finalmente, la creación de marcos regulatorios y estándares éticos será esencial. Gobiernos y organizaciones internacionales deben colaborar para definir políticas de transparencia en el uso de datos, protocolos de seguridad y requisitos de consentimiento informado. La industria tecnológica, por su parte, debe comprometerse con auditorías independientes y certificaciones que garanticen prácticas responsables en el desarrollo de sistemas de acompañamiento emocional.

El verdadero reto consiste en encontrar el equilibrio entre el potencial transformador de la IA y la necesidad insustituible de contacto humano. Solo así podremos aprovechar la comodidad y el alcance de un tutor virtual sin renunciar a nuestra esencia: el encuentro con el otro, con sus defectos y virtudes, lo impredecible y lo imperfecto, que finalmente nos construye como seres humanos completos.

CEO de Varegos y docente universitario y secundario especializado en IA.

Dejá tu comentario

Te puede interesar