El avance de la inteligencia artificial ha transformado la forma en que las personas buscan información, resuelven problemas e incluso gestionan sus emociones. En ese contexto, herramientas como ChatGPT se han convertido en parte del día a día de millones de usuarios en todo el mundo. Más allá de funcionar como asistentes para tareas prácticas, cada vez más personas recurren a estas plataformas para conversar, reflexionar o desahogarse ante situaciones personales complejas.
Puede salvar vidas: la nueva función de ChatGPT que alerta a tus más cercanos ante una crisis
La plataforma de Inteligencia Artificial lanzó una nueva función que acompaña a los usuarios, en caso de una crisis emocional.
-
¡Atención runners! Estos productos no pueden faltarte en tu entrenamiento, según la Inteligencia Artificial
-
Anthropic solicita a la Justicia de EEUU la suspensión de la designación como "riesgo para la cadena de suministro"
Con estas nuevas funciones, ChatGPT busca avanzar hacia un modelo de tecnología más consciente de su impacto social.
De acuerdo con datos difundidos por OpenAI, más de 900 millones de usuarios interactúan semanalmente con ChatGPT, ya sea para resolver dudas cotidianas, recibir orientación o simplemente encontrar un espacio de conversación. Este crecimiento ha llevado a la empresa a desarrollar nuevas herramientas orientadas al bienestar digital y la protección de quienes atraviesan momentos de vulnerabilidad emocional.
Cómo funcionará la opción “contacto de emergencia” de ChatGPT
Frente al aumento del uso emocional de la inteligencia artificial, OpenAI anunció una serie de actualizaciones destinadas a fortalecer la seguridad de los usuarios. El objetivo es claro: ofrecer un entorno más responsable y empático, sin que la herramienta se convierta en un sustituto del acompañamiento profesional.
Entre las novedades más relevantes se encuentra la incorporación de funciones que refuerzan la idea de una “red de apoyo digital”, permitiendo que familiares o personas cercanas puedan intervenir si el sistema detecta señales de angustia emocional en las conversaciones.
Estas medidas se suman a iniciativas previas que buscaban mejorar el uso seguro de la tecnología, especialmente entre adolescentes y usuarios jóvenes.
Una de las funciones más destacadas será la posibilidad de designar un “contacto de confianza” dentro de la plataforma. Esta persona, que puede ser un familiar, amigo cercano o tutor, podrá recibir notificaciones si el sistema identifica indicios de que el usuario podría estar atravesando una situación emocional delicada.
La función se integrará directamente en el flujo principal de la plataforma, lo que significa que no será una herramienta secundaria ni difícil de encontrar. De esta forma, OpenAI busca que la red de apoyo esté siempre disponible para quienes decidan activarla.
En la práctica, si el sistema detecta patrones de conversación que indiquen angustia profunda, aislamiento o posibles pensamientos autodestructivos, el contacto designado recibiría una alerta para poder brindar apoyo adicional fuera de la plataforma.
La empresa aclaró que esta función está diseñada como un complemento de la ayuda humana, no como un reemplazo de la asistencia profesional en salud mental.
Los avances de ChatGPT en la detección de las emociones humanas
Además del contacto de emergencia, OpenAI trabaja en sistemas más avanzados para identificar señales de alerta dentro de conversaciones largas o complejas.
Hasta ahora, muchos sistemas de inteligencia artificial reaccionaban principalmente ante palabras o frases específicas. Sin embargo, los nuevos modelos están siendo entrenados mediante simulaciones de conversaciones prolongadas, capaces de detectar patrones emocionales que se desarrollan a lo largo del diálogo.
Este enfoque permite identificar cambios graduales en el tono de la conversación, niveles de estrés o indicadores de vulnerabilidad emocional, que podrían pasar desapercibidos en análisis más simples.
La meta es que la respuesta de la inteligencia artificial sea más contextual, sensible y preventiva, ofreciendo recursos o sugerencias adecuadas cuando el sistema perciba señales de riesgo.
El crecimiento del uso de la inteligencia artificial como espacio de conversación también refleja un fenómeno social más amplio: el aumento del agotamiento digital, el estrés y el aislamiento en la vida cotidiana.
Muchas personas recurren a estas herramientas cuando necesitan hablar con alguien, procesar emociones o encontrar orientación inmediata. En este contexto, la identificación temprana de señales de alerta se vuelve fundamental.
Entre los indicadores que los especialistas llaman “erosión silenciosa del bienestar digital” se encuentran:
-
Uso excesivo de redes sociales como forma de evasión
Reacciones emocionales intensas ante mensajes o interacciones digitales
Aislamiento social prolongado
Alteraciones del sueño vinculadas al uso de pantallas
Dificultades para concentrarse o mantener la atención
Reconocer estos patrones puede ayudar tanto a los usuarios como a sus contactos de confianza a detectar posibles situaciones de riesgo y activar mecanismos de apoyo a tiempo.
La decisión de OpenAI de fortalecer las herramientas de seguridad y acompañamiento en ChatGPT refleja un cambio en la forma en que las empresas tecnológicas abordan su responsabilidad social. A medida que la inteligencia artificial se integra cada vez más en la vida cotidiana, también aumenta la necesidad de desarrollar plataformas que no solo sean útiles, sino también seguras, empáticas y centradas en el bienestar de las personas.
Si bien la IA no puede ni debe reemplazar el acompañamiento profesional en salud mental, sí puede actuar como un primer punto de contacto que ayude a identificar situaciones de riesgo y orientar a los usuarios hacia redes de apoyo reales.
Con estas nuevas funciones, ChatGPT busca avanzar hacia un modelo de tecnología más consciente de su impacto social, donde la innovación esté acompañada por mecanismos de cuidado y protección para quienes utilizan estas herramientas todos los días.








Dejá tu comentario