2 de septiembre 2025 - 13:50

Cambios en ChatGPT y polémica: OpenAI admitió que podría entregar conversaciones de usuarios a la policía

La inteligencia artificial actualizó sus términos de uso. Pretende detectar a tiempo emergencias de seguridad y riesgos de daño.

OpenAI admitió que puede entregar las conversaciones del ChatGPT a la policía. 

OpenAI admitió que puede entregar las conversaciones del ChatGPT a la policía. 

“Cuando detectamos usuarios que están planeando dañar a otros, enrutamos sus conversaciones a flujos especializados donde son revisadas por un equipo reducido entrenado en nuestras políticas de uso, cuyos miembros están autorizados para tomar medidas que incluyen la prohibición de cuentas. Si los revisores humanos determinan que un caso implica una amenaza inminente de daño grave hacia terceros, podríamos derivarlo a las autoridades policiales”, explicaron desde OpenAI.

El artículo publicado por la organización también abordó cómo tratan temas de salud mental y en qué casos se activa la intervención de revisores humanos.

Prácticas habituales en el mundo digital

Aunque la medida generó controversia, no es una práctica aislada. Muchas aplicaciones que ofrecen cifrado de extremo a extremo pueden verse obligadas a liberar información si lo requieren las autoridades mediante una orden judicial.

Prompts en Chatgpt (1)

La diferencia en este caso radica en que la propia empresa estadounidense reconoció que existe una revisión previa de su personal antes de entregar información a las fuerzas de seguridad.

En sus políticas de uso, la compañía aclaró: “Podemos compartir tu información personal con autoridades gubernamentales o de otros terceros si es requerido por la ley o en buena fe (...) para detectar o prevenir fraude u otra actividad ilegal; para proteger la seguridad, integridad y confianza de nuestros productos, empleados, usuarios o el público, o para proteger contra responsabilidad legal”.

De acuerdo con Futurism, la firma dirigida por Sam Altman no detalló exactamente qué pasos seguirá en esos casos.

Demandas y acusaciones tras una polémica con ChatGPT

La actualización de las normas se conoció poco después de una denuncia judicial que vinculó a ChatGPT con el suicidio de un adolescente de 16 años. Los padres de la víctima acusaron a OpenAI de homicidio culposo, alegando que el chatbot proporcionó consejos dañinos y llegó a describir métodos de suicidio sin activar ningún protocolo de emergencia.

Según la presentación, el sistema “no interrumpió” las conversaciones en las que el joven habló de quitarse la vida y tampoco inició alertas a pesar de identificar la intención del menor, llamado Adam.

El abogado de la familia sostuvo: “Lo que este caso pondrá en tela de juicio es hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la entonces más reciente versión de ChatGPT, a pesar de los evidentes problemas de seguridad”.

Dejá tu comentario

Te puede interesar