El tiroteo ocurrido el año pasado en la Universidad de Florida - que dejó un saldo de 2 muertos y al menos 5 heridos - abrió un nuevo frente judicial para OpenAI y volvió a poner en el centro el debate por los límites y las barreras de seguridad - guardrails - que deben implementar las herramientas de inteligencia artificial. En los últimos días, la familia de una de las víctimas fatales presentó este domingo una demanda en Tallahassee contra la compañía, al acusar a ChatGPT de haber “avivado y alentado” los “delirios” del presunto atacante, Phoenix Ikner.
La presentación judicial llega pocas semanas después de que el fiscal general de Florida, James Uthmeier, iniciara la primera investigación penal contra OpenAI para determinar si la empresa podría tener algún grado de “responsabilidad penal” en relación con el ataque.
OpenAI afronta una nueva denuncia contra ChatGPT
La familia de Tiru Chabba —una de las dos personas asesinadas durante el tiroteo de abril de 2025, según la policía— sostiene que Ikner mantuvo miles de interacciones con ChatGPT antes de abrir fuego en el campus universitario.
Según la demanda, el chatbot habría colaborado en distintos aspectos de la planificación del ataque. Entre otras cuestiones, aseguran que respondió consultas sobre manejo de armas y logística dentro de la universidad, incluyendo recomendaciones vinculadas al momento de mayor circulación de personas en el campus.
La presentación también afirma que Ikner subió imágenes de armas y municiones para que fueran identificadas por ChatGPT. De acuerdo con el expediente, el sistema incluso describió la pistola Glock utilizada como un arma diseñada para dispararse “de uso rápido bajo estrés” y sugirió mantener el dedo fuera del gatillo hasta estar listo para disparar.
Para los demandantes, ChatGPT “proporcionó lo que él percibió como estímulo en su delirio”. El ataque dejó además otras seis personas heridas. Ikner se declaró inocente y el inicio del juicio está previsto para octubre.
La familia impulsa cargos por muerte por negligencia, negligencia grave, responsabilidad por productos defectuosos y falta de advertencias, entre otros puntos. “OpenAI creó un sistema que mantuvo la conversación, la perpetuó, aceptó el enfoque de Ikner, lo desarrolló y formuló preguntas complementarias tangenciales para mantener a Ikner enganchado”, sostiene la demanda.
En este sentido, el litigio ahonda: “El diseño de ChatGPT creó un riesgo evidente y previsible de daño al público que no fue controlado adecuadamente”.
Los abogados de la familia Chabba reclaman una compensación económica aún no especificada y exigen que OpenAI incorpore mayores barreras de seguridad en ChatGPT. Amy Willbanks, representante legal de la familia, advirtió que la compañía debería reducir y eliminar los riesgos asociados al uso público del chatbot antes de seguir ampliando su acceso.
“No podemos tener un producto que no esté regulado y que esté siendo utilizado por personas cuando no conocemos el alcance total de a qué puede conducir”, declaró Willbanks durante una conferencia de prensa.
Desde OpenAI respondieron que, si bien el tiroteo en FSU fue una “tragedia”, ChatGPT “no es responsable”.
Desde OpenAI remarcaron que ChatGPT “no es responsable" del ataque en la universidad y agregaron: "ChatGPT proporcionó respuestas fácticas a preguntas con información que podría encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió actividad ilegal o dañina”.
“Trabajamos continuamente para fortalecer nuestras salvaguardas a fin de detectar intenciones dañinas, limitar el uso indebido y responder adecuadamente cuando surgen riesgos de seguridad”, sentenciaron desde la empresa.
La compañía había explicado el mes pasado, a través de una publicación oficial, que trabaja en nuevos sistemas para detectar conversaciones que puedan derivar en “amenazas, daño potencial a otros o planificación en el mundo real”. Según detalló OpenAI, cuando una cuenta es marcada internamente por comportamientos de riesgo, un revisor humano analiza la actividad para determinar si corresponde notificar a las autoridades.
La ola de denuncias contra ChatGPT
El caso de Florida se suma a una creciente ola de litigios contra OpenAI. La empresa enfrenta al menos diez demandas impulsadas por familias que sostienen que distintas personas se dañaron a sí mismas o a terceros tras interactuar con ChatGPT.
En paralelo, siete familias de víctimas de otro tiroteo escolar ocurrido en Canadá en febrero también demandaron recientemente a OpenAI y a su CEO, Sam Altman. Allí acusan tanto a la compañía como al chatbot de haber sido cómplices en las lesiones y muertes provocadas durante el ataque.
Las acciones judiciales aparecieron poco después de que Altman pidiera disculpas públicamente a la comunidad de Tumbler Ridge, en la provincia canadiense de Columbia Británica, por no haber alertado a las autoridades sobre las conversaciones mantenidas entre el atacante y ChatGPT, incluso después de que la cuenta fuera marcada por empleados de la empresa. En aquel episodio murieron ocho personas, entre ellas seis niños, antes de que el agresor se suicidara.