10 de marzo 2026 - 13:19

Demandan a OpenAI por el ataque a tiros a una niña en una escuela en Canadá

El sospechoso del ataque usó ChatGPT como "sitio de confianza" según la demanda. Su cuenta web fue suspendida meses antes del ataque pero la policía no llegó a ser nootificada.

La demanada indicó que el sospechoso, un joven de 18 años, usó ChatGPT como un sitio de confianza.

La demanada indicó que el sospechoso, un joven de 18 años, usó ChatGPT como un "sitio de confianza".

BBC

Una niña fue gravemente herida durante un tiroteo masivo en una escuela de Canadá. Tras la tragedia, su familia demandó a la compañía de ChatGPT OpenAI alegando que sabía que el sospechoso estaba planeando un ataque, pero no alertó a las autoridades.

Se trata de la alumna de 12 años Maya Gebala, quien recibió disparos en el cuello y la cabeza en el ataque, ocurrido en la localidad de Tumbler Ridge el 10 de febrero, y permanece en el hospital.

Una cuenta inicial de ChatGPT vinculada al sospechoso, Jesse Van Rootselaar (18), fue prohibida por OpenAI en junio de 2025 debido a la naturaleza de sus conversaciones con el chatbot, pero la policía canadiense no fue notificada.

Una niña fue herida en un tiroteo escolar y su familia demandó a OpenAI

El hecho dejó ocho muertos, incluidos cinco niños pequeños y la madre del sospechoso, considerado como uno de los tiroteos más letales en la historia de Canadá. Por su parte, OpeanAI le expresó a la BBC que estaba comprometido a realizar "cambios significativos" para ayudar a prevenir tragedias similares en el futuro.

La demanda civil, presentada por la madre de Gebala, Cia Edmonds, alegó que Rootselaar creó una cuenta en ChatGPT antes de cumplir 18 años, algo que los usuarios pueden hacer con el consentimiento de los padres, y que no se realizó ninguna verificación de edad en el sitio.

La presentación afirma que el sospechoso vio al chatbot como un "sitio de confianza" y le describió "varios escenarios que involucraban violencia armada" durante varios días a fines de la primavera o principios del verano de 2025.

OpenAI
Un portavoz de OpenAI calificó los acontecimientos como una

Un portavoz de OpenAI calificó los acontecimientos como una "tragedia indescriptible" y la empresa se comprometió a "trabajar con el gobierno y las autoridades policiales".

Luego, 12 empleados de OpenAI marcaron las publicaciones como "indicadoras de un riesgo inminente de daño grave a otros" y recomendaron que se informe a las autoridades policiales canadienses, según la demanda. En cambio, se alega que la solicitud de contactar a la Policía fue "rechazada" y la única medida tomada fue prohibir la cuenta de Rootselaar.

OpenAI había dicho anteriormente que no alertó a la policía porque la cuenta no cumplía con su umbral de plan creíble o inminente de causar daño físico grave a otras personas. El sospechoso pudo luego abrir una segunda cuenta de ChatGPT, a pesar de haber sido detectado por los sistemas OpenAI en el pasado, y "seguir planeando escenarios que involucraran violencia armada".

La demanda afirma que la empresa "tenía conocimiento específico de la planificación a largo plazo por parte del tirador de un evento que causaría muchas víctimas", pero "no tomó ninguna medida para actuar en base a este conocimiento". Los demandantes afirman que, como resultado de la conducta de la empresa, Gebala sufrió una "lesión cerebral catastrófica".

La respuesta de OpenAI

En una declaración a la BBC, un portavoz de OpenAI calificó los acontecimientos como una "tragedia indescriptible": "OpenAI mantiene su compromiso de trabajar con el gobierno y las autoridades policiales para realizar cambios significativos que ayuden a prevenir tragedias como esta en el futuro", agregó.

El 4 de marzo, su director ejecutivo Sam Altman se reunió virtualmente con el ministro de inteligencia artificial de Canadá, Evan Solomon, y con el primer ministro de Columbia Británica, David Eby. Según el Wall Street Journal , Altman "se comprometió a fortalecer los protocolos para notificar a la policía sobre interacciones potencialmente dañinas".

"Es improbable que un niño que hoy tiene 5 años tenga que buscar trabajo en el futuro", la predicción de un inversor de OpenAI

Que la Inteligencia Artificial impactó en el mercado laboral no es ninguna novedad, sin embargo hoy el debate esta en dilucidar que tan profundos serán los cambios que produce esta tecnología y que tan rápido se producirán. En este contexto, un importante inversor de OpenAI, el indio Vinod Khosla, lanzó una predicción radical: "Es altamente improbable que un niño que hoy tenga cinco años tenga que buscar nunca un empleo".

Segú auguró el cofundador de Sun Microsystems y fundador de Khosla Ventures, el 80% de los empleos quedarán en manos de la Inteligencia Artificial para el año 2030. En detalle, el inversor no se detuvo en trabajos rutinarios o manuales, sino también a médicos, radiólogos, diseñadores de chips y más.

Para Kosla, el cambio se dará rápido, aunque describió un periodo intermedo en el que "cada profesional tendrá cuatro agentes de IA que capacitará para que se mejoren a sí mismos, y creo que ese modelo inicial de implementación de IA consistirá en asistentes de IA que trabajarán para alguien que ya sea contable senior o un médico, o diseñador de chips".

Dejá tu comentario

Te puede interesar