5 de marzo 2026 - 11:18

Anthropic vs OpenAI: la discusión sobre los acuerdos con el ministerio de Defensa de Donald Trump

La empresa desarrolladora de Claude había firmado convenios con dependencias de Defensa del estado. Sin embargo, tras exigir limitaciones, Trump rompió las relaciones y viró su preferencia a ChatGPT. Ahora, ambos CEO libran una disputa en las redes.

ChatGPT vs Anthropic: el debate por la militarización de la IA.

ChatGPT vs Anthropic: el debate por la militarización de la IA.

El cofundador y director ejecutivo de Anthropic, Dario Amodei, volvió a cargar contra Sam Altman en medio de la creciente disputa entre las empresas de inteligencia artificial por su vínculo con el ecosistema de defensa estadounidense. En un memorando interno dirigido a su equipo —citado por el medio The Information— Amodei cuestionó con dureza el acuerdo alcanzado entre OpenAI y el Departamento de Defensa de Estados Unidos, organismo que bajo la administración del presidente Donald Trump pasó a denominarse formalmente Departamento de Guerra.

Las declaraciones del director de Anthropic llegan en unas semanas turbulentas para el ecosistema de IA en Estados Unidos. El presidente rompió con la empresa desarrolladora de Claude luego de que Amodei estableciera límites para el uso militar y de control ciudadano de la herramienta. Tras eso, el gobierno estadounidense se volcó a concretar acuerdos con OpenAI que también esbozó preocupaciones manera pública.

En ese contexto, el ejecutivo calificó la postura pública de la compañía rival como un simple gesto de imagen. En su mensaje al personal, Amodei describió la relación de OpenAI con el Pentágono como "teatro de seguridad".

“La razón principal por la que (OpenAI) aceptó (el acuerdo del Departamento de Defensa) y nosotros no es que a ellos les importaba apaciguar a los empleados, y a nosotros nos importaba prevenir abusos”, disparó Amodei.

El desacuerdo con el Pentágono

La semana pasada, Anthropic y el Departamento de Defensa no lograron cerrar un nuevo acuerdo luego de que el ejército solicitara acceso sin restricciones a la tecnología desarrollada por la compañía.

trump anthropic
Anthropic: el nuevo enemigo público de n°1 de la gestión Trump.

Anthropic: el nuevo enemigo público de n°1 de la gestión Trump.

Aunque la firma ya mantenía un contrato de u$s200 millones con las fuerzas armadas, el nuevo entendimiento se frustró cuando Anthropic exigió garantías explícitas: que su inteligencia artificial no fuera utilizada para vigilancia masiva dentro de Estados Unidos ni para el desarrollo de armamento autónomo.

El Pentágono, en cambio, sí avanzó con un acuerdo con OpenAI. Según explicó Altman, el contrato incluiría salvaguardas similares a las que había planteado Anthropic como líneas rojas.

Sin embargo, Amodei cuestionó públicamente esa versión. En su comunicación interna describió los mensajes de OpenAI como "mentiras descaradas" y sostuvo que Altman se está "presentando falsamente como un pacificador y negociador".

El debate por los “usos legales”

La controversia se concentra en una cláusula clave: el alcance de los llamados “usos legales” de la inteligencia artificial.

Anthropic había objetado específicamente la exigencia del Departamento de Defensa de que su tecnología estuviera disponible para “cualquier uso legal”. OpenAI, por su parte, confirmó en una publicación de blog que su contrato contempla el uso de sus sistemas de IA para "todos los fines legales".

“En nuestra interacción, quedó claro que el Departamento de Guerra considera ilegal la vigilancia doméstica masiva y no planeaba utilizarla para este fin”, declaró la publicación del blog de OpenAI. “Nos aseguramos de que en nuestro contrato se especificara explícitamente que no está contemplada en el uso legal”.

El problema, señalan los críticos, es que el concepto de legalidad puede cambiar con el tiempo. Lo que hoy está prohibido podría ser habilitado por futuras modificaciones legislativas o interpretaciones judiciales.

Impacto en la opinión pública

La disputa entre ambas compañías también se trasladó al frente público. Tras conocerse el acuerdo entre OpenAI y el Departamento de Defensa, las desinstalaciones de la aplicación ChatGPT se dispararon un 295%, según datos difundidos en los últimos días.

El movimiento parece haber beneficiado indirectamente a Claude, el asistente de inteligencia artificial desarrollado por Anthropic, que registró un fuerte crecimiento en descargas y posiciones dentro de la App Store.

Amodei incluso aludió a ese fenómeno en su mensaje al equipo. “Creo que este intento de manipulación no está funcionando bien ni con el público en general ni con los medios de comunicación, donde la mayoría considera el acuerdo de OpenAI con el Departamento de Guerra como sospechoso, y nos ve como los héroes (¡ahora somos el número 2 en la App Store!)”, escribió. “Está funcionando con algunos idiotas de Twitter, lo cual no importa, pero mi principal preocupación es cómo asegurarme de que no funcione con los empleados de OpenAI” sentenció.

El mensaje de OpenAI

Amodei salió al cruce de Altman luego de que el director de OpenAI publicara un mensaje en X sobre la relación con las dependencia de Defensa de EEUU y el desarrollo militar.

"De conformidad con las leyes aplicables, incluida la Cuarta Enmienda a la Constitución de los Estados Unidos, la Ley de Seguridad Nacional de 1947 y la Ley FISA de 1978, el sistema de IA no se utilizará intencionalmente para la vigilancia interna de personas y ciudadanos estadounidenses", detalló en el inicio de su mensaje.

Embed - https://publish.x.com/oembed?url=https://x.com/sama/status/2028642231138353299&partner=&hide_thread=false

En ese sentido, agregó: "Para evitar dudas, el Departamento entiende que esta limitación prohíbe el seguimiento, la vigilancia o el monitoreo deliberados de personas o ciudadanos estadounidenses, incluso mediante la obtención o el uso de información personal o identificable adquirida comercialmente. Es fundamental proteger las libertades civiles de los estadounidenses, y se prestó tanta atención a esto que quisimos dejar este punto especialmente claro, incluso en lo que respecta a la información adquirida comercialmente".

Así, Altman aseguró que "hay muchas cosas para las que la tecnología no está preparada, y en muchas áreas aún no comprendemos las compensaciones necesarias para la seguridad. Trabajaremos en esto, poco a poco, con el DoW, con salvaguardias técnicas y otros métodos".

En otro hilo, Altamn sentenció: "Nos encaminamos hacia un mundo donde la relación entre los gobiernos y las iniciativas de IA es crucial. Será difícil, pero tiene que suceder; no veo un futuro prometedor si no lo logramos. No debería haber juegos ni peleas en la prensa como este; deben evitarse las medidas drásticas de los gobiernos. Creo que se avecinan peligros reales para el mundo, tal vez muy pronto; traté de ponerme en la mentalidad de cómo me sentiría el día después de un ataque a los EE. UU. o de una nueva arma biológica que podríamos haber ayudado a prevenir".

Dejá tu comentario

Te puede interesar