Renuncia funcionaria clave de OpenAI tras acuerdo con el Pentágono
La vigilancia de los estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana merecían más deliberación, dijo Caitlin Kalinowski.

La ingeniera Caitlin Kalinowski, quien supervisaba el área de hardware en OpenAI, anunció su renuncia el sábado tras expresar preocupaciones sobre el reciente acuerdo de la empresa con el Departamento de Defensa de Estados Unidos.
Renuncié a OpenAI. Me importa mucho el equipo de Robótica y el trabajo que desarrollamos juntos", señaló en la plataforma X.
No fue una decisión fácil. La IA desempeña un papel importante en la seguridad nacional", agregó.
En una publicación en la red social X, Kalinowski señaló que la compañía no dedicó suficiente tiempo a evaluar las implicaciones de permitir que sus modelos de inteligencia artificial se utilicen en redes cloud clasificadas del Pentágono.
Kalinowski afirmó que la IA tiene un papel relevante en la seguridad nacional, pero advirtió que ciertas aplicaciones requieren mayor deliberación y supervisión institucional.
La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de los estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son cuestiones que merecían más deliberación de la que recibieron”, escribió.
Acuerdo entre OpenAI y el Pentágono
El acuerdo fue anunciado a finales de febrero de 2026 y permite que el Departamento de Defensa de Estados Unidos utilice productos y modelos de inteligencia artificial de OpenAI en proyectos vinculados con seguridad nacional.
La empresa estableció públicamente dos límites clave sobre el uso de su tecnología:
Primero, prohibición del uso para vigilancia doméstica de ciudadanos estadounidenses.
Segundo, prohibición del uso en armas autónomas letales sin supervisión humana.
Un portavoz de OpenAI confirmó la salida de Kalinowski y defendió el contrato con el gobierno estadounidense.
Creemos que nuestro acuerdo con el Pentágono crea un camino viable para usos responsables de la IA en seguridad nacional, dejando claras nuestras líneas rojas: sin vigilancia doméstica y sin armas autónomas”, señaló la empresa en una declaración enviada a Reuters.
La compañía agregó que continuará participando en debates con empleados, autoridades gubernamentales y organizaciones de la sociedad civil para definir estándares responsables de uso de la tecnología.
Preocupaciones sobre gobernanza
Según Kalinowski, la principal preocupación no fue la colaboración con el gobierno en sí misma, sino la velocidad con la que se anunció el acuerdo sin detallar previamente las salvaguardas.
En otra publicación sostuvo que el tema central es de gobernanza tecnológica.
Son decisiones demasiado importantes como para precipitarse en acuerdos o anuncios”, escribió.
Kalinowski se unió a OpenAI en 2024, tras haber liderado el desarrollo de hardware de realidad aumentada en Meta.

El caso Anthropic: acuerdo que no prosperó
El contexto del contrato con el Pentágono también involucra a Anthropic, una startup de inteligencia artificial fundada por ex empleados de OpenAI.
Semanas antes del anuncio, el Departamento de Defensa intentó negociar un acuerdo similar con Anthropic. Sin embargo, la empresa rechazó el contrato al exigir salvaguardas más estrictas, especialmente en relación con:
La vigilancia masiva doméstica.
El uso de armas completamente autónomas basadas en IA.
Tras el rechazo, el gobierno estadounidense catalogó a Anthropic como un “riesgo en la cadena de suministro”, lo que en la práctica limita su participación en proyectos vinculados con contratistas del Pentágono.
El presidente Donald Trump también criticó públicamente a la empresa en su red Truth Social, calificándola de “radical woke” y exhortando a agencias federales a evitar el uso de su tecnología.
Anthropic anunció que impugnará esta decisión en tribunales, mientras que compañías como Microsoft, Google y Amazon confirmaron que continuarán ofreciendo el modelo Claude de Anthropic a clientes que no estén vinculados con proyectos de defensa.
El dilema para las empresas de inteligencia artificial
El episodio refleja un debate creciente en el ecosistema global de inteligencia artificial sobre el equilibrio entre crecimiento empresarial, contratos gubernamentales y principios éticos.
Los contratos con el sector defensa representan miles de millones de dólares anuales, lo que convierte a los gobiernos en uno de los clientes más importantes para las empresas de IA.
Sin embargo, el caso también muestra que las decisiones estratégicas pueden generar tensiones internas, especialmente entre ejecutivos y desarrolladores que buscan coherencia entre los valores declarados de una empresa y sus decisiones comerciales.
La salida de Kalinowski pone de relieve que la retención de talento senior en el sector tecnológico no depende únicamente de incentivos económicos, sino también de la alineación ética con el rumbo de la empresa.
La discusión sobre qué usos son aceptables para la inteligencia artificial, quién debe supervisar estos sistemas y qué límites no deben cruzarse está ocurriendo en tiempo real.
Para analistas del sector, decisiones como el acuerdo entre OpenAI y el Pentágono o la postura adoptada por Anthropic podrían influir en la forma en que toda la industria define sus estándares de gobernanza tecnológica en los próximos años.
asc
EL EDITOR RECOMIENDA



