
Pentágono presiona a Anthropic para obtener acceso total a su IA Claude
El secretario de Defensa de EE.UU. advierte a Anthropic con vetos y la Ley de Producción de Defensa por su IA Claude.
El secretario de Defensa de EE.UU., Pete Hegseth, dio un ultimátum a Anthropic para conceder acceso total al Pentágono a su chatbot de IA generativa Claude, bajo amenaza de excluirla de las cadenas de suministro del Departamento de Defensa o incluso invocar la Ley de Producción de Defensa. La advertencia coloca a la inteligencia artificial en el centro de una nueva disputa estratégica entre Washington y una de las startups más influyentes del sector.
Hegseth convocó en Washington al director ejecutivo y cofundador de Anthropic, Dario Amodei, para exigir que el ejército estadounidense obtenga acceso irrestricto a las aplicaciones de Claude. Un portavoz de la empresa confirmó el encuentro y señaló:
“Durante la conversación, Dario expresó su agradecimiento por el trabajo del Departamento y dio las gracias al secretario por su servicio. Continuamos las conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda seguir apoyando la misión de seguridad nacional del Gobierno en consonancia con lo que nuestros modelos pueden hacer de forma fiable y responsable”.
Según reportes de prensa que citan fuentes cercanas a la reunión, el jefe del Pentágono planteó dos posibles medidas si la compañía no accede: retirarla de la cadena de suministro del Departamento de Defensa o activar la Ley de Producción de Defensa, norma de la Guerra Fría que faculta al presidente a ordenar a empresas privadas priorizar necesidades estratégicas de defensa.
El objetivo de Hegseth sería que el Pentágono tenga acceso ilimitado a Claude, incluso para usos militares clasificados. Anthropic, que se define como una empresa orientada a la seguridad, ha rechazado permitir que su tecnología se emplee en misiones potencialmente letales sin supervisión humana o en esquemas de vigilancia masiva dentro de Estados Unidos.
Contratos millonarios y uso militar
La tensión ocurre pese a que, desde noviembre de 2024, Anthropic ha suministrado su modelo Claude a agencias de inteligencia y defensa estadounidenses. En julio de 2025, el Departamento de Defensa le adjudicó un contrato por 200 millones de dólares para desarrollar prototipos avanzados de IA enfocados en la seguridad nacional.
De acuerdo con un informe del The Wall Street Journal, Claude habría sido utilizado por el ejército estadounidense durante la operación de 2026 en Venezuela que culminó con la captura de Nicolás Maduro. Ni la empresa ni el Departamento de Defensa han detallado el alcance del uso del sistema en esa incursión.
Una eventual exclusión de Anthropic del ecosistema del Pentágono tendría repercusiones financieras y estratégicas, dada la relevancia de los contratos gubernamentales en el desarrollo y posicionamiento de las compañías de inteligencia artificial.
Seguridad, negocio y competencia global
Anthropic fue fundada en 2021 por exintegrantes de OpenAI con la premisa de que la IA debía impulsar el progreso humano sin generar riesgos descontrolados. Sin embargo, el mismo día de la reunión con Hegseth, la firma anunció que flexibilizaría ciertos aspectos de su política de seguridad para mantener competitividad frente a otros desarrolladores líderes.
En una entrada de blog, la compañía reconoció que el entorno político actual prioriza la competitividad tecnológica y el crecimiento económico, mientras que el debate regulatorio centrado en la seguridad aún no alcanza tracción significativa a nivel federal.
El enfrentamiento evidencia cómo el control de los modelos avanzados de inteligencia artificial, su integración en la seguridad nacional y la posible aplicación de la Ley de Producción de Defensa están redefiniendo la relación entre el Gobierno de EE.UU. y las grandes tecnológicas. El caso de Anthropic y su chatbot Claude marca un precedente sobre hasta dónde puede llegar Washington en su presión sobre empresas privadas en nombre de la defensa.










