Finanças

EUA ameaçam cancelar contrato com Anthropic se startup não liberar uso de IA para militares

CEO da empresa, Dario Amodei, diz que “não pode, em sã consciência” concordar com os termos propostos pelo governo americano. Disputa deve parar nos tribunais

Agência O Globo - 27/02/2026
EUA ameaçam cancelar contrato com Anthropic se startup não liberar uso de IA para militares
Imagem ilustrativa gerada por inteligência artificial - Foto: Nano Banana (Google Imagen)

O governo dos alertou que cancelará seus acordos com a Anthropic caso a startup de não chegue a um acordo com o Pentágono sobre uso de inteligência artificial para as Forças Armadas. Um um alto funcionário do governo chegou a acusar o CEO da startup, Dario Amodei, de ter um “complexo de Deus” após ele rejeitar uma “oferta final” para continuar trabalhando com os militares.

Mudança de estratégia:

Esqueça Apple, Microsoft, e Meta:

Na quinta-feira, a Anthropic rejeitou a mais recente proposta do Pentágono em uma disputa sobre salvaguardas relacionadas ao uso de sua tecnologia de inteligência artificial pelas Forças Armadas dos Estados Unidos, intensificando o impasse um dia antes do prazo estabelecido pelo governo para que a empresa retire suas restrições ou enfrente consequências severas.

"Essas ameaças não mudam nossa posição: não podemos, em sã consciência, atender à solicitação deles", afirmou Amodei através de um comunicado na quinta-feira.

Mais tarde, na noite de quinta-feira, o subsecretário de Defesa para Pesquisa e Engenharia, Emil Michael, que ajuda a conduzir a estratégia de IA do Pentágono e participou das negociações com a Anthropic, chamou Amodei de mentiroso com “complexo de Deus”.

“Ele não quer nada além de tentar controlar pessoalmente as Forças Armadas dos EUA e está disposto a colocar a segurança da nossa nação em risco”, escreveu Michael no X.

Um porta-voz da empresa disse que a nova redação contratual apresentada pelo Pentágono não atendeu ao desejo da companhia de impor limites ao uso militar de suas ferramentas de IA.

A empresa responsável pelo modelo Claude se recusa a permitir que o Departamento de Defesa tenha uso pleno de sua tecnologia e continua insistindo em duas restrições específicas: não quer que sua tecnologia seja utilizada para vigilância de cidadãos americanos em massa e nem para ataques letais autônomos sem supervisão humana.

De acordo com reportagem do FT, a escalada da disputa deve provocar uma batalha judicial entre um dos principais laboratórios de IA dos Estados Unidos e o governo de .

A Anthropic afirmou que, embora a proposta mais recente do Pentágono tenha ficado aquém do esperado, a empresa continua negociando com autoridades de defesa e permanece comprometida em trabalhar com os militares. Desde sua fundação, a Anthropic tem se posicionado como uma empresa focada no uso responsável da IA, com o objetivo de evitar danos catastróficos decorrentes da tecnologia.

A disputa gira em torno da insistência da empresa de que salvaguardas acompanhem o uso militar de sua ferramenta de IA Claude — exigências que o Pentágono considera desnecessárias. Autoridades de defesa já rejeitaram anteriormente as demandas da Anthropic e insistem em poder operar o Claude — uma das únicas ferramentas de IA autorizadas para uso em nuvem com dados classificados — sem quaisquer restrições impostas pela empresa.

Sam Altman:

O subsecretário de Defesa para Pesquisa e Engenharia, Emil Michael, que ajuda a conduzir a estratégia de IA do Pentágono, reagiu duramente à rejeição de Amodei.

“Ele não quer nada além de tentar controlar pessoalmente as Forças Armadas dos EUA e está disposto a colocar a segurança da nossa nação em risco”, escreveu Michael no X, acusando o chefe da Anthropic de ter “complexo de Deus”.

Procurada pela Bloomberg, a Anthropic não respondeu imediatamente a um pedido de comentário fora do horário comercial.

Caso a Anthropic não retire suas condições, o Departamento de Defesa prometeu declarar a empresa um risco à cadeia de suprimentos — medida que a impediria de trabalhar com outros contratantes de defesa. O Pentágono também ameaçou invocar a Lei de Produção de Defesa, da era da Guerra Fria, para utilizar o software da Anthropic mesmo contra a vontade da empresa.

Todo mundo quer pegar carona com a IA:

Estão em jogo até US$ 200 milhões em trabalhos que a Anthropic havia concordado em realizar para os militares, além de contratos com outras agências governamentais que também podem ficar ameaçados. Amodei disse esperar que o Departamento de Defesa reveja sua posição atual de trabalhar apenas com contratados que aceitem um padrão de “uso para qualquer finalidade legal”.

— É prerrogativa do departamento selecionar contratados mais alinhados com sua visão — afirmou Amodei. — Mas, dado o valor substancial que a tecnologia da Anthropic oferece às nossas Forças Armadas, esperamos que reconsiderem.

Agora avaliada em cerca de US$ 380 bilhões, a Anthropic foi a primeira empresa de IA a receber autorização do Pentágono para lidar com material classificado, e sua ferramenta Claude Gov rapidamente se tornou uma opção preferida entre integrantes da defesa por sua facilidade de uso. A empresa enfrenta concorrência crescente da xAI, de , que acaba de obter aprovação para trabalhos com material classificado, além das rivais OpenAI e Gemini, do Google.

Em cúpula na Índia:

Os termos mais recentes do contrato do Departamento de Defesa foram apresentados por autoridades dos EUA como um compromisso, mas incluíam linguagem jurídica que poderia permitir que as duas salvaguardas da Anthropic sobre vigilância e armamentos autônomos fossem ignoradas, acrescentou o porta-voz da empresa.

Amodei afirmou que a Anthropic entende que o Departamento de Defesa — e não empresas privadas — toma as decisões finais para as Forças Armadas dos EUA. Disse que as duas condições da empresa não são uma tentativa de definir políticas públicas, mas sim de garantir que a tecnologia de IA, ainda nascente — e ocasionalmente sujeita a erros —, não seja usada de forma que exceda suas capacidades atuais.

A disputa eclodiu poucas semanas após o Pentágono publicar uma nova estratégia de inteligência artificial que propõe transformar os militares em uma força “IA-first”, ampliando a experimentação com modelos de ponta e reduzindo barreiras burocráticas ao uso. A abordagem recomenda especificamente que o Departamento de Defesa escolha modelos “livres de restrições de política de uso que possam limitar aplicações militares legais”.

Autoridades de defesa reiteraram que os militares utilizariam a tecnologia da Anthropic dentro dos limites da lei. O Pentágono não tem interesse em vigilância em massa nem em desenvolver “armas autônomas que operem sem envolvimento humano”, disse mais cedo na quinta-feira o porta-voz Sean Parnell, ao abordar as duas principais preocupações da empresa.

“Não permitiremos que NENHUMA empresa dite os termos sobre como tomamos decisões operacionais”, escreveu Parnell em uma publicação no X. “Eles têm até 17h01 (horário da Costa Leste) de sexta-feira para decidir. Caso contrário, encerraremos nossa parceria com a Anthropic e a classificaremos como risco à cadeia de suprimentos.”

No Brasil:

Na terça-feira, lembra o FT, o secretário de Defesa dos EUA, Pete Hegseth, convocou Amodei a Washington para exigir que a Anthropic autorizasse qualquer uso legal de seu modelo até sexta-feira, sob pena de ser excluída das cadeias de fornecimento do Pentágono ou ter sua tecnologia apropriada.

Autoridades do Pentágono enviaram à Anthropic uma oferta final na quarta-feira, segundo pessoas com conhecimento do assunto. Mas Amodei afirmou que os termos eram inaceitáveis para sua empresa, que se apresenta como mais responsável e focada em segurança do que seus concorrentes.

O funcionário do governo disse ao FT que o governo considera o Claude um “produto fantástico” e espera que se alcance uma solução. Mas acrescentou que, se isso não ocorrer, o chatbot deixará de ser oferecido a agências federais por meio da Administração de Serviços Gerais. Amodei, por sua vez, reforçou que a Anthropic ainda está esperançosa de que um acordo seja alcançado.