O CEO da Anthropic, Dario Amodei, confirmou nesta quinta-feira o recebimento da classificação de risco à cadeia de suprimentos pelo Pentágono. A empresa planeja contestar a decisão na Justiça, após o governo dos EUA designar a Anthropic como risco de cadeia de suprimentos. A medida ocorre em meio a um impasse com o Departamento de Defesa sobre o uso do Claude, o modelo de IA da companhia.

A designação oficial aponta para preocupações com o uso do Claude em contextos militares, e Amodei ressaltou que a Anthropic não acredita que seja papel de uma empresa privada decidir operações militares. A empresa vem buscando garantias de que a tecnologia não será utilizada para armas autônomas ou vigilância em massa, enquanto o DoD queria acesso irrestrito ao Claude para quaisquer finalidades legais.
Segundo Amodei, o governo afirmou a designação na quinta-feira (5). A disputa envolve limites para o uso da IA, com o DoD defendendo maior controle sobre aplicações em contratos militares e a Anthropic insistindo em salvaguardas éticas e operacionais.
A Microsoft, que anunciou em novembro planos de investir até US$ 5 bilhões na Anthropic, informou que os seus advogados analisaram a designação e concluíram que os produtos podem continuar disponíveis para clientes que não sejam o DoD.
A Anthropic já havia firmado em julho um contrato de US$ 200 milhões com o DoD e foi o primeiro laboratório de IA a integrar seus modelos a fluxos de trabalho em redes classificadas. Concorrentes como OpenAI e xAI também firmaram acordos semelhantes, ampliando o uso de IA em ambientes sensíveis.
Em publicações públicas, OpenAI, de Sam Altman, e a xAI concordaram em implantar modelos em ambientes classificados. Altman afirmou que a agência demonstrou respeito pela segurança e desejo de parceria para alcançar melhores resultados.

Relação tensa entre a Anthropic e o governo do presidente Trump vem se agravando nos últimos meses. Amodei pediu desculpas por um memorando interno crítico à administração que vazou à imprensa. Segundo a publicação, ele teria dito a colaboradores que o governo não simpatizava com a Anthropic por não ter feito doações nem elogiado Trump.
Amodei afirmou que o memorando foi redigido na sexta-feira anterior a um dia difícil para a empresa e que não reflete suas opiniões cuidadosas. Ele disse ainda que o documento representa uma avaliação desatualizada da situação e que a Anthropic não vazou o texto nem orientou terceiros a divulgá-lo.
Em meio a esse cenário, o ecossistema de IA continua em movimento, com grandes players avaliando contratos e usos em ambientes classificados. A tensão entre inovação, segurança e governança coloca a Anthropic e seus parceiros em um momento decisivo sobre o papel da IA na defesa e na indústria.
E você, qual é a sua opinião sobre o uso de IA em contratos governamentais? Acredita que empresas de tecnologia devem ter autonomia para decidir limites de uso ou que o governo precisa impor regras mais rígidas para segurança? Deixe seu comentário.

Comentários do Facebook