- Anthropic ajuizou uma ação federal em São Francisco para tentar anular a ordem que a impede de contratar com o governo dos EUA, após o Pentágono a classificar como “risco para a cadeia de suprimentos”.
- A classificação é incomum e vem após a empresa ter trabalhado com o Departamento de Defesa, incluindo um contrato de 220 milhões de dólares para usar Claude na gestão de arquivos classificados na nuvem.
- A Anthropic definiu duas condições vermelhas: o modelo não pode ser usado para espionagem em massa ou para armas autônomas sem supervisão humana; o Pentágono não quer limitações impostas pela empresa.
- Mesmo com o veto, o Exército continua usando Claude em operações, inclusive para definição de objetivos e planejamento, e terá um período de seis meses para se adaptar antes de substituição.
- A empresa argumenta que a Administração violou a Primeira Emenda ao reagir contra sua liberdade de expressão e que houve excesso de competência, em meio a um debate sobre os limites da IA dos EUA frente à China.
Anthropic, empresa de IA que desenvolve Claude, moveu uma ação nos EUA contra o governo federal após o Departamento de Defesa classificá-la como risco para a cadeia de suprimentos. A medida impede a empresa de contratar com o governo ou com companhias que tenham contratos com o Pentágono.
A ação foi apresentada por Dario Amodei, fundador da Anthropic, perante um juiz federal de San Francisco, onde fica a sede da empresa. O objetivo é suspender a ordem emitida pelo presidente dos EUA, Donald Trump, que proibia contratos com a Anthropic até que as salvaguardas fossem flexibilizadas.
A Anthropic afirma que a decisão do governo viola a Primeira Emenda, ao punir a empresa por expressão sobre limites de uso militar da IA. A defesa ressalta que a Constituição não autoriza o governo a retaliar empresas por opinião pública.
A empresa havia firmado, no último ano, um contrato de 220 milhões de dólares com o Pentágono para uso de Claude na gestão de arquivos classificados na nuvem. A ação destaca duas restrições consideradas inaceitáveis pela Anthropic: não usar o modelo para espionagem em massa e não gerenciar armas autônomas sem supervisão humana.
O Pentágono mantém que não admite limitações a como o Exército opera, especialmente em contextos de guerra. Ainda assim, o Exército utiliza Claude para definir alvos, planejar operações e auxiliar na coleta de informações classificadas, sob supervisão apropriada.
A controvérsia envolve também o alcance do veto. Trump sinalizou que ele se aplicaria a todos os contratos com as agências federais, afetando negociações com grandes empresas parceiras de Anthropic, o que poderia comprometer a viabilidade financeira da companhia, com faturamento superior a 20 bilhões de dólares.
A decisão de colocar Anthropic na lista de risco não resulta em ruptura imediata de vínculos, pois o Exército tem prazo de seis meses para migrar para outra IA. A medida, porém, sinaliza um cenário de tensões entre governo, indústria e tecnologia no setor de defesa.
Desdobramentos legais e políticos
A ação de Anthropic acontece em meio a controvérsias sobre o papel da IA militar, com diferentes posições entre a Administração Trump e representantes da indústria. A empresa sustenta que o veto é uma forma de censura política e de restrição à liberdade de expressão empresarial.
Analistas apontam que a disputa revela o desafio de regular IA de uso militar sem frear a inovação tecnológica. A questão ocorre em um momento de intensa competição entre EUA e China no campo da IA avançada.
Contexto institucional e estratégico
A polêmica também envolve o ecossistema de contratos entre governo e grandes players de tecnologia, como Google e Amazon, que mantêm vínculos com a Administração. O caso suscita debates sobre limites de governança, responsabilidade e segurança na aplicação da IA em defesa.
Entre na conversa da comunidade