- Google teria assinado acordo para uso de seus modelos de IA em trabalhos classificados do Pentágono, permitindo uso para “qualquer objetivo governamental lícito”.
- O contrato exige que a empresa ajude a ajustar configurações de segurança e filtros de IA a pedido do governo, incluindo cláusulas para evitar vigilância em massa doméstica e armas autônomas sem supervisão humana.
- O acordo não confere ao Google o direito de controlar ou vetar decisões operacionais do governo; o Pentágono mantém autocontrole sobre as operações.
- O Pentágono firmou contratos de até 200 milhões de dólares com laboratórios de IA em 2025, incluindo Anthropic, OpenAI e Google, em meio a resistência interna de funcionários.
- O Google afirma apoiar agências governamentais em projetos classificados e não classificados, defendendo o uso de APIs de modelos comerciais com práticas padrão; mais de 600 funcionários assinaram carta de protesto.
Google assinou, segundo reportagem, acordo classificado com o Pentágono para uso de modelos de IA em trabalhos confidenciais. A operação envolve a expansão de parcerias entre o setor privado e a defesa. A informação aponta que o contrato permite uso da IA para qualquer finalidade governamental lícita.
O acordo com a gigante de tecnologia integra lista crescente de empresas de Silicon Valley que fecham parcerias com as forças armadas dos EUA. Alto custo pode chegar a 200 milhões de dólares por laboratório de IA, segundo fontes avançadas pela reportagem.
Entre os parceiros citados, constam Anthropic, OpenAI e xAI, com contratos de uso de IA em redes classificadas. A iniciativa ocorre em meio a resistência de parte de funcionários e vigilância de governos sobre o tema.
O texto do acordo inclui que a empresa ajudará a ajustar as configurações de segurança e filtros de IA conforme demanda do governo, conforme apurado. A cláusula também estabelece que o sistema de IA não deve ser usado para vigilância doméstica em massa ou armas autônomas sem supervisão humana.
Porém, o acordo não concede a Google o direito de controlar ou vetar decisões operacionais do governo, segundo a reportagem. O Pentágono não comentou o assunto até o momento.
Google afirmou apoiar agências públicas em projetos classificados e não classificados. A empresa reiterou que a IA não deve ser usada para vigilância de massas nem para armas autônomas sem supervisão humana adequada.
A companhia acrescentou que disponibilizar acesso via API aos seus modelos comerciais, inclusive em infraestrutura Google, com práticas do setor, é uma abordagem responsável para a segurança nacional. A assessoria não detalhou mais.
Reações internas não são recentes. Em março, trabalhadores expressaram preocupação com usos potencialmente prejudiciais da IA. Mais de 600 funcionários assinaram carta aberta ao CEO Sundar Pichai pedindo recusa de workloads classificados.
Escolha de manter o acordo ocorre após mudanças em diretrizes de IA da Alphabet, com remoção de promessas sobre não usar IA para armas ou vigilância. Líder de IA, Demis Hassabis, sinalizou que IA é relevante para a segurança nacional.
Histórico de resistência interna já influenciou decisões anteriores. Em 2018, milhares de funcionários protestaram contra uso de IA em análise de imagens de drones no Projeto Maven, levando à não renovação do contrato. Posteriormente, Palantir assumiu parte da função.
Entre na conversa da comunidade