- O Wall Street Journal afirma que Claude, modelo de IA da Anthropic, foi usado pelo exército dos EUA em operação para capturar Nicolás Maduro na Venezuela, via parceria da Anthropic com a Palantir.
- A ofensiva na capital Caracas incluiu bombardeios, com 83 mortes, segundo o ministério da defesa da Venezuela.
- A Anthropic proíbe o uso de Claude para fins violentos, desenvolvimento de armas ou vigilância; não ficou claro como a ferramenta foi empregada.
- Não houve comentário oficial da Anthropic ou do Departamento de Defesa dos EUA; a Palantir também não comentou.
- A notícia destaca o aumento do uso de IA por forças militares e aumenta o debate sobre riscos e regulações de tecnologias autônomas.
O jornalismo aponta que a operação de possível sequestrar Nicolás Maduro ocorreu durante uma incursão dos EUA na Venezuela. Segundo o Wall Street Journal, Claude, modelo de IA da Anthropic, foi utilizado pela força militar via parceria com a Palantir. A ação resultou em bombardeios na capital Caracas e no que a defesa venezuelana afirma ter deixado 83 mortos.
A reportagem cita fontes que não se identificam e afirma que o uso de Claude ocorreu por meio de uma parceria entre Anthropic e Palantir Technologies, contratada pelo governo dos EUA. A Anthropic não comentou o uso do sistema, enquanto o Pentágono não confirmou as alegações.
Segundo o WSJ, Claude tem capacidades que vão além da simples análise de textos, incluindo processamento de PDFs e controle de drones autônomos. A empresa informou que qualquer uso do modelo deve seguir suas políticas de uso, sem detalhar a aplicação na operação.
A Palantir reiterou que não comenta sobre as afirmações. A Anthropic, por sua vez, ressaltou que não houve confirmação oficial sobre o emprego de Claude, citando a necessidade de conformidade com políticas de uso.
A discussão sobre IA em operações militares vem crescendo, com outras forças reconhecendo a utilização de drones autônomos e sistemas de IA para alvos. Críticos apontam riscos de erros de alocação e danos civis em ações com AI.
Especialistas lembram que a integração de IA em conflitos exige regulação clara e salvaguardas para evitar abusos. O tema tem ganhado atenção de autoridades e da indústria, com debates sobre limites éticos e legais.
Entre na conversa da comunidade