Em Alta NotíciasConflitosPessoasAcontecimentos internacionaiseconomia

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Justiça rejeita a classificação de Anthropic como ameaça à segurança nacional

Justiça dos EUA bloqueia rotulagem de Anthropic como risco de segurança; injunção preserva uso da tecnologia e aponta retaliação à Primeira Emenda

FILE - Dario Amodei, CEO and co-founder of Anthropic, attends the annual meeting of the World Economic Forum in Davos, Switzerland, Jan. 23, 2025.
0:00
Carregando...
0:00
  • Um juiz federal na Califórnia concedeu injunção que impede a aplicação da ordem do governo que classificou Anthropic como “risco de cadeia de suprimentos” à segurança nacional.
  • A decisão aponta que a medida seria uma retaliação de afronta à Primeira Emenda e poderia “paralisar” a Anthropic, citando o uso de uma autoridade militar rara contra adversários.
  • O governo dos Estados Unidos havia anunciado, em fevereiro, que cortaria vínculos com a Anthropic após a empresa se recusar a permitir uso militar irrestrito do modelo Claude, incluindo armas autônomas letais sem supervisão humana.
  • A Anthropic moveu duas ações: uma para reconsiderar a designação de risco da cadeia de suprimentos e outra por violação à liberdade de expressão garantida pela Primeira Emenda.
  • A ordem permanece permitindo que a tecnologia da Anthropic continue sendo usada pelo governo e por empresas privadas que atuam com o Departamento de Guerra até a resolução do processo.

Ação judicial interrompe a sinalização de Anthropic como ameaça à segurança nacional. A decisão de um juiz federal garantiu uma liminar contra a ordem do governo que rotulava a empresa de IA como “risco de cadeia de suprimentos”. A medida ocorreu após Trump e o secretário de Defesa, Pete Hegseth, anunciarem a retirada de práticas com a Anthropic.

A disputa envolve o uso da tecnologia Claude, modelo de IA da Anthropic. O governo dos EUA havia restringido o uso da ferramenta por agências federais, incluindo possível uso em direção a armas autônomas letais, além de vigilância ampla, sob a justificativa de segurança nacional.

A Justiça foi imputada pela forma como o governo classificou a Anthropic. O caso sustenta que a designação seria retaliatória contra a empresa por discordar da política pública. O tribunal também avaliou ações consideradas arbitrárias e potencialmente capazes de sufocar o trabalho da empresa.

Anthropic moveu duas ações contra o governo. Uma busca reconsideração da designação de risco da cadeia de suprimentos; a outra questiona a violação do direito constitucional à expressão. A decisão impede alterações imediatas nas operações da Anthropic com o governo.

Enquanto o litígio continua, a tecnologia da Anthropic pode permanecer em uso pelo governo e por parceiros externos que colaboram com o Departamento de Guerra, até que haja desdobramentos judiciais. A disputa gira em torno de salvaguardas legais, direitos de expressão e o papel da IA na defesa nacional.

Medidas legais e desdobramentos

O caso envolve interpretação da Primeira Emenda e limites da autoridade militar para dirigir tecnologia de IA. A judicialização aponta para a necessidade de critérios claros na classificação de riscos à segurança nacional. As próximas etapas devem esclarecer o alcance de restrições administrativas.

Euronews Next reportou os detalhes da audiência e das alegações apresentadas pela Anthropic. A empresa declarou que a decisão evita danos maiores e preserva espaço para debate público e desenvolvimento tecnológico.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais