- Anthropic afirma que Claude Mythos encontra vulnerabilidades de cyberssegurança em nível superior ao humano e diz que o uso indevido poderia ter consequências graves para economias, segurança pública e nacional.
- Críticos dizem que empresas de IA promovem apocalipse para manter o foco no medo e justificar controles, enquanto reclamam de danos já causados pela indústria.
- Especialistas levantam dúvidas sobre Mythos, apontando ausência de métricas padrão (taxa de falsos positivos) e a falta de comparação com ferramentas já usadas por especialistas em segurança.
- Históricos exemplos mostram que grandes nomes da IA já anunciaram receios para justificar não liberar tecnologias, como ocorreu com o GPT‑2 da OpenAI, embora tenham lançado posteriormente.
- O debate envolve incentivos corporativos: narrativa de fim do mundo pode favorecer o poder das empresas e atrasar regulações, enquanto Mythos busca parcerias para corrigir vulnerabilidades.
O jornal acompanha a polêmica em torno de Claude Mythos, o novo modelo de IA da Anthropic. A empresa afirmou, em blog divulgado no início de abril, que Mythos detecta vulnerabilidades de cibersegurança em nível superior ao de especialistas humanos, com potenciais impactos econômicos, de segurança pública e nacional se a tecnologia for mal utilizada. A empresa também disse estar buscando parcerias para corrigir falhas antes que haja exploração por hackers.
Diversos especialistas questionam as alegações, embora a discussão vá além de Mythos. Analistas do setor apontam que executivos de grandes fornecedores de IA costumam acender o medo público sobre riscos para justificar mudanças regulatórias e disputas de mercado. A narrativa de apocalipse tecnológico é vista por alguns como estratégia de comunicação para manter o foco nas propriedades da tecnologia e nos incentivos das empresas.
Contexto da indústria
A discussão envolve figuras que já estiveram ligadas a iniciativas de IA de alto perfil. Em 2019, quando o OpenAI lançou o GPT-2, houve receio sobre usos maliciosos; meses depois, a empresa tornou o modelo amplamente disponível. Políticas de segurança e declarações públicas sobre responsabilidade acompanharam o processo, sem impedir avanços no uso prático da tecnologia.
A disputa também envolve a percepção pública sobre reguladores, mercado de capitais e governança. Líderes empresariais, inclusive ex-CEOs, assinaram declarações pedindo mitigação de riscos e pausas estratégicas para desenvolvimento de IA avançada. O tema envolve incentivos para avançar, ao mesmo tempo em que se busca credibilidade institucional em segurança.
O que se discute sobre Mythos
A Anthropic afirma que Mythos já identificou milhares de vulnerabilidades de alto risco em ambientes tecnológicos, afirmando ter parcerias com dezenas de organizações para correção de falhas. Críticos contestam métricas como a taxa de falsos positivos e comparam o desempenho com ferramentas consolidadas de análise de código, sem divulgação de dados completos pela empresa.
Especialistas ponderam que ferramentas de varredura de código são úteis, mas é preciso transparência sobre métodos e comparações com padrões do setor. A ausência de dados sobre desempenho relativo alimenta ceticismo sobre o potencial prático da tecnologia e sobre a real capacidade de Mythos em evitar falhas de segurança.
Perspectivas sobre governança e impactos
Analistas destacam que as preocupações com IA costumam se cruzar com discussões sobre governança, privacidade, empregos e impactos ambientais. Organizações de pesquisa e empresas continuam a enfatizar a necessidade de equilíbrio entre inovação e salvaguardas. A reportagem buscou posicionamento da OpenAI sobre o tema, que ressaltou princípios democráticos e decisões compartilhadas em pautas de IA.
Especialistas ressaltam que a ameaça de transformar a tecnologia em destruição global não é comprovada, mas medidas de segurança continuam relevantes. A discussão pública permanece intensa, com argumentos sobre como regular, financiar e orientar o desenvolvimento de IA sem frear avanços tecnológicos.
Entre na conversa da comunidade