Em Alta NotíciasPessoasAcontecimentos internacionaisConflitosPolítica

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Google bloqueia ferramenta de IA usada para cibercrime

Google impede uso de ferramenta de invasão com IA; o caso sinaliza IA como recurso tangível na cibersegurança e alerta para usos criminosos

Google impede uso de ferramenta automatizada para cibercrime desenvolvida com IA
0:00
Carregando...
0:00
  • O Google, pela divisão de cibersegurança, identificou possível uso de IA para criar uma ferramenta de invasão e conseguiu impedir que fosse utilizada.
  • O caso envolveu a exploração de uma vulnerabilidade de dia-zero, com um script em Python para obter credenciais e acessar redes internas.
  • O Threat Intelligence Group do Google indica grande confiança de que um modelo de IA ajudou a descobrir e explorar a vulnerabilidade, que ficou exposta por meses.
  • A desenvolvedora da ferramenta foi alertada antes do uso contra usuários, reforçando a ideia de que IA no desenvolvimento de cibersegurança é uma realidade tangível.
  • Detalhes sobre o grupo, o uso exato do modelo de linguagem e se foi utilizado o Gemini ou Mythos não foram divulgados; especialistas destacam o risco de uso criminoso de IA e a expansão de ferramentas automatizadas.

O Google informou nesta segunda-feira que identificou pela primeira vez o uso de inteligência artificial de forma inédita para desenvolver uma ferramenta voltada a invasões. A divisão de cibersegurança conseguiu impedir que o sistema criminoso causasse danos a uma vítima antes que fosse explorado.

O episódio envolveu uma tentativa de explorar uma vulnerabilidade de dia zero, ou seja, uma brecha não descoberta previamente pela proteção de um sistema. O Threat Intelligence Group do Google afirmou que há forte suspeita de que o atacante utilizou um modelo de IA para auxiliar na descoberta e na exploração da falha.

A empresa ressalta que o caso reforça uma preocupação entre especialistas: o uso da IA no desenvolvimento de ferramentas de cibersegurança é uma realidade tangível e tende a ficar mais acessível. Com isso, softwares automatizados que encontram brechas podem também favorecer atividades criminosas.

O que se sabe e o que ainda não se sabe sobre a IA cibercrimosa

Até o momento, não houve divulgação de nomes do grupo ou da vítima, mas o Google apontou a participação de atores de ameaça de grande relevância e de uma desenvolvedora de software de acesso a sistemas. A brecha visada envolvia um autenticador de múltiplos fatores com o objetivo de obter acesso a redes internas sem logins vazados, por meio de um script em Python.

Segundo a empresa, a desenvolvedora foi alertada antes de o mecanismo ser utilizado contra usuários, ainda que a vulnerabilidade tenha ficado exposta por meses. O Google não confirmou qual modelo de linguagem teria sido utilizado, afirmando apenas que não seria o Gemini nem o Mythos, ambos citados em contextos anteriores sobre IA avançada.

Situação atual e impactos potenciais

As informações divulgadas apontam que, apesar do episódio, a resposta rápida permitiu mitigar o risco e impedir danos significativos. Profissionais do setor destacam que esse tipo de incidente evidencia a necessidade de reforçar protótipos de proteção, bem como monitoramento contínuo de IA aplicada a segurança.

Empresas que desenvolvem chatbots com IA já alertavam para possibilidades de uso malicioso, ao mesmo tempo em que utilizam ferramentas de IA para identificar vulnerabilidades e fortalecer sistemas. O caso do Google reforça a importância de controles robustos e de parcerias entre setores público e privado para acompanhar a evolução tecnológica.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais