Em Alta NotíciasPessoasAcontecimentos internacionaisConflitosPolítica

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?

Governança de IA: reguladores apontam lacunas de controle

APRA alerta lacunas na governança de IA em instituições financeiras, com falhas em monitoramento de modelos e gestão de riscos

AI agent governance takes focus as regulators flag control gaps
0:00
Carregando...
0:00
  • A Autoridade Australiana de Regulação Prudencial (APRA) alertou que a governança e a garantia de agentes de IA estão mal geridas, após revisão em final de 2025 de grandes entidades reguladas.
  • Bancos e fundos de pensão já usam IA em operações internas e com clientes, mas a maturidade em gestão de risco e resiliência operacional varia entre as empresas avaliadas.
  • Os conselhos demonstraram interesse em IA para produtividade e experiência do cliente, mas ainda estão aumentando a gestão de riscos relacionados à IA.
  • Preocupa a dependência de apresentações de fornecedores e a falta de scrutínio sobre riscos como comportamento imprevisível de modelos e impactos de falhas em operações críticas.
  • A APRA aponta lacunas em monitoramento de comportamento de modelos, gestão de mudanças, desativação de ferramentas e inventários de IA, além da necessidade de envolvimento humano em decisões de alto risco e de melhorias em cibersegurança e acesso/identidade.

APRA, o regulador financeiro da Austrália, emitiu alerta sobre governança de agentes de IA e práticas de garantia, diante da expansão de IA em operações internas e com clientes nas instituições reguladas.

A revisão alvo ocorreu no fim de 2025, envolvendo grandes entidades reguladas. A pesquisa mostrou uso de IA em todas as entidades analisadas, porém o amadurecimento em gestão de riscos e resiliência operacional variou.

Boards mostraram interesse em IA para produtividade e experiência do cliente, mas muitos ainda estão construindo a gestão dos riscos associados. Houve também preocupação com a dependência de apresentações de fornecedores.

Desafios na governança de IA

A APRA alertou para sacrifícios na fiscalização de riscos, como comportamento imprevisível de modelos e impactos de falhas em operações críticas. As entidades precisam alinhar estratégia de IA ao apetite de risco.

Além disso, houve identificação de lacunas em monitoramento de comportamento dos modelos, gestão de mudanças e descomissionamento. Inventários de ferramentas e titularidade de instâncias de IA são necessários, assim como envolvimento humano em decisões de alto risco.

A APRA apontou ainda a necessidade de controles sobre fluxos de trabalho autônomos, gestão de acesso privilegiado, configuração e correção de falhas. Testes de segurança de código gerado por IA também foram recomendados.

Observou-se dependência de um único fornecedor para várias instâncias de IA e poucas estratégias de saída ou substituição. A APRA também destacou que IA pode estar presente em dependências upstream não visíveis às entidades.

#### Identidade, acesso e padrões de autenticação

A atenção a identidade e permissões aparece em novidades de padrões, com a FIDO Alliance criando o Agentic Authentication Technical Working Group. A ajuda é para autenticar ações de softwares e agentes, não apenas ações humanas.

Foram apresentadas propostas de soluções por fornecedores para avaliação, como protocolos de pagamentos por IA e estruturas de intenção verificável. Guias de segurança de IA do CIS também conectam controles a grandes modelos.

A APRA reforça que a segurança deve abranger também IA gerada por código e integrações inseguras, além de exigir participação humana em decisões críticas. Instâncias de IA distribuídas podem exigir novas práticas de IAM.

Aguarda-se que as entidades revisem seu ecossistema de IA, incluindo dependências e cadeias de suprimento, para reduzir vulnerabilidades e melhorar a governança de risco.

Comentários 0

Entre na conversa da comunidade

Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais