- Em estudo da ISACA, 59% dos profissionais de confiança digital não souberam dizer quão rápido seria possível interromper um sistema de IA durante incidente de segurança; apenas 21% disseram conseguir agir em até trinta minutos.
- Apenas 42% dos respondentes tinham confiança de analisar e esclarecer incidentes graves de IA, o que aumenta o risco de falhas operacionais e de segurança.
- 20% não sabem quem seria responsável por danos causados por IA; apenas 38% indicaram o Conselho ou altos executivos como responsáveis.
- Especialistas defendem que a adoção de IA não deve ser lenta, mas reestruturada com governança integrada, modo de pausá-la e responsabilização clara desde o início.
- Apesar de quarenta por cento aprovarem quase todas as ações de IA com aprovação humana e vinte e seis por cento avaliarem resultados, a falta de governança demonstra que supervisão humana isolada pode não evitar problemas.
A maioria das organizações ainda não consegue medir quão rápido pode interromper e interromper uma emergência de IA nem explicar a causa do problema. Essa é a constatação de um estudo da ISACA sobre falhas e riscos de sistemas de IA.
Entre os entrevistados, 59% dos profissionais de confiança digital não entenderam quanto tempo levaria para interromper um sistema de IA durante um incidente de segurança. Apenas 21% disseram conseguir atuar de forma relevante em até meia hora.
A pesquisa aponta que sistemas de IA corrompidos podem continuar operando sem controle, aumentando o risco de danos irreversíveis. O CEO da Kovant, Ali Sarrafi, destaca que a governança de IA falha ao ser integrada a fluxos críticos sem supervisão adequada.
Riscos e governança
Apenas 42% dos respondentes tinham confiança em analisar e esclarecer incidentes graves de IA, abrindo margem para falhas operacionais e riscos de segurança. A falta de explicações para Reguladores e lideranças pode gerar sanções legais e repercussão pública.
A responsabilidade é outra área nebulosa: 20% não sabem quem seria responsável por danos causados por IA, e apenas 38% apontaram o Conselho ou executivos como responsáveis finais. Sarrafi defende que a adoção de IA não deve ser retardada, mas redesenhada com uma camada de gestão estruturada.
Caminhos para melhoria
A pesquisa indica que o atraso na adoção não resolve o problema; a gestão precisa ser repensada. Sistemas devem ser tratados como “empregados digitais” com propriedade clara, caminhos de escalonamento definidos e capacidade de pausar ou anular ações rapidamente quando surgem riscos.
Alguns sinais positivos aparecem: 40% dos entrevistados disseram que a aprovação humana acontece na maioria das ações de IA antes da implantação, e 26% avaliam os resultados. Mesmo assim, sem governança robusta, a supervisão humana pode não bastar para evitar problemas.
Observações gerais
As conclusões destacam que a forma de implantar IA varia entre setores, com mais de um terço das organizações não exigindo que colaboradores divulguem onde a IA é usada em produtos de trabalho, aumentando lacunas de visibilidade.
A necessidade de mudanças estruturais na integração e nas ações da IA fica evidente para evitar danos reputacionais e financeiros. Sem controle eficaz, erros mesmo pequenos podem ter impactos difíceis de reparar.
Entre na conversa da comunidade