- Hoje o rosto funciona como senha para acesso a condomínios, ao portal gov.br, ao PIX e até para marcar presença em escolas, gerando o risco de identidade permanente se houver vazamento de dados biométricos.
- O Brasil tem sido referido como campo de testes para tecnologias biométricas, com LGPD tratando biometria como dado sensível, e casos como o Paraná, onde uma empresa estrangeira implantou o reconhecimento facial em 1 milhão de alunos.
- Tecnologias que foram barradas na Europa por invasividade são usadas no Brasil; há preocupação com consentimento real de crianças para vigilância, o que motivou a interrupção de projetos semelhantes na Suécia e na França.
- O racismo algorítmico é destacado como problema: IA tende a errar mais para pessoas negras e mulheres, com exemplos como leitura de emoções no Metrô de São Paulo e falhas de presença escolar no Paraná que afetam programas sociais.
- Para reduzir riscos, defende-se vigilância ética com propostas como o Projeto de Lei 1225/2026, priorizando transparência, consentimento real e domínio humano sobre decisões automatizadas.
O que antes era ficção virou rotina no Brasil: o rosto das pessoas é usado como senha para abrir portões, validar acessos a plataformas como o gov.br, autorizar pagamentos via PIX e registrar presença escolar. A prática avança como parte da chamada Inteligência Cotidiana, prometendo agilidade à custa da privacidade.
Acesso rápido, mas com custo invisível. O rosto, diferente de senhas tradicionais, não pode ser trocado. Se dados biométricos vazarem, a identidade pode ficar exposta para sempre. Não existe um “reset” para o rosto, o que coloca a privacidade em risco permanente.
Brasil: laboratório de tecnologias barradas em outros países
A Lei Geral de Proteção de Dados classifica biometria como dado sensível, exigindo cuidados extras. O país tem sido visto por especialistas como campo de testes para empresas estrangeiras. Tecnologias proibidas na Europa por invasividade entram de modo mais discreto no Brasil.
Casos relevantes no Paraná mostram uso de reconhecimento facial para monitorar cerca de 1 milhão de alunos diariamente. Em paralelo, autoridades europeias vetaram a tecnologia em escolas por questões de consentimento real de crianças para vigilância constante. Vazamentos biométricos escolares são apontados como risco de exposição identitária ao longo da vida.
Erros da máquina e preconceito algorítmico
Não existe IA perfeita; trata-se de cálculos de probabilidade. Quando a margem de erro se impõe, as consequências podem ser graves. A pesquisadora Nina da Hora cita o que chama de racismo algorítmico: maior probabilidade de falhas para pessoas negras e mulheres.
No Brasil, a realidade já traz impactos diretos. O Metrô de São Paulo foi alvo de decisão judicial envolvendo uso de câmeras para “ler emoções” e direcionar publicidade, sem consentimento explícito. No Paraná, falhas no controle de presença afetam possíveis benefícios do Bolsa Família, que dependem desse registro.
Sinais de uma mudança no modo de operar
Especialistas alertam para o risco de acomodação humana diante de sistemas automatizados. Se decisões entram sempre por meio de máquinas, pode faltar questionamento crítico. A substituição de funções por IA pode reduzir oportunidades de aprendizado analítico em jovens profissionais.
Profissionais podem se tornar apenas operadores de uma “caixa-preta”, aceitando resultados sem contestação. O desafio é manter autonomia humana para questionar ou desligar sistemas quando necessário.
Rumo a uma vigilância ética e transparente
O avanço tecnológico segue, porém há demandas por regras claras. O Projeto de Lei 1225/2026, apresentado pela Deputada Ana Paula Lima, propõe limitar que algoritmos detenham a palavra final nas escolas. Transparência, consentimento real e domínio humano são apontados como pilares de cidades verdadeiramente inteligentes.
Para avançar, especialistas defendem auditorias que expliquem o funcionamento de softwares, opções de recusas sem punição e manutenção do controle humano sobre decisões críticas. A eficiência tecnológica não pode se confundir com controle permanente sobre a identidade.
Entre na conversa da comunidade