Crescimento acelerado da vigilância biométrica no Brasil
Sorria! Seu rosto pode estar sendo não apenas filmado, mas também classificado, comparado e identificado. Na maioria das vezes, tudo ocorre sem o seu conhecimento.
Uma pesquisa recente da Defensoria Pública da União (DPU), em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), revela os riscos e a rápida expansão das tecnologias de reconhecimento facial (TRFs) no Brasil.
O relatório Mapeando a Vigilância Biométrica, divulgado nesta quarta-feira (7), mostra que, após a Copa do Mundo de 2014, o país se tornou um terreno fértil para essas tecnologias. Elas surgiram com a promessa de facilitar a identificação de criminosos e a localização de pessoas desaparecidas.
376 projetos podem vigiar até 83 milhões de brasileiros
Segundo o estudo, existem pelo menos 376 projetos ativos no Brasil. Juntos, têm potencial para vigiar cerca de 83 milhões de pessoas, aproximadamente 40% da população brasileira.
Esses sistemas já movimentaram mais de R$ 160 milhões em investimentos públicos. Contudo, quatro estados — Amazonas, Maranhão, Paraíba e Sergipe — não forneceram informações para a pesquisa, realizada entre julho e dezembro de 2024.
Além disso, apesar do avanço da tecnologia, o país ainda carece de leis específicas e de mecanismos eficazes de controle externo. Isso aumenta o risco de erros graves, violações de privacidade, discriminação e uso indevido de recursos públicos.
Falhas e discriminação racial preocupam especialistas
Entre 2019 e abril de 2025, o CESeC documentou 24 falhas nos sistemas de reconhecimento facial. O caso mais conhecido envolveu João Antônio Trindade Bastos, personal trainer de 23 anos.
Em abril de 2024, ele foi erroneamente identificado como foragido durante um jogo no Estádio Lourival Batista, em Aracaju (SE). Bastos, que é negro, relatou o constrangimento sofrido e destacou as falhas do sistema. O episódio levou o governo de Sergipe a suspender o uso da tecnologia pela Polícia Militar.
Pesquisas internacionais reforçam essas preocupações. Em alguns casos, as taxas de erro são até 100 vezes maiores para negros, indígenas e asiáticos em comparação com pessoas brancas.
Não por acaso, o Parlamento Europeu alertou, em 2021, que imprecisões técnicas podem levar a resultados enviesados e discriminatórios.
Marco legal ainda em debate
Em dezembro de 2024, o Senado aprovou o Projeto de Lei 2338/2023, que busca regulamentar o uso da inteligência artificial, incluindo sistemas biométricos na segurança pública.
Contudo, especialistas alertam que o texto possui tantas exceções que, na prática, pode autorizar o uso generalizado da tecnologia.
Além disso, o histórico de abusos e a falta de controle eficaz ampliam as preocupações.
Recomendações e demandas por transparência
Os pesquisadores defendem um debate público qualificado, com participação da sociedade civil, acadêmicos e órgãos públicos.
Entre as medidas urgentes recomendadas estão:
-
Aprovação de uma lei nacional específica;
-
Padronização de protocolos com respeito ao devido processo legal;
-
Auditorias independentes e periódicas;
-
Maior transparência em contratos e bases de dados;
-
Limitação do tempo de armazenamento de dados biométricos;
-
Fortalecimento do controle sobre empresas privadas que operam TRFs;
-
Exigência de autorização judicial para uso das informações obtidas.
Pablo Nunes, coordenador-geral do CESeC, afirmou: “O relatório evidencia tanto os vieses raciais quanto o mau uso de recursos públicos e a falta de transparência na implementação da tecnologia”.