Os perigos do reconhecimento facial: entre erros e vigilância – Colaboradores

Leia em 5 minutos

Imagine que você está saindo do metrô em uma tarde comum. Minutos depois, policiais se aproximam e informam que você é suspeito de um crime. Surpreso, você tenta argumentar, mas as imagens captadas por um sistema de reconhecimento facial dizem o contrário. Seu rosto foi erroneamente identificado com o de outra pessoa. Você é levado para averiguação, sua rotina interrompida, sua reputação colocada em risco. Essa não é uma cena de ficção científica, mas uma possibilidade real em um mundo cada vez mais vigiado por tecnologias que, embora sofisticadas, estão longe de ser infalíveis.

O reconhecimento facial tem sido amplamente adotado como ferramenta de segurança pública e, embora traga vantagens, apresenta riscos consideráveis. Diversos programas em todo o mundo são objeto de críticas em razão dos índices de erro, da exposição a que sujeita os cidadãos, privando-os de sua privacidade, e por serem, em alguns casos, utilizados como ferramenta de vigilância e controle social.  Em 2020, IBM, Microsoft e Amazon anunciaram a cessação do fornecimento de tecnologias de reconhecimento facial para a aplicação da lei. Arvind Krishna, CEO da IBM, enviou carta ao Congresso dos Estados Unidos da América informando que não ofereceria mais software de análise ou reconhecimento facial de uso geral, destacando, no texto, riscos referentes a vigilância em massa, criação de perfil racial, violações de direitos humanos e liberdades básicas. O gesto das empresas foi simbólico e põe em evidência a necessidade de enfrentamento dos riscos do uso da ferramenta. 

É importante ser observado, ainda, que os erros associados ao instrumento atingem de maneira mais evidente grupos específicos, como pessoas negras e mulheres, por má formação das bases de dados, o que leva a grave discriminação nas abordagens realizadas. Nesses casos, enfrenta-se, ainda, uma inversão do ônus da prova, que passa a ser do cidadão ao ter que demonstrar sua inocência diante de uma presunção dada pelo recurso tecnológico. Ademais, é relevante destacar que a imagem de todos que passam em frente às câmeras é capturada, recorrentemente sem aviso, em vigilância que põe em ameaça a privacidade e as liberdades individuais. Conclusão importante é a de que a coleta de dados num local público constitui também intervenção na vida privada das pessoas. 

Os exemplos acima demonstram os perigos que a tecnologia de vigilância pode gerar em uma sociedade democrática, levando à discussão acerca dos limites que podem ser impostos ao seu exercício pelo Estado. Visando a trazer regulamentação sobre o tema, foi apresentado, em 2022, o Projeto de Lei nº 3069, o qual regulamenta o uso do reconhecimento facial automatizado pelas forças de segurança pública. A matéria tramita na Câmara dos Deputados e cuida de detalhes práticos para aplicação do sistema, como os procedimentos em que a ferramenta de reconhecimento facial pode ser utilizada, a necessidade de indicação, por meio de placas informativas, dos locais onde houver captura de imagens e a obrigatoriedade de confirmação por agente público responsável. No entanto, o texto apresenta falhas preocupantes: não há normas claras sobre transparência, auditoria, responsabilidade em casos de erro ou limites para o compartilhamento de informações.

O reconhecimento facial pode parecer um avanço no combate ao crime, mas seu uso indiscriminado e sem regulamentação adequada representa uma grave ameaça aos direitos fundamentais de todos os cidadãos. Riscos de identificação errônea, privação indevida de liberdade, ampla margem para rastreamento e monitoramento social demonstram a necessidade de cautela na abordagem do tema e racionalidade nas discussões públicas, com aprofundamento de questões sensíveis a todo corpo social. Com cautela, poderá ser assegurado um ambiente de segurança, mas também de liberdade e justiça a partir da proteção das pessoas singulares no tratamento de seus dados pessoais e na proteção de seus direitos fundamentais.

Kelviane Barros é presidenta da ADPEC

Compartilhe esta notícia