Reconhecimento Facial e a Autenticidade: a questão de vieses étnicos

Reconhecimento Facial e a Autenticidade: a questão de vieses étnicos

Imagem de capa (Fonte: Leonardo IA)

Por João Pedro Vicente Ramalho

Nas últimas décadas, a tecnologia de reconhecimento facial evoluiu significativamente, passando de conceitos utópicos da ficção científica para se firmar como uma área estruturada da Ciência da Computação. Embora tenha alcançado resultados que se assemelham ao reconhecimento humano, essa tecnologia ainda está em desenvolvimento e apresenta limitações ao lidar com grupos étnicos diversos. Isso levanta preocupações sobre vieses raciais e suas implicações na sociedade. Esta matéria apresenta uma visão geral sobre a área e levanta questões que precisam ser consideradas. Boa leitura!

A evolução do reconhecimento facial

A biometria é uma forma de identificação ou autenticação de indivíduos baseada em características físicas ou comportamentais. Seu objetivo principal é utilizar dados pessoais únicos, como impressões digitais, voz, íris e face, em vez de senhas, para verificar a identidade de forma mais precisa.

Essa tecnologia, como a conhecemos hoje, surgiu por volta de 1900 em resposta à necessidade de métodos mais eficazes para identificar criminosos nos Estados Unidos (EUA). Nesse contexto, o Congresso Norte-Americano criou a Divisão de Identificação do Federal Bureau of Investigation (FBI) para desenvolver uma base de dados de criminosos e foragidos que, ao longo dos anos, evoluiu significativamente, ultrapassando 140 milhões de registros de impressões digitais. Desde então, diversos tipos de biometria foram desenvolvidos, incluindo impressões digitais, geometria da mão e, mais recentemente, o reconhecimento facial, que é o foco desta matéria. A Figura 1 abaixo ilustra seis marcos na evolução desta tecnologia.


Figura 1: Evolução cronológica do reconhecimento facial. Fonte: imagem gerada por Leonardo IA.
Na década de 90, essa tecnologia começou a se consolidar como uma área mais estruturada da Ciência da Computação. Foi nessa época que surgiram algoritmos avançados, como o Eigenfaces (Matthew Turk e Alex Pentland, 1991). Esse algoritmo analisa os componentes principais para transformar imagens faciais em dados estatísticos, permitindo a comparação automática.

A partir dos anos 2000, a tecnologia de reconhecimento facial se tornou mais confiável, impulsionada pelo aumento do poder computacional e pelo desenvolvimento de câmeras digitais de alta resolução. Um marco importante foi o Face Recognition Grand Challenge (FRGC), promovido pelo governo dos EUA em 2005, que testou a eficácia dos sistemas de reconhecimento facial em grandes bancos de dados e sob condições variadas, demonstrando que a tecnologia já possuía precisão suficiente para aplicações em segurança e vigilância.

O grande salto ocorreu na década de 2010, com a introdução de redes neurais profundas e modelos como o DeepFace (Facebook, 2014) e o FaceNet (Google, 2015). Esses modelos, baseados em redes neurais convolucionais — um tipo de rede projetada para analisar imagens e detectar padrões visuais — permitiram que o reconhecimento facial atingisse níveis significativos de precisão, com taxas de acerto superiores a 97%. Contudo, a biometria facial apresentou uma série de desafios quando aplicada em pesquisas de larga escala, como vieses de gênero, etários e étnicos.

Vieses étnicos mostram limitações da tecnologia

À medida que a tecnologia se popularizou em diversos setores na última década — incluindo segurança, vigilância e autenticação — os primeiros indícios de vieses em sistemas de reconhecimento facial começaram a chamar a atenção. Pesquisas dedicadas a analisar essas desigualdades foram conduzidas, como o trabalho realizado por Joy Buolamwini, pesquisadora do MIT Media Lab, em 2018.

Em sua publicação, Buolamwini avaliou três sistemas comerciais de reconhecimento facial amplamente utilizados: Microsoft, IBM e Face++. O estudo revelou que, enquanto esses sistemas apresentavam uma taxa de erro inferior a 1% ao reconhecer rostos de homens brancos, as taxas de erro aumentavam drasticamente para mulheres e pessoas de pele mais escura. Em alguns casos, a taxa de erro para mulheres negras chegava a 35%, o que expôs como essas tecnologias falham em atender a diversidade étnica e de gênero.

Essas descobertas impulsionaram pesquisas, como o trabalho de Buolamwini e de outros pesquisadores (Philipp Terhörst et al., 2021; e Christian Rathgeb et al., 2023), que demonstram como datasets desbalanceados são grandes causadores do viés demográfico. Além disso, bases como VGGFace2, MS-Celeb-1M e Casia-WebFace, amplamente utilizadas no treinamento de redes neurais, contêm milhões de imagens coletadas sem consentimento e com distribuições demográficas desequilibradas. A Casia-WebFace, por exemplo, tem 84,5% de rostos caucasianos, o que agrava a desigualdade nos resultados.

No entanto, os estudos mencionados também ressaltam que corrigir o desbalanceamento dos dados é apenas parte da solução. Criar bases demograficamente equilibradas é importante — veja a Figura 2, mas não resolve completamente o problema, pois outros fatores, como o ambiente de captura, também afetam a precisão dos algoritmos em razão da variação de luminosidade, qualidade e até bloqueios, como o uso de máscaras e óculos.


Figura 2: Ilustração de uma base de imagens etnicamente balanceada. Fonte: imagem gerada por Leonardo IA. Note que o “balanceamento” na imagem não considera outros fatores relevantes, como idade, tamanhos, formas, etc.

Patrick Grother, do National Institute of Standards and Technology (NIST), analisou esses outros fatores no seu trabalho intitulado “Face Recognition Vendor Test (FRVT)”, publicado em 2022. Sua pesquisa revelou que as taxas de falsos positivos variam entre grupos demográficos, como idade, gênero e raça, mesmo em imagens de alta qualidade. Além disso, a subexposição de indivíduos de pele escura e condições inadequadas de captura aumentam os erros. Grother argumenta que, para reduzir esses vieses, é fundamental melhorar a qualidade das imagens e os ambientes de captura, além de aperfeiçoar os algoritmos.

Embora a descoberta desses vieses tenha causado grande repercussão, as soluções para mitigar esses problemas não acompanharam a mesma velocidade do desenvolvimento e da adoção da tecnologia, o que contribuiu para que os vieses se perpetuassem. Isso está ligado a uma combinação de fatores, dentre eles:

  • Adoção rápida da tecnologia sem correções adequadas: O reconhecimento facial tem sido amplamente adotado em setores como segurança, vigilância, contratação e sistemas financeiros. No entanto, essa rápida expansão ocorreu sem que as correções necessárias fossem implementadas para mitigar os vieses. Como resultado, o problema se enraizou em várias dessas aplicações;
  • Falta de padrões regulatórios eficazes: Embora já existem normas e regulamentos que visam gerenciar o uso ético de dados biométricos, como o Regulamento Geral de Proteção de Dados (GDPR) na Europa, ainda existe um longo caminho para que diretrizes como esta sejam incorporadas amplamente. Alguns resultados já podem ser vistos, como o descontinuamento de base MS-Celeb-1M, em 2019, por conta da falta de consentimento dos indivíduos cujas imagens foram usadas.

Apesar dos esforços para mitigar esses problemas, os vieses em sistemas de reconhecimento facial continuam a ser reproduzidos e amplificados, impactando diretamente a aplicação dessa tecnologia. Essas falhas não são meramente técnicas; elas têm consequências profundas no cotidiano, especialmente para grupos sub-representados. Desde casos de falsas identificações até a amplificação de desigualdades sociais, os efeitos dos vieses em reconhecimento facial vão muito além de erros estatísticos.

Um dos primeiros casos de falha de reconhecimento facial a ganhar destaque na mídia ocorreu em janeiro de 2022, quando Robert Williams, um homem negro norte-americano, foi preso injustamente devido a um falso positivo no sistema biométrico da polícia de Detroit. O erro aconteceu ao comparar a imagem de segurança de uma loja roubada com a foto da carteira de motorista de Robert – imagens de segurança frequentemente são de baixa qualidade e luminosidade, o que contribui para os erros.


Figura 3: Ilustração da comparação facial em bases de imagens. Fonte: imagem gerada por Leonardo IA.

Embora possa parecer um episódio de Black Mirror®, casos como esses já são uma realidade no Brasil. O início oficial da implementação de tecnologias de reconhecimento facial na segurança pública brasileira ocorreu em 2019. Após um ano de uso em cinco estados, dados da Rede de Observatórios da Segurança revelaram que 90,5% das pessoas presas com o uso dessa tecnologia eram negras.

Esses dados ressaltam como os vieses no reconhecimento facial trazem impactos reais e prejudiciais, reforçando discriminações raciais e sociais. A adoção acelerada dessa tecnologia, sem regulamentações adequadas, têm agravado o problema. Isso reforça a necessidade de uma mudança de abordagem, que priorize um uso mais ético e responsável. 

A busca por soluções

Esforços estão sendo aplicados para mitigar vieses com o desenvolvimento de pesquisas que visam tornar a tecnologia mais justa e representativa. Uma das abordagens é o uso de dados sintéticos, isto é, gerados por inteligência artificial. Com eles, é possível criar imagens faciais que incluam uma maior diversidade de grupos étnicos e sociais, corrigindo o desequilíbrio presente nos conjuntos de dados tradicionais. Essa solução contorna questões éticas, como o uso indevido de imagens pessoais, conforme mencionado anteriormente.

Além disso, essa proposta também ajuda a resolver outros problemas enfrentados pelos modelos de reconhecimento facial, como a falta de uma quantidade satisfatória de imagens para treinamento. No entanto, um estudo aponta que as imagens sintéticas tendem apresentar uma variação intra-classes limitada , ou seja, possuem pouca diversidade dentro de um mesmo grupo (variações de expressões, ângulos e iluminação), o que impacta diretamente a acurácia dos modelos (Pietro Melzi et al., 2024).

Além dos dados sintéticos, outro caminho sendo explorado é a criação de datasets mais balanceados, sem a utilização de dados sintéticos. Um exemplo é o BUPT-BalancedFace, uma base de imagens desenvolvida com o objetivo de aumentar a precisão do reconhecimento facial para diferentes etnias. A base é composta por 1,3 milhões de imagens de 28 mil celebridades, apresentando uma distribuição equilibrada entre quatro categorias étnicas: caucasianos, indianos, asiáticos e africanos, com aproximadamente 7 mil identidades para cada etnia.

Por fim, uma abordagem que tem mostrado resultados promissores é a combinação de dados sintéticos e reais. Um estudo sugere que essa estratégia não apenas complete as lacunas deixadas pelos datasets descontinuados, mas também aprimore os modelos, tornando-os mais justos e precisos para diferentes etnias (Pietro Melzi et al., 2024). Ao unir a flexibilidade dos dados sintéticos com a autenticidade dos dados reais, os cientistas estão conseguindo melhorar o desempenho dos algoritmos e reduzir os vieses que impactam grupos sub-representados.

Em suma, o reconhecimento facial, enquanto tecnologia, deve ser abordado com responsabilidade e ética. À medida que novas soluções sejam desenvolvidas, a implementação cuidadosa dessas tecnologias poderá não apenas melhorar a acurácia, mas também garantir que todas as pessoas sejam tratadas de maneira justa e equitativa, como estabelecido pelos princípios da Declaração Universal dos Direitos Humanos de 1948.

Artigo 2. 1. Todo ser humano tem capacidade para gozar os direitos e as liberdades estabelecidos nesta Declaração, sem distinção de qualquer espécie, seja de raça, cor, sexo, língua, religião, opinião política ou de outra natureza, origem nacional ou social, riqueza, nascimento, ou qualquer outra condição.

Referências

AMERICAN CIVIL LIBERTIES UNION. Williams v. City of Detroit. Michigan, 2024. Disponível em: https://www.aclu.org/cases/williams-v-city-of-detroit-face-recognition-false-arrest. Acesso em: 31 out. 2024.

BAE, G. et al. DigiFace-1M: 1 Million Digital Face Images for Face Recognition. 2023 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2023.

BUOLAMWINI, J.; GEBRU, T. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1-15, 2018.

FEDERAL BUREAU OF INVESTIGATION (FBI). Next Generation Identification (NGI) System Fact Sheet. Janeiro 2024. Disponível em: https://le.fbi.gov/file-repository/january-2024-ngi-system-fact-sheet-021524.pdf/view. Acesso em: 31 out. 2024.

GROTHER, P. Face Recognition Vendor Test (FRVT) Part 8: Summarizing Demographic Differentials. National Institute of Standards and Technology (NIST), 2022.

KONG, X. et al. Mitigate Bias in Face Recognition using Skewness-Aware Reinforcement Learning. arXiv, 2019.

MELZI, P. et al. FRCSyn Challenge at WACV 2024: Face Recognition Challenge in the Era of Synthetic Data. Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision Workshops, 2024. Disponível em: https://frcsyn.github.io/. Acesso em: 31 out. 2024.

MELZI, P. et al. FRCSyn-onGoing: benchmarking and comprehensive evaluation of real and synthetic data to improve face recognition systems. Information Fusion, 2024.

NUNES, P. Exclusivo: levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros. The Intercept Brasil, 21 nov. 2019. Disponível em: https://www.intercept.com.br/2019/11/21/presos-monitoramento-facial-brasil-negros/. Acesso em: 31 out. 2024.

ONU. Declaração Universal dos Direitos Humanos. 1948. Acesso em 03 nov. 2024.

PHILLIPS, P. J. et al. An Introduction to the Face Recognition Grand Challenge. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005.

RATHGEB, C. et al. Demographic Fairness in Biometric Systems: What do the Experts say? arXiv preprint, arXiv:2105.14844v2, 2023. Disponível em: https://arxiv.org/abs/2105.14844. Acesso em: 31 out. 2024.

SCHROFF, F.; KALENICHENKO, D.; PHILBIN, J. FaceNet: A Unified Embedding for Face Recognition and Clustering. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 815-823, 2015.

SILVA, Daniel. Identidades Digitais: a História da Biometria. EPOC, 31 jan. 2017. Disponível em: https://epoc.com.br/blog/identidades-digitais-a-historia-da-biometria/#:~:text=Em%201946%2C%20o%20FBI%20j%C3%A1,dos%20suspeitos%20envolvidos%20em%20crimes. Acesso em: 31 out. 2024.

TAIGMAN, Y. et al. DeepFace: Closing the Gap to Human-Level Performance in Face Verification. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1701-1708, 2014.

TERHORST, P. et al. A Comprehensive Study on Face Recognition Biases Beyond Demographics. IEEE Transactions on Technology and Society, 3(1):16–30, 2021.

TURK, M.; PENTLAND, A. Eigenfaces for Recognition. Journal of Cognitive Neuroscience, 3(1), 71-86, 1991.

Autoria

João Pedro Vicente Ramalho: Aluno de graduação em Bacharelado em Ciência da Computação na Universidade Federal do Paraná (UFPR). Tem interesse em temas relacionados à visão computacional e processamento de imagens, com foco na pesquisa de viés étnico. Atualmente, atua como bolsista no Centro de Computação Científica e Software Livre (C3SL) em um projeto em parceria com o Ministério da Educação, trabalhando com dados educacionais para políticas públicas. Sintam-se à vontade para entrar em contato pelo e-mail jpv.ramalho2013@gmail.com para comentários ou questões.

Como citar essa matéria:
RAMALHO, João Pedro Vicente. Reconhecimento Facial e a Autenticidade: a questão de vieses étnicos. SBC Horizontes, 03 nov. 2024. ISSN 2175-9235. Disponível em: <url>. Acesso em: dd mês ano.

Compartilhe: