Reconhecimento facial e racismo: quando a tecnologia atropela a ética

Crédito: Fast Company Brasil

Isabella Lessa 4 minutos de leitura

Os vieses de um algoritmo podem acontecer em diversas etapas: na coleta dos dados, no processamento, no resultado e na análise das informações, explica a cientista da computação Nina Da Hora. Junto a uma turma de cientistas negras e negros, a fazem coro a um movimento internacional pelo banimento do reconhecimento facial, tecnologia impregnada com inúmeros vieses que reforçam o racismo e a discriminação sob variadas formas.

De maneira simples e direta, a tecnologia de reconhecimento facial reproduz o racismo que já existe na sociedade. A intervenção humana no processo de aprendizagem de máquina é o que precisa ser questionado, pois, muitas vezes, um rosto é confundido com outro. “Uma câmera de vigilância de uma loja faz match da sua imagem com alguma outra foto em um banco de imagens. Esse é o perigo de compartilhar informações em apps e sites que não sabemos a procedência e não sabemos para onde está indo, pode parar em base de imagens assim”, explica. 

“O debate sobre segurança não furou a bolha para chegar na favela” — Nina Da Hora

Não são raros os casos em que os erros dos softwares de reconhecimento facial prendam pessoas negras injustamente: em Detroit, no ano passado, dois homens negros foram presos equivocadamente por falhas nesse sistema. Uma pesquisa do NIST (National Institute of Standards and Technology), depois de analiasar 189 programas de reconhecimento facial criados por 99 desenvolvedores, constatou um maior número de falsos positivos em fotos de negros e asiáticos em comparação com brancos, numa diferença que variou de 10 a cem vezes mais. O mapeamento 3D com tecnologia blockchain que está sendo realizado na favela da Rocinha, no Rio, também gera preocupações sobre a privacidade de dados dos moradores. “O debate sobre segurança não furou a bolha para chegar na favela, aí vemos casos como esses acontecendo”, diz Nina.

No final de abril, a Central Única das Favelas (Cufa) suspendeu um mecanismo de reconhecimento facial que cadastrava as pessoas em um programa de doação de cestas básicas. Depois do questionamento de Nina e outros especialistas no assunto nas redes sociais, o presidente da entidade, Preto Zezé, comunicou a decisão de interromper o uso da tecnologia. Em seu perfil no Twitter, ele escreveu: “tudo cancelado. Inclusive, gerou um bom debate sobre segurança de dados”. 

Nina Da Hora, cientista da computação: no Brasil, falta transparência na coleta de dados (Crédito: Divulgação)

E é justamente no debate que reside a solução para o uso indevido não somente do reconhecimento facial, mas de outras tecnologias de inteligência artificial que reforçam o racismo. “O Brasil é um dos países com a maior base de dados disponíveis, mas falta transparência na coleta e falta segurança. As empresas, por sua vez, tratam o algoritmo como parte do negócio, mas não dão acesso aos processos de como isso é feito. Se a gente [cientistas e pesquisadores] soubesse de que maneira um algoritmo de uma rede social prejudica alguém, poderíamos desenvolver fases de pesquisas para combater o problema, mas muitos estudos ficam com as Big Techs”, pontua Nina.

VOZES NEGRAS E JOVENS NA CIÊNCIA

Lançado em outubro do ano passado e disponível para assinantes brasileiros da Netflix desde abril, o documentário Coded Bias explica justamente a questão de como funcionam os vieses nos algoritmos. O ponto de partida do filme foi um experimento realizado pela própria diretora, Joy Buolamwini, cientista da computação e ativista digital, que testou um software de reconhecimento facial por meses a fio: a máquina não a reconhecia, mas quando ela punha uma máscara branca, o software assimilava o reconhecimento. 

“Hoje, minhas referências no assunto são mulheres negras, em sua maioria dos EUA”, conta Nina, citando, além de Joy Buolamwini, Abeba Birhane, Rediet Abebe, Deborah Raji e Timnit Gebru, que saiu do cargo de co-lead do time de ethical AI do Google no final de 2020, depois de ter elaborado uma pesquisa sobre os impactos do deep learning no meio ambiente. Ela também é coautora de um paper que comprova como o reconhecimento facial é menos preciso na identificação de mulheres e pessoas negras, além de ser uma das fundadoras do grupo Black in AI.

No Brasil, jovens cientistas e pesquisadoras — como a própria Nina Da Hora, 25 anos e recém formada em Ciência da Computação pela PUC-RJ — despontam como questionadores dos processos muitas vezes obscuros dos algoritmos e da IA, buscando mais transparência, diversidade e esclarecimentos para a sociedade civil. Vale acompanhar algumas delas: Bianca Kremer , Tais Oliveira, Gabriela Almeida , Thiane Neves , Mariana Gomes e Glenda Dantas.  


SOBRE O(A) AUTOR(A)