POR NOAH GIANSIRACUSA 

Em junho de 2020, o Parlamento do Reino Unido publicou um relatório com inúmeras recomendações destinadas a ajudar o governo a lutar contra a “pandemia de desinformação” alimentada pela internet. O relatório é bastante contundente nas conclusões a que chega: “Plataformas como Facebook e Google procuram se esconder atrás de algoritmos de ‘caixa preta’ que escolhem o conteúdo que será mostrado aos usuários. Eles alegam que suas decisões não são responsáveis ​​pelos danos que possam resultar da atividade online. Mas isso é totalmente enganoso.”

Ao preparar esse relatório, o Parlamento do Reino Unido recolheu provas a partir do depoimento de uma variedade de especialistas. Um deles foi Vinton Grey Cerf, lendário pioneiro da Internet que atuou como vice-presidente e “Chief Internet-Evangelist” no Google. Perguntaram a ele: “Você pode nos fornecer alguma evidência de que as tais informações de alta qualidade (conforme você as descreve), promovidas pelo Google têm maior probabilidade de serem verdadeiras – ou seja, de estarem na categoria ‘a Terra não é plana’, em vez da categoria, ‘a Terra é plana’?”. A resposta intrigante de Vint Cerf iluminou um pouco os bastidores hermeticamente fechados da empresa de tecnologia:

“A quantidade de informações na World Wide Web é extraordinariamente grande. Existem bilhões de páginas. Não podemos avaliar manualmente todo esse conteúdo, mas temos cerca de 10 mil pessoas dentro da nossa família Google que avaliam sites… No caso do que aparece nos resultados de uma pesquisa, temos um documento de 168 páginas dedicado apenas a como determinar a qualidade de um site… Assim que obtemos amostras de páginas da web que foram verificadas por esses avaliadores, podemos pegar o que eles fizeram e criar uma rede neural de machine learning, que reflete a qualidade que eles atribuíram àquelas páginas analisadas. Elas tornam-se o conjunto de treinamento para um sistema de aprendizado de máquina. O sistema é, então, aplicado a todas as páginas da web que indexamos na rede. Uma vez que a aplicação foi feita, usamos essas informações e outros indicadores para classificar as respostas que aparecem em uma pesquisa no Google.”

Muitas das postagens do blog do Google e muitas das declarações oficiais da empresa sobre os seus esforços para projetar o jornalismo de qualidade mencionam esta equipe de 10 mil avaliadores humanos. Logo, para aprofundar a declaração de Cerf, seria útil entender melhor o que exatamente essas pessoas fazem, e como os seus trabalhos impactam o algoritmo. Felizmente, uma visão interna de como funciona o trabalho de um “avaliador do Google” foi fornecida durante uma investigação jornalística conduzida pelo Wall Street Journal em novembro de 2019.

Embora os funcionários do Google sejam muito bem remunerados financeiramente, esses 10 mil avaliadores são trabalhadores contratados por hora de trabalho remoto, e ganham cerca de US$ 13,50 por hora. Um dos trabalhadores entrevistados no artigo do Wall Street Journal contou que foi obrigado a assinar um contrato de sigilo, que não tinha contato direto com ninguém na empresa e que nunca foi informado para o que seu trabalho seria usado. O avaliador disse que recebeu “centenas de resultados de pesquisa reais, e que foi instruído a usar seu julgamento para avaliá-los de acordo com a qualidade, reputação, utilidade, entre outros fatores”. A principal tarefa que esses funcionários realizam, ao que parece, é classificar sites individuais, bem como avaliar as ordens de resultados de várias pesquisas apresentadas pelo Google. Essas tarefas são orientadas de perto pelo documento de 168 páginas que é fornecido a esses trabalhadores. Às vezes, eles também recebiam, por meio das agências de trabalho que os contrataram, notas específicas do Google informando quais devem ser os resultados “corretos” para determinadas pesquisas. Por exemplo, chegou um momento em que buscas com a frase “melhor maneira de se matar” revelavam verdadeiros manuais de instruções para o suicídio, e, sendo assim, os trabalhadores contratados receberam a recomendação de que todas as pesquisas relacionadas ao tema deveriam exibir como o principal resultado o National Suicide Prevention Lifeline (Linha Nacional de Prevenção ao Suicídio, similar ao CVV do Brasil).

Essa espiada no trabalho dos avaliadores, por menor que seja, nos ajuda a desvendar o testemunho de Cerf. Os funcionários do Google — provavelmente os de alto escalão — tomam decisões de longo alcance sobre como o algoritmo de pesquisa deve funcionar em vários tópicos e em várias situações. Mas, em vez de tentar implementá-los diretamente no código do computador para o algoritmo de busca, eles codificam essas decisões no manual de instruções que é enviado aos avaliadores. No entanto, são sites e pesquisas demais para serem percorridos manualmente — como Cerf explicou, essas avaliações manuais fornecem os dados de treinamento para algoritmos de machine learning supervisionada, cujo trabalho é essencialmente extrapolar essas avaliações para que todas as pesquisas, e não apenas as que foram avaliadas manualmente, se comportem como a liderança do Google pretende.

Embora algumas das atualizações notáveis ​​do algoritmo de busca do Google tenham sido anunciadas publicamente pela empresa, o Google ajusta seu algoritmo com extrema frequência. Na verdade, essa mesma investigação também descobriu que o Google modificou seu algoritmo mais de 3.200 vezes em 2018. E o número de ajustes de algoritmo tem aumentado rapidamente: em 2017, eram cerca de 2.400, e em 2010 eram apenas cerca de 500. O Google desenvolveu um amplo processo para aprovar todos esses ajustes de algoritmo que incluem a experiência de avaliadores e relatórios sobre o impacto nas classificações de pesquisa. Isso dá a empresa uma noção de como os ajustes funcionarão na prática, antes de liberá-los para a sua enorme base de usuários. Por exemplo, se certos ajustes têm a intenção de rebaixar a relevância de sites de notícias falsas, os avaliadores podem testar se isso realmente acontece nas pesquisas que experimentam.

Pouco depois da pergunta que levou Vint Cerf à descrição do processo de “duas etapas” do Google, o presidente do comitê fez outra pergunta bastante pontual: “Seu algoritmo obteve informações imprecisas de que os muçulmanos não pagam impostos municipais. Esses dados iam direto para o topo dos resultados de pesquisa e eram ecoadas por seu assistente de voz. Isso é catastrófico, uma coisa assim pode desencadear um motim. Obviamente, é improvável que isso aconteça em 99% do que você faz. Mas até que ponto seus algoritmos estão sensibilizados para esse tipo de erro?”

Mais uma vez, a resposta de Cerf foi bastante intrigante. Ele disse que as redes neurais (a estrutura moderna para IA) são “frágeis”, o que significa que, às vezes, pequenas mudanças na entrada podem levar a resultados surpreendentemente ruins.

“Sua reação a isso é ‘Que m* é essa? Como é que isso foi acontecer?’. A resposta é que esses sistemas não reconhecem as coisas da mesma maneira que nós. Nós abstraímos de imagens. Reconhecemos que os gatos têm pequenas orelhas triangulares, pelo e cauda, ​​e temos quase certeza de que os carros de bombeiros não têm. Mas o sistema mecânico de reconhecimento em sistemas de aprendizado de máquina não funciona da mesma forma que os nossos cérebros. Sabemos que eles podem ser frágeis, e você acabou de citar um bom exemplo desse tipo de fragilidade. Estamos trabalhando para remover esses problemas ou identificar onde eles podem ocorrer, mas essa ainda é uma área que demanda pesquisa. Agora, sobre a sua pergunta principal, se estamos cientes da sensibilidade e dos modos de falha em potencial? Sim. Mas já sabemos como prevenir todos esses modos de falha? Não, ainda não.”

Em suma, confiamos nos algoritmos do Google para fornecer à sociedade as respostas de todas as perguntas, embora às vezes alimentem o ódio e as notícias falsas, e embora ainda não saibamos inteiramente como impedi-los de fazer isso.

SOBRE O AUTOR

Noah Giansiracusa é professor assistente de Ciências Matemáticas na Universidade Bentley.

(Adaptado de How Algorithms Create and Prevent Fake News: Exploring the Impacts of Social Media, Deepfakes, GPT-3, and More, de Noah Giansiracusa, publicado pela Apress (uma divisão da Springer Nature). Copyright © 2021 por Noah Giansiracusa.)