Quantos moderam conteúdo na Meta? Nem a “Suprema Corte” da Big Tech sabe
Principal dispositivo de transparência e governança do conteúdo da Meta não recebe informações sobre quantidade de funcionários ou terceirizados destacados para moderação
Você sabe quantos funcionários e terceirizados a Meta tem para revisar os conteúdos publicados no Facebook, Instagram e Threads? Nem o Conselho de Supervisão Independente da empresa sabe. O principal órgão de transparência da Big Tech, chamado de Suprema Corte da Meta, não recebe informações sobre a quantidade de pessoas dedicadas à moderação. Visto como estratégico, o dado é essencial para entender o quanto a Meta se compromete em manter discurso de ódio e as fake news fora das redes.
A falta deste número cria um ponto cego para o Conselho, que tem como principal objetivo revisar as políticas de conteúdo e moderação. Como pressionar por aumento do poder de moderação se não se sabe a magnitude da curadoria e dos filtros atuais?
Três membros do Conselho, o Oversight Board, estiveram no Brasil na última semana e se reuniram com alguns membros da imprensa. A Fast Company Brasil participou da conversa, que tinha como tema principal debater os últimos esforços da empresa para proteger os mais de 60 processos eleitorais que o mundo irá enfrentar em 2024.
Formado por 22 especialistas independentes da Meta, o Oversight Board analisa casos de grande repercussão de conteúdos no Facebook, Instagram e Threads, como o banimento de Donald Trump da rede ou a retirada do ar de discussões políticas sobre a Rússia. Mesmo com este contato direto com as instâncias mais altas, os membros do Conselho consideram a relação da Meta com os números de moderadores “opaca”.
De acordo com uma das participantes do Conselho, Catalina Botero-Marino, já foram feitas várias tentativas de entender o número das pessoas que trabalham com moderação na Meta. Ainda assim, as respostas da companhia não são em números, mas “em adjetivos”. “Exigimos métricas transparentes, o que a Meta responde é se há moderação suficiente ou insuficiente nas regiões”, diz a advogada.
Catalina é colombiana e atua como relatora especial para a liberdade de expressão da Comissão Interamericana de Direitos Humanos (CIDH) da Unesco. Para ela, a transparência das grandes plataformas de rede social deveria ser quase irrestrita. “O algoritmo não pode ser público porque é a ‘fórmula da Coca-Cola’, mas o resto deveria ser público e transparente para as pessoas. Quanto mais transparência melhor”, diz.
Números como quantas pessoas são alocadas em moderação, qual o tamanho da equipe que reforça os protocolos de crise - que são as políticas de moderação de conteúdo colocadas em práticas em momentos como guerras e eleições - e quantas pessoas integram as equipes que aplicam as regras.
Em momentos de crise, as máquinas calibradas para tirar certos vídeos, imagens ou mensagens do ar não dão conta das sutilezas do discurso. Nas eleições, por exemplo, como um algoritmo vai entender que uma frase elogiosa pode ser campanha não paga? Quais imagens são danosas para um candidato, quais configuram como campanha? O que é desinformação e o que é noticioso? Quando a retirada do conteúdo do ar é censura?
Você fala urdu?
Com 3,1 bilhões de usuários diários de seus apps no mundo, a Meta precisa se preocupar também com as línguas compreendidas por seus sistemas de filtragem. E em quantas línguas os profissionais de moderação conseguem atender. Números estes que são, igualmente, fechados para o principal órgão de governança e transparência da plataforma.
A falta de filtragem contextual humana em certas línguas já causou problemas em democracias pelo mundo, como em Mianmar. Entre 2014 e 2017, a perseguição contra a minoria rohingya saiu das mensagens de ódio e xenofobia postadas na rede social e chegou às vias de fato. O Facebook foi usado para disparar vídeos e imagens falsas que incitavam os birmaneses budistas contra a minoria muçulmana. Falsas acusações de estupros coletivos e saques colocaram mais pólvora numa situação prestes a explodir.
Tais publicações foram usadas pelo Governo de Mianmar para massacrar os rohingyas: a Organização das Nações Unidas (ONU) estima 10 mil mortos e 700 mil foram forçados a se refugiar no país vizinho, Bangladesh. Desde 2015, a Meta era avisada sobre o teor das mensagens e postagens em Mianmar, mas pouco fazia para reduzir as publicações. A empresa só tinha dois moderadores que entendiam birmanês, a língua do país.
De lá para cá, a Meta informou ter reforçado os revisores e staff no país e assumiu a falha de “não ter filtrado como deveria” discursos de ódio no país. No entanto, não há clareza sobre a quantidade de pessoas destacadas para tal tarefa. Em 2022, a Anistia Internacional acusou a Meta de contribuir substancialmente para violações de direitos humanos em Mianmar.
Entender a língua também afeta as máquinas que atuam na filtragem de conteúdo. Na visão da também membro do Conselho de Supervisão Independente, Pamela San Martín, não existe regra de “quantidade de moderadores” suficiente em cada país. “Caso os mecanismos automatizados tenham precisão para entender e reforçar as políticas de conteúdo, não é necessário staff gigantesco de moderadores. Mas precisa de pessoas que compreendam a língua”, afirma.
Pamela é advogada no México e já foi membro do Conselho Eleitoral do Instituto Nacional Eleitoral mexicano, o TSE de lá. Como especialista em processos eleitorais, ela assina a recomendação inédita que o Conselho de Supervisão Independente da Meta acabou de lançar. No documento, há indicações de melhores práticas para que plataformas de redes sociais protejam as eleições que acontecem em 2024.
A primeira grande recomendação é “reforçar as políticas de conteúdo é tão essencial quanto ter as políticas”. Ou seja, as companhias precisam dedicar “recursos suficientes” para moderação antes, durante e depois das eleições. Tal padrão deve ser seguido em todos os países incluindo “aqueles mercados pequenos, considerados menos lucrativos para as empresas”.
De 2019 até hoje, a Meta seguiu 85% das recomendações dadas pelos especialistas independentes.
O problema está em saber o quanto é o suficiente. O último caso em que o Conselho de Supervisão Independente da Meta teve acesso à quantidade de moderadores foi em 2022, quando eles revisaram o banimento de um jornal indiano por postar uma notícia sobre o talibã. Na época, a Big Tech informou que havia menos de 50 revisores de conteúdo que falavam urdu - uma das principais línguas da Índia.
Por ser uma língua falada por mais de 230 milhões de pessoas no mundo, Patrícia indicou que 50 revisores não “eram o bastante”, mesmo contando com os algoritmos e as máquinas de filtragem. A recomendação do Conselho, na época, foi: aumente a capacidade de revisores em todas as línguas.
Rótulo informativo sobre uso de IA
Criado em 2019, o Conselho tem dois tipos de ação: decisões e recomendações. As decisões são diretas, ligadas aos casos que analisam. Como, por exemplo, retirar um conteúdo do ar. Ou colocar um vídeo de volta no feed. Já as recomendações são indicações de amplo espectro, que indicam mudanças em políticas ou em estruturas da Meta.
“Uma única decisão e uma única recomendação têm impacto significativo”, diz Ronaldo Lemos.
De acordo com o também membro da “Suprema Corte da Meta”, Ronaldo Lemos, chief Scientific Officer do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio), a empresa é obrigada a seguir as decisões diretas do Conselho, mas não é obrigada a colocar em prática as recomendações. De 2019 até hoje, a Meta seguiu 85% das recomendações dadas pelos especialistas independentes.
O Conselho também analisa o impacto das recomendações seguidas. Em 2021, por exemplo, o filtro do Facebook russo estava tirando comentários pró-Alexei Navalny, opositor de Vladimir Putin do ar. O entendimento da Meta era que tais comentários usavam xingamentos pessoais - mais especificamente a expressão “bot covarde”.
Devido ao ambiente de profundo controle do discurso contra opositores de Putin na Rússia, a remoção destes conteúdos foi reanalisada pelo Conselho. Os especialistas entenderam que os comentários deveriam continuar no ar, por se tratar de um uso da liberdade de expressão política. A recomendação que se seguiu foi de que a Meta deveria acrescentar uma página que avisava os usuários que, se usassem certas expressões, poderiam ter as postagens deletadas.
Segundo Lemos, a resposta do público foi de repensar o que comentavam, já que 20% deixaram de postar ofensas logo após o aviso aparecer no ar. “Uma única decisão e uma única recomendação têm impacto significativo”, diz Lemos.
A ideia de que o usuário precisa saber como a plataforma funciona para, então, decidir sobre a postagem está por trás das decisões de moderação que tocam os conteúdos criados por inteligência artificial generativa.
Recentemente, a “Suprema Corte da Meta” recomendou que a empresa passasse a adicionar rótulos informativos para conteúdos criados ou manipulados por IA. A indicação foi seguida tanto pela Meta como pela OpenAI e pelo Tribunal Superior Eleitoral brasileiro. “É um primeiro passo para começarmos a falar de moderação de deepfakes e cheapfakes”, diz Lemos.
O tema é considerado uma das prioridades do Conselho para este ano, graças aos riscos que a mídia sintética pode trazer para os processos eleitorais. Os especialistas preveem que a tecnologia será o “maior desafio” da moderação de conteúdo em 2024, e nos próximos anos.