A incógnita do X

O X da questão é que existe uma opacidade intencional para que ninguém saiba como funciona a moderação dos conteúdos

Créditos: user15245033/ Freepik/ Bastian Riccardi/ Kelly Sikkema/ Unsplash

Rose Marie Santini e Marcio Borges 2 minutos de leitura

Nas conversas dos últimos dias, comenta-se em todos os cantos sobre o bloqueio da plataforma X (ex-Twitter) no Brasil. O ministro do STF Alexandre de Moraes decidiu bloquear a plataforma após a rede social não cumprir uma ordem judicial que exigia a nomeação de um representante legal no país.

Porém, o imbróglio tem como pano de fundo ordens judiciais anteriores, feitas por Moraes, para que a plataforma de Elon Musk moderasse discursos de ódio, racistas e antidemocráticos e retirasse alguns perfis relacionados a esses conteúdos, o que, segundo o ministro, poderia interferir negativamente nas eleições municipais de 2024.

A medida visa, segundo Moraes, garantir que a plataforma opere dentro dos limites da legislação brasileira e respeite as normas de segurança e a ordem pública. Musk se recusa a aceitar os pedidos de moderação na plataforma acusando o  Superior Tribunal Federal de censura.

A recusa gerou multas e ordem judicial que menciona, em caso de desobediência, a possibilidade de prisão do responsável legal pelo operação do X no Brasil. Para escapar das penalidades, o empresa fechou o escritório no Brasil, alegando que estava sendo ameaçada pelo ministro do STF.

O debate central é a moderação de conteúdo e sua relação com as ideias de liberdade e responsabilidade. Discute-se até que ponto a justiça e os governos podem e/ ou devem impor remoção de conteúdo baseado em leis locais e se isso configura censura. Porém pouco se fala que todas as plataformas moderam milhares de conteúdos diariamente.

Isso também significa censurar os usuários? Quais são os motivos e as responsabilidades de moderação de conteúdo dessas empresas? Qual é o percentual de pedidos judiciais diante do total retirado pelas próprias plataformas? Não temos transparência sobre essas informações, que são evidentemente de interesse público.

Os algoritmos de recomendação e de moderação das plataformas definem o quê, quando e como os usuários vão consumir conteúdo. Nesse contexto, a transparência na moderação se torna fundamental. A Europa exige que grandes plataformas publiquem relatórios detalhados sobre moderação de conteúdo. No Brasil, essa prática ainda é incomum.

Os algoritmos de recomendação e de moderação das plataformas definem o quê, quando e como os usuários irão consumir conteúdo.

Pesquisadores têm alertado sobre o quão perigosa é a opacidade das plataformas. Mesmo em países onde há exigência de relatórios de moderação, os dados são vagos e não indicam os critérios aplicados.

Isso pode configurar uma estratégia de manipulação da opinião pública, que supervaloriza as requisições governamentais e judiciais enquanto minimiza ou oculta as moderações realizadas pelas próprias empresas.

Portanto, o X da questão fica evidente: existe uma opacidade intencional para que ninguém saiba como funciona a moderação dos conteúdos. O conceito de transparence-washing tem sido utilizado por diversos pesquisadores, que sugerem que esta é uma prática corporativa comum das big techs para “distrair o público" e desviá-lo das reais questões sobre transparência e responsabilidade na moderação.

Fica a pergunta: a quem interessa a falta de transparência?


SOBRE O(A) AUTOR(A)

Rose Marie Santini é fundadora e diretora do Laboratório de Estudos da Internet e Redes Sociais da UFRJ (NetLab) e Marcio Borges é pes... saiba mais