A falácia do “chilling effect”: o que os dados revelam sobre a censura nas plataformas digitais

O Supremo Tribunal Federal retomou o julgamento do Artigo 19 do Marco Civil da Internet, que estabelece que as plataformas só podem ser responsabilizadas por danos causados por conteúdo de terceiros se, após uma ordem judicial específica, não retirarem o conteúdo.
Essa situação confere às empresas de tecnologia total liberdade para definirem suas regras de moderação sem nenhuma responsabilidade por qualquer dano a seus usuários.
A expectativa é que a Corte declare o Artigo 19 total ou parcialmente inconstitucional, mas o novo paradigma de responsabilização ainda está em aberto. Até o momento, sete ministros votaram.
Os relatores Dias Toffoli e Luiz Fux, junto com Alexandre de Moraes, votaram pela inconstitucionalidade do Artigo 19, propondo a implementação de um sistema de "notice and takedown".
Neste modelo, a plataforma passa a ser responsável pelo conteúdo a partir do momento em que recebe uma notificação extrajudicial de usuários sobre material ilegal. Na prática, a plataforma decidirá se remove ou não o conteúdo, mas
assume a responsabilidade por essa decisão.
A CONTROVERSA EXCEÇÃO PARA CRIMES CONTRA A HONRA E O "CHILLING EFFECT"
A divergência surgiu com os votos dos ministros Luís Roberto Barroso, Flávio Dino e Gilmar Mendes. Embora concordem com a necessidade de responsabilizar as plataformas por crimes online, eles propuseram uma exceção: os crimes contra a honra (injúria, calúnia e difamação) deveriam permanecer sob a imunidade prevista no Artigo 19.
A justificativa para essa distinção ecoa os argumentos das grandes empresas de tecnologia. Primeiro, elas alegam que não teriam condições técnicas de avaliar tais casos, o que é incoerente com o grande volume de moderação de conteúdos que essas empresas fazem diariamente no mundo todo por meio de monitoramento e avaliação automática.
Segundo, e mais crucial, as big techs argumentam que essa responsabilidade causaria o temido "chilling effect", ou
"efeito inibidor". Esse termo descreve uma suposta tendência das plataformas de removerem conteúdo de forma excessiva para evitar responsabilidades legais, o que poderia levar à censura indiscriminada de usuários.
Contudo, para refutar essa especulação, nada melhor do que analisar dados concretos, especialmente vindos da Europa, que regulamentou as plataformas em 2022 e implementou sistemas de notificação e remoção na Alemanha desde 2018.
TRANSPARÊNCIA E DADOS EUROPEUS CONTRADIZEM AS BIG TECHS
Um dos grandes entraves para o debate no Brasil é a falta de transparência das empresas de tecnologia em suas práticas de moderação de conteúdo, que atualmente é feita de forma 100% voluntária.
Em contraste, a regulamentação europeia, como a Lei Alemã de Aplicação de Rede (NetzDG), a Lei de Serviços Digitais da UE (DSA) e o UK Online Harms Bill obrigam as grandes plataformas a divulgar relatórios de transparência detalhados, publicar
regras claras de moderação e compartilhar dados com pesquisadores.
A análise desses dados, particularmente sob a NetzDG, que entrou em vigor na Alemanha em 2017 (com requisitos de transparência desde 2018), oferece insights valiosos, considerando que são os únicos dados que temos disponíveis no mundo atualmente sobre os efeitos dos regimes de responsabilidade para a moderação de conteúdo online.
A NetzDG visa combater conteúdo ilegal online, garantindo que as plataformas bloqueiem e excluam tais conteúdos (incluindo difamação intencional, injúria e incitação ao ódio) em até 24 horas após a denúncia.
GOOGLE MONITORA DIFAMAÇÃO E NÃO GERA ONDA DE CENSURA
Contrariando a narrativa do "chilling effect", os relatórios de transparência da NetzDG revelam que não houve um número alarmante de remoções sob a nova lei. Na verdade, cerca de 70% do conteúdo denunciado permaneceu online.
Avaliando os primeiros relatórios de junho de 2018, as plataformas acataram, em média, apenas 20% dos pedidos de remoção feitos por usuários alemães. Isso representa, na verdade, o efeito oposto ao "chilling effect", indicando que as plataformas resistem a remover os conteúdos denunciados pelos usuários.
Segundo estudo, quando se observa especificamente os crimes contra a honra e o discurso de ódio, nota-se que o YouTube identifica automaticamente esses conteúdos e os remove, sendo 63,2% da retirada feita espontaneamente pela própria plataforma, e apenas 36,8% realizada a partir das notificações dos usuários.
SEGURANÇA DIGITAL PARA EUROPEUS: POR QUE NÃO NO BRASIL?
Os relatórios europeus desconstroem o argumento de que a responsabilização das plataformas por crimes contra a honra seria inviável ou levaria a um "chilling effect".
Se a moderação de crimes contra a honra funciona em outros países por meio de denúncias, tornando o ambiente digital mais seguro para os usuários europeus, por que não oferecer essa mesma segurança aos brasileiros?
Manter a imunidade das plataformas para difamação, calúnia e injúria significa perpetuar uma situação em que esses danos podem circular livremente, com consequências devastadoras para pessoas, empresas e instituições, e sem que as plataformas arquem com sua parcela de responsabilidade após conhecimento do crime.
O Netlab UFRJ consolidou e analisou os últimos seis meses de 2024 (julho a dezembro) dos relatórios de transparência das plataformas sob a Lei de Serviços Digitais (DSA) da União Europeia.
Os dados reforçam a tese de que moderação de conteúdo pelas big techs com base em notificações extrajudiciais feitas por usuários continua baixa: em média, as plataformas removem 37% dos conteúdos baseados em notificações na Europa.
Entretanto, mais de 99% das remoções totais reportadas pelas big techs sob o DSA foi decorrente de decisões espontâneas da empresa, baseadas em seus próprios critérios e termos de uso, e não por notificações.
Isso sugere que as empresas possuem capacidade de avaliar e agir nesses casos e que, mesmo com regime de responsabilidade, continuam removendo somente os conteúdos que consideram pertinentes frentes a suas próprias regras e interesses.
A evidência empírica demonstra que a responsabilização das plataformas não resulta em uma censura generalizada. Nesse sentido, o STF tem a oportunidade de seguir um caminho baseado em dados e não em mitos, garantindo que a liberdade de expressão coexista com a responsabilidade e a segurança online no Brasil.