Brasil entra na linha de frente pela regulação das redes sociais

Proposta de regulação das plataformas de conteúdo digital encontra resistência por parte das empresas – e de seus aliados

Créditos: Jhones/ Designi/ Luis Molinero/ Freepik

Camila de Lira 9 minutos de leitura

Se você usa o Telegram, pesquisa no Google ou simplesmente está na web, o termo “PL das Fake News” já cruzou sua tela algumas vezes nas últimas semanas. Depois de forte pressão das big techs e da dificuldade do governo em aprovar o texto, o projeto de lei 2630/2020, que está em discussão na Câmara, foi adiado no começo do mês.

A proposta de regular as plataformas digitais faz parte de um debate mundial sobre o impacto das redes sociais na sociedade. Uma discussão ampla, que engloba assuntos como liberdade de expressão, transparência algorítmica e manutenção da democracia.  Nesta segunda-feira (22 de maio), o relator, Orlando Silva (PCdoB-SP), afirmou que o PL deve voltar a ser votado até o fim de junho.

As redes viraram um ambiente frutífero para a desinformação e para a propagação da violência.

Os atos antidemocráticos de 8 de janeiro em Brasília e os últimos casos graves de ataques às escolas acrescentaram urgência para o tema do impacto incontrolável das redes – um cenário que abre mais espaço para se falar de regulamentação 

“A regulação é inevitável. Se não for com o PL [2630/2020] vai ser outro. Mas ninguém pode conter”, afirma Ricardo Campos, advogado, professor na Goethe Universität Frankfurt am Main e diretor do Legal Ground Institute.

RISCOS DAS FAKE NEWS

A iminência da votação da proposta na Câmara levou o Google a se posicionar abertamente contra uma ação política em sua página principal. Intitulado “o PL da Fake News pode piorar a sua internet”, o link foi retirado do ar depois de questionamentos do Ministério Público Federal.

Na semana passada, o Telegram mandou uma mensagem contra o projeto para seus usuários brasileiros. Foi questionado pelo Supremo Tribunal Federal e obrigado a veicular um texto de “retratação”. O barulho aumentou com as campanhas orquestradas por apoiadores do ex-presidente Jair Bolsonaro para divulgar concepções distorcidas da lei.

A primeira desinformação é o apelido pelo qual o projeto ficou conhecido. Apesar de ser chamado de “PL das Fake News", o texto não é sobre notícias falsas, e sim sobre a propagação de desinformação nas plataformas.

“O PL nem sequer define fake news, porque já há um entendimento de que definir qual conteúdo é danoso é algo que pode acarretar censura”, explica a coordenadora da área de liberdade de expressão do InternetLab, Iná Jost.

A ideia aqui é que a maneira como as plataformas operam, privilegiando conteúdos polêmicos, violentos, agressivos ou mentirosos, faz parte do processo de desinformação.

Créditos: freepik/ iStock

Uma postagem contra a vacina da Covid-19, por exemplo, é uma opinião. Essa mesma postagem replicada para uma audiência de milhares de pessoas é uma campanha. Divulgada para uma audiência de milhõe, é um risco para a sociedade.

“As redes viraram um ambiente frutífero para a desinformação e para a propagação da violência”, afirma Iná. O mesmo acontece com os aplicativos de mensagens, que facilitam a disseminação de conteúdos em massa.

O caminho é responsabilizar a ferramenta que ajuda a promover conteúdos que possam trazer riscos a públicos sensíveis, como crianças. Não se trata, portanto, de um processo de censura, e sim de regulamentação da mecânica pela qual as plataformas operam.

“Existe uma mentira, uma fake news, que é dizer que o projeto vai censurar a internet”, afirma Orlando Silva. O projeto tipifica os riscos sistêmicos que as plataformas precisam monitorar, assim como ocorre na lei europeia.

Além disso, prevê casos nos quais as plataformas poderiam ser responsabilizadas civilmente por não evitarem a circulação de conteúdos que já são crimes na Constituição.

TRANSPARÊNCIA NA REDE

O PL prevê mecanismos de transparência para todas as redes sociais, como a identificação de quais conteúdos foram impulsionados ou faziam parte de campanhas publicitárias. Também prevê a uniformização dos termos de conduta que, hoje, são diferentes em cada rede. Muitas vezes, o conteúdo de ódio é retirado de plataforma, mas não de outra – e continua a se propagar.

“O PL 2630 promove a liberdade de expressão ao criar o devido processo, que é o direito do usuário em contestar uma moderação de seu conteúdo caso entenda que foi injustamente cerceado”, defende o relator.

Orlando Silva, relator do PL 2630/2020 (Crédito: Valter Campanato/ Agência Brasil)

Campos, do Legal Ground Institute, lembra que as redes retiram conteúdos do ar seguindo seus próprios regulamentos, sem deixar claro para o usuário o porquê da exclusão. “As plataformas fazem um gerenciamento privado da liberdade de expressão para vender anúncios. Sem transparência e sem direito de defesa. Precisamos saber como as plataformas gerenciam essa liberdade”, argumenta.

O PL prevê ainda a apresentação trimestral de relatórios de transparência, com dados como a quantidade de usuários ativos de cada plataforma no Brasil, o número total de medidas de moderação tomadas e de contas automatizadas, além de dados relacionados a engajamento e interações com os conteúdos irregulares.

A exigência de relatórios também foi inspirada na legislação europeia, que pede ainda mais detalhamentos e informações. Na Europa, o Telegram não se pronunciou contra a lei. “No Brasil, eles se deram o direito de fazer isso”, lembra Campos.

FISCALIZAÇÃO EM FALTA

Desde que foi apresentado pela primeira vez em 2020, o PL 2630 teve 28 dos seus 63 artigos alterados. O processo faz parte da aprovação de qualquer lei, mas gera “buracos” que dão margem a inconsistências.

De acordo com o diretor de direitos, tecnologia e GovTech do Instituto de Tecnologia e Sociedade (ITS Rio), Christian Perrone, as constantes alterações dificultam consensos.

“O elefante na sala do PL é a falta de uma autoridade de supervisão. Esse é um ponto essencial para trazer legitimidade para a legislação”, comenta Yasmin Curzi, advogada e pesquisadora do Centro de Tecnologia e Sociedade da FGV.

As plataformas fazem um gerenciamento privado da liberdade de expressão para vender anúncios. Sem transparência e sem direito de defesa.

Antes de chegar ao plenário, o projeto, já alterado por Silva, indicava a necessidade de uma “entidade autônoma de supervisão”. Tal conteúdo foi retirado antes da apresentação do texto ao plenário.

Surgiram alternativas, como o PL 2582/2023, substitutivo apresentado por Lafayette de Andrada (Republicanos), da “Frente Digital”. Pela proposta, seria criada uma Entidade Privada de Autorregulação (EPA) que funcionaria como a “voz” das empresas de tecnologia em um Comitê de Defesa da Liberdade de Expressão e Integração no Combate a Práticas de Atos Ilegais (CDLE).

A Agência Nacional de Telecomunicações (Anatel) coordenaria um “conselho” com representantes do governo, do parlamento e da sociedade civil. Mas a Anatel não é tão bem-vista por especialistas, que apontam a necessidade de um corpo técnico independente para fiscalizar as plataformas.

Crédito: portal gov.br

Segundo Yasmin, garantir que a autoridade tenha um corpo técnico independente é essencial para evitar interferência do governo ou das empresas na fiscalização da lei. Uma saída seria a escolha de auditores externos para verificar os relatórios trimestrais.

Para Perrone o caminho é um ecossistema de fiscalização, como acontece na Europa, onde a responsabilidade por analisar e garantir o cumprimento do DSA está dividida em órgãos distintos.

Na sua visão, as empresas também deveriam ter participação nessas entidades. “O melhor modelo é um órgão multissetorial, para não trazer uma assimetria de implementação e de fiscalização. Um ecossistema de regulação”, afirma.

Silva também menciona a proposta de um conselho com representações do governo, do parlamento e da sociedade civil como uma saída para ser o órgão regulador – um modelo parecido com o do Comitê Gestor da Internet (CGI.br). Lembrando que o CGI é uma ferramenta de governança, não de fiscalização.

A MÍDIA É A MENSAGEM

Segundo a coordenadora geral do CGI.br, Renata Mielli, a dificuldade em encontrar um órgão regulador eficiente deriva de um desafio não repactuado no Brasil: a falta de regulação da mídia. “Países que têm órgãos reguladores de mídia, como a Alemanha, tiveram mais facilidade para aceitar a regulamentação das plataformas”, afirma.

Desde 2017, a Alemanha obriga provedores de redes sociais com mais de 2 milhões de usuários a retirar do ar conteúdos falsos ou que estimulem discurso de ódio.

O elefante na sala do PL é a falta de uma autoridade de supervisão. Esse é um ponto essencial para trazer legitimidade para a legislação.

Ricardo Campos, que leciona em Frankfurt, indica que a lei alemã foi a base da DSA europeia. E que, por lá, a lei exige relatórios semestrais de transparência.

No Brasil, uma parte da influência sobre o PL veio da Austrália. Lá, Google e Meta foram obrigados a remunerar empresas de jornalismo como forma de influenciar o conteúdo profissional.

Esta medida foi contemplada no PL brasileiro. Mas, para alguns especialistas, a tendência é de ser retirada do projeto. Iná Jost, do Internetlab, afirma que o PL 2370/2019, que trata sobre direitos autorais na esfera digital, deve absorver essa discussão.

QUEM VIGIA OS VIGIAS

De acordo com os artigo 19 e 21 do Marco Civil da Internet, plataformas como Facebook, Google e Instagram só respondem na esfera civil a danos provocados por conteúdo gerado por terceiros caso não tomem providências após ordem judicial.

A exceção são os casos de divulgação de vídeos e imagens contendo nudez ou atos sexuais sem o consentimento dos envolvidos. O entendimento, em 2014, era de que os provedores de aplicação da internet não participavam da produção de conteúdo. Só que, de lá para cá, as redes sociais passaram a usar algoritmos para ditar a distribuição de conteúdo.

Levantamento feito pelo Netlab, da Universidade Federal do Rio de Janeiro (UFRJ), mostrou que o Google impulsionou conteúdo próprio contra o PL 2630/2020 nas buscas sobre o termo. Em pesquisas sobre “perguntas comumente feitas” por outros usuários, a busca relaciona o PL ao termo “PL da Censura”.

“Com isso, essas empresas provaram que não só são mediadoras de conteúdo como têm grande poder de alterar a busca ou a curadoria do feed como e quando quiserem. Ruiu o argumento de que as decisões são tomadas por um algoritmo autônomo, neutro, com base em dados confiáveis”, escreve Natália Viana, diretora-executiva da Agência Pública, na sua newsletter Xeque na Democracia.

Levantamento da comScore mostrou que o Brasil é o terceiro maior consumidor de redes sociais do mundo. YouTube, Facebook e Instagram são as mais acessadas. “Se Google e Facebook tivessem competidores de relevância no mercado brasileiro, talvez não fosse um problema. Mas hoje eles têm um poder gigante e o que fazem se torna relevante para a população”, acrescenta Yasmin.


SOBRE A AUTORA

Camila de Lira é jornalista formada pela ECA-USP, early adopter de tecnologias (e curiosa nata) e especializada em storytelling para n... saiba mais