Com projetos travados, avança o “plano B” para regulamentar as big techs no Brasil

Enquanto a regulamentação das redes sociais não chega, especialistas e ativistas entram numa nova batalha: usar as leis existentes para proteger usuários e forçar transparência das big techs

Crédito: serggn e yaom/ Getty Images

Camila de Lira 7 minutos de leitura

Quando o assunto é regulamentação das redes sociais, o Brasil está num vácuo. Dois projetos de lei sobre o tema seguem parados no Congresso. O artigo 19 do Marco Civil da Internet foi derrubado pelo Supremo Tribunal Federal (STF) sem uma proposta sobre responsabilização para entrar no lugar. Nos EUA, Donald Trump aumenta a pressão para que o Brasil pare de interferir nas plataformas das big techs.

Diante dessa ausência e da urgência do tema, uma espécie de resistência ganha força. Pesquisadores, advogados e organizações que defendem uma internet mais segura têm buscado brechas em leis já existentes, como o Código de Defesa do Consumidor e o princípio do devido processo legal – que garante que os direitos dos cidadãos sejam respeitados de forma justa e imparcial – para responsabilizar as plataformas.

Eles recorrem a ações judiciais conjuntas, acham jurisprudências para acelerar os casos, criam índices de transparência de cada uma das redes e denunciam as empresas que lucram com desinformação no Brasil.

“Ficamos presos na lógica de que só se consegue trabalhar com a regulação das plataformas no Congresso Nacional. Estamos perdendo a possibilidade de encontrar outros futuros e outras possibilidades”, diz Humberto Ribeiro, diretor do Sleeping Giants Brasil. Advogado e mestre em direito digital, Ribeiro é cofundador da organização, que completou cinco anos esta semana. 

A regulação no Congresso já enfrentava resistências. O lobby das big techs foi decisivo para travar a votação de propostas como o Projeto de Lei (PL) das Fake News  (PL 2630/2020) e o PL da Inteligência Artificial (PL2338/23).

Agora, com o respaldo do discurso internacional, a pressão aumentou. No documento que oficializa o tarifaço, Trump afirma que o Brasil estaria “censurando plataformas digitais” e ameaçando “eleições livres”, ecoando os mesmos argumentos usados por executivos da Meta, como Mark Zuckerberg. 

Em fala na manhã de quinta-feira (dia 30), o  vice-presidente Geraldo Alckmin afirmou que representantes das plataformas participaram diretamente das discussões para tentar suavizar as sanções impostas pelos Estados Unidos.

Segundo Ribeiro, esse é o momento de partir para o “plano B”: uma maneira de “reduzir os danos” das plataformas digitais na sociedade brasileira. Nesse sentido, não há uma única ação e nem um único setor para mobilizar, mas sim um conjunto de iniciativas.

AÇÕES MAIS PRECISAS CONTRA AS BIG TECHS

No campo jurídico, a estratégia tem sido acionar o que já está previsto em leis como a Constituição, o Código de Defesa do Consumidor e o princípio do devido processo legal para contestar decisões das plataformas, como remoções de conteúdo ou a suspensão de contas.

O Poder Judiciário brasileiro já resolve conflitos envolvendo a moderação de conteúdo em plataformas digitais. Com a ausência de uma norma – que estava presente no PL 2630 – cada juizado opta por um caminho diferente, o que não ajuda na velocidade do processo.

Estudo feito pelo Instituto de Referência em Internet e Sociedade (Iris) mostrou que 28,3% das decisões judiciais envolvendo casos de suspensão de conta em redes sociais não apresentam base jurídica explícita. O que significa que, até quando o processo legal é finalizado, o judiciário não entende o que exigir das plataformas em troca.

"As plataformas digitais atingiram o ápice da desobediência contra as leis de um país."

Esse é um vácuo normativo perigoso, já que não força mudança nas plataformas, alerta a coordenadora de pesquisa do Íris, Fernanda Rodrigues, que é advogada e mestre em direitos da sociedade em rede.

Na pesquisa do Iris, o instituto notou um caminho possível: o princípio do devido processo legal. Previsto na Constituição Federal, ele garante que ninguém seja privado de direitos sem um processo justo, imparcial e transparente. Tal princípio é aplicado para a relação entre pessoas e instituições públicas, mas está cada vez mais sendo usado em casos de pessoas e empresas. 

Tal princípio demanda que um processo seja fundamentado e garanta tempo hábil para as partes responderem e contestarem. Tudo isso pode ser aplicado a um processo de banimento ou suspensão de conteúdo por uma rede social.

“A lógica da ampla defesa e da garantia de direitos fundamentais pode ser usada para o caso de retirada de conteúdo do ar ou banimento de contas pelas redes sociais", explica Fernanda. 

É uma forma de exigir o mínimo de adequação das redes para que, pelo menos, o usuário tenha transparência no processo de moderação. Algo que, hoje em dia, fica nas mãos dos algoritmos e nas intermináveis cláusulas dos termos de uso. 

Mas existe um porém: mesmo com o princípio do devido processo legal, sem a regulamentação, a decisão final ainda fica dependendo da interpretação do juiz. 

O CONSUMIDOR EM AÇÃO

Outra base legal que pode ser usada é o Código de Defesa do Consumidor (CDC). Ele garante, por exemplo, o direito à informação clara, adequada e acessível sobre qualquer serviço – inclusive os digitais.

De acordo com Igor Britto, diretor executivo do Instituto Brasileiro de Defesa do Consumidor (Idec), o Código já é usado para responsabilizar serviços de aplicativos como iFood e Mercado Livre.

“Não há justificativas nem desculpas para as grandes plataformas não serem penalizadas ou responsabilizadas pelo CDC só porque elas são maiores”, diz Britto, que tem mais de 20 anos de experiência na defesa dos direitos do consumidor.

A publicidade é a espinha dorsal das grandes plataformas de redes sociais.

Na prática, o código já é usado pelo judiciário. Segundo pesquisa do Iris, ele foi usado em quase 50% das decisões de contas suspensas. Mesmo assim, o artigo 19 do Marco Civil da Internet protegia as plataformas do CDC, indicando que empresas como Facebook e TikTok são apenas intermediárias quando uma violação acontece. 

A recente decisão do STF tira a legitimidade do argumento, deixando a interpretação um pouco mais solta. É um vácuo que, segundo Britto, favorece as empresas. “As plataformas digitais atingiram o ápice da desobediência contra as leis de um país", afirma.

COBRANÇA NO TEATRO DA TRANSPARÊNCIA

Enquanto pesquisadores e advogados apostam em novas leituras da legislação para responsabilizar as plataformas nos tribunais, outros movimentos se concentram em tornar mais visível para o público o impacto que as big techs causam no país.

O Sleeping Giants Brasil vai lançar um ranking da desinformação, mostrando quais empresas brasileiras mais anunciaram em páginas de fake news e de conteúdos extremistas. O entendimento não é falar das companhias, mas mostrar que os anunciantes não sabem para onde os seus investimentos em publicidade digital estão indo.

Segundo Humberto Ribeiro, o ranking é uma forma de motivar o setor empresarial a exigir maior transparência das gigantes do setor digital, como Google e Meta. Juntas, elas têm mais de 95% do mercado de veiculação de publicidade digital. “A desinformação não é um acidente da internet. Ela é uma engrenagem com incentivos econômicos bem definidos”, afirma Ribeiro.

Créditos: Tingey Injury Law Firm/ Unsplash/ Gerd Altmann/ Pixabay

A publicidade é a espinha dorsal das grandes plataformas, explica Marie Santini, fundadora e diretora do NetLab (laboratório da Universidade Federal do Rio de Janeiro dedicado a pesquisas sobre redes digitais) e colunista da Fast Company Brasil.

Qualquer indicador que puxe a transparência desse segmento tem mais poder de surtir efeitos de mudança. “Sem transparência, não há como fiscalizar. E sem fiscalização, não há como proteger os direitos fundamentais dos usuários”, afirma.

Liderado por Maire, o NetLab lançou, em 2024, o Índice de Transparência de Dados das Plataformas de Redes Sociais (ITD). O objetivo é medir o grau de abertura e prestação de contas de empresas como Meta, TikTok e X/ Twitter no Brasil.

“A desinformação é uma engrenagem com incentivos econômicos bem definidos.”

Entre os critérios avaliados estão a publicação de relatórios de transparência, os recursos oferecidos ao usuário para recorrer de decisões e a clareza das regras de moderação.

O ITD vai ser usado também pela Universidade de Cambridge. Mesmo com as regulações europeia e britânica, pesquisadores ainda não conseguem acessar dados de forma adequada. “Existe, do ponto de vista das plataformas, um 'teatro' de transparência”, aponta Marie. 

Ela lembra que nem mesmo com regulamentação há garantias de que as plataformas atuem de maneira transparente. A Meta rejeitou o código europeu de conduta de inteligência artificial, que deverá entrar em vigor em agosto. 

Nesse sentido, o público informado, o setor privado atento e o poder público com um sistema judiciário preparado não são apenas um plano B.


SOBRE A AUTORA

Camila de Lira é jornalista formada pela ECA-USP, early adopter de tecnologias (e curiosa nata) e especializada em storytelling para n... saiba mais