Elon Musk deve mudar a internet no Brasil – mas não do jeito que ele queria

Suspensão do X/ Twitter reacende debate sobre responsabilidade das plataformas de retirar conteúdos impróprios do ar

Crédito: Kirstine Rosas/ Pixabay

Camila de Lira 11 minutos de leitura

Elon Musk deu forças para o Supremo Tribunal Federal (STF) regulamentar as redes sociais. Sem saber, o dono do Twitter (atual X) destravou a discussão sobre o regime de responsabilidade das plataformas pelos conteúdos publicados por usuários, que estava parada há mais de sete anos no judiciário.

O debate tira do legislativo a pressão para regular a internet e afeta a capacidade do país em lidar com as consequências das plataformas no longo prazo.

Não é a primeira vez que Musk força o Brasil a rever regras para a internet. No começo de abril, o bilionário fez uma série de postagens atacando o ministro do STF Alexandre de Moraes. As publicações também criticavam a tentativa do Brasil de “controlar a liberdade de expressão”.

A manifestação de Musk e a pressão das big techs fizeram o presidente da Câmara, Arthur Lira (PP), retirar o projeto de lei 2630/2020 (que ficou conhecido como o “PL das fake news”) da pauta de votação, citando o ambiente “polarizado” e a falta de consenso sobre o texto.

Lira, então, criou um grupo de trabalho para reanalisar o projeto, grupo esse que, até outubro, não se reuniu. Alguns interlocutores do governo dizem que, na prática, o projeto “foi enterrado e morto”. 

E o que isso tem a ver com o STF? A autoridade máxima do judiciário esperava pela tramitação do projeto para não ter que analisar dois recursos que pedem reinterpretação do artigo 19 do Marco Civil da Internet.

Era entendimento dos ministros que a legislação evitaria a complicada discussão do dispositivo, que determina que  as plataformas são obrigadas a remover e a se responsabilizar pelo conteúdo postado após uma decisão judicial específica. 

Meses depois do fracasso do PL 2630, Musk voltou ao ataque. O bilionário se recusou a tirar nove perfis que publicaram desinformação e estavam promovendo discurso de ódio no X, além de não indicar um representante legal da empresa no Brasil. A rede social foi bloqueada e assim permaneceu por 40 dias.

No STF, a disputa tornou impossível ignorar o “elefante na sala” que era a necessidade de regular as redes sociais. Os ministros marcaram para novembro o julgamento dos dois recursos que podem alterar o regime de responsabilidade do Marco Civil da Internet.

DOIS TEMAS MAIS QUE DIFÍCEIS

As duas ações que serão analisadas no STF são o recurso extraordinário 1037396 (tema 987) e o recurso extraordinário 1057258 (tema 533). O tema 533, sob tutela do ministro Luiz Fux, veio a partir de um processo de uma professora, que quis ser indenizada pelo Google após uma comunidade do Orkut com o seu nome e foto promover danos a sua carreira. Sim, a discussão vem da época do Orkut. 

O que vai ser analisado no plenário do Supremo é se a empresa que hospeda o site pode fiscalizar o conteúdo e retirá-lo do ar quando é considerado ofensivo, mesmo sem a intervenção do judiciário. 

Sob a tutela do ministro Dias Toffoli, o tema 987 veio por conta de um processo de uma mulher contra o Facebook. A usuária encontrou um perfil falso com seu nome e foto e pediu para a plataforma removê-lo. Também pediu indenização pelos danos causados, mas a Meta recusou, indicando que só o faria com uma ordem judicial. 

O ponto principal do tema 987 é questionar o regime atual de “judicial note e take down” das redes sociais. Nesse regime, as plataformas só podem retirar do ar e se responsabilizar pelo conteúdo depois de uma decisão da justiça, como é previsto no artigo 19 do Marco Civil.

O STF marcou para novembro o julgamento de dois recursos que podem alterar o regime de responsabilidade do Marco Civil da Internet.

Com base nesse entendimento, as plataformas têm liberdade para implementar suas próprias regras e políticas de moderação, mas não são obrigadas pagar indenizações por ignorarem solicitações extrajudiciais de usuários.

É um modelo diferente do que vigora na Europa, onde a regra é mais dura. Por lá, o modelo seguido é de “note and take down”, ou seja, a plataforma tira do ar e se responsabiliza depois que o usuário a notifica. 

“O que se tornou claro é que o regime de responsabilidade atual do Marco Civil está criando para a justiça brasileira a necessidade de expedir ordens de maneira constante, enquanto as plataformas, ainda assim, seguem descumprindo”, explica Humberto Ribeiro, cofundador e diretor da Sleeping Giants BrasilRibeiro, que é advogado especialista em direito digital.

A demora na remoção de conteúdos prejudiciais pode causar danos irreparáveis aos usuários. Entidades como o Ministério Público Federal defendem que as plataformas têm a obrigação de agir rapidamente após serem notificadas sobre conteúdos que violem direitos, como perfis falsos ou discurso de ódio. Em seu parecer sobre o caso, o MPF se diz a favor da alteração do artigo 19 do Marco Civil. 

MAS, E A LIBERDADE DE EXPRESSÃO?

Declarar que o artigo 19 do Marco Civil da Internet é inconstitucional levanta preocupações sobre o risco de censura e o equilíbrio com a liberdade de expressão nas redes. Organizações como Google, Bytedance, Núcleo de Informação e Coordenação do Ponto BR (NIC.BRr), Instituto dos Advogados de São Paulo e Instituto de Tecnologia e Sociedade (ITS Rio) são a favor da manutenção do artigo 19.

O Marco Civil protege a liberdade de expressão do usuário ao permitir que as plataformas só retirem conteúdos com ordem judicial, defende Fabro Steibel, diretor-executivo do ITS Rio.

Crédito: Gustavo Lima/ Câmara dos Deputados

“Se disser para a plataforma que ela tem que analisar discursos como os crimes contra a honra, ela pode tirar conteúdos que não são criminosos do ar. É um tema muito amplo para um algoritmo captar”, analisa o especialista.

Steibel, que fez parte do grupo que discutiu o Marco Civil da Internet no começo dos anos 2000, argumenta que as redes sociais não podem se isentar do que é postado por terceiros. Mas indica que a melhor forma de exigir responsabilidade é criar uma regra para que “as plataformas possam fazer uma análise do conteúdo em larga escala”.

Atualmente, os filtros das redes já são capazes de analisar conteúdo pornográfico e retirar do ar vídeos ligados ao chamado “revenge porn” (pornografia de vingança, ou seja, a exposição na internet de fotos ou vídeos íntimos de terceiros), ambos sem precisar de pedido judicial. O mesmo vale para conteúdos danosos para crianças.

QUEM DECIDE?

O ponto que Steibel lembra são as situações em que a questão não é clara nem para a justiça, nem para a regulamentação. “Como você diz que alguém praticou terrorismo doméstico a partir de postagens? Alguém falar em suas redes que o STF precisa acabar é um ato de terrorismo doméstico? Ou é liberdade de expressão? Queremos que as políticas internas das plataformas decidam isso?”, questiona o diretor-executivo do ITS Rio.

Caso vote em favor da inconstitucionalidade do artigo 19, o STF pode substituí-lo pelo “dever de cuidado”, que exige das plataformas agir com diligência para evitar danos a terceiros. Há quem defenda que o dever de cuidado deve ser limitado para evitar que os sites censurem os usuários.

Há também a possibilidade de o STF manter o artigo 19, mas votar a favor de ampliar o dever de cuidado em casos de omissão. Ou seja, se uma foto sua danosa aparece no Instagram, você pede para a rede retirá-la e ela não o faz, a companhia poderia ser responsabilizada por omissão.

Crédito: iStock

Quem defende essa opção, por exemplo, é o Instituto Alana. Em manifestação enviada como “amicus curiae” (amigo da corte), a entidade argumenta que as plataformas digitais precisam ter uma responsabilidade ampliada quando se trata da proteção de crianças e adolescentes no ambiente digital.

Na argumentação do Instituto Alana, o tempo que se leva para obter uma decisão judicial pode resultar em danos irreversíveis para esses grupos vulneráveis.

Já a União defende que sejam criadas novas exceções para o artigo 19, como casos de fraude, perfis falsos, publicidade enganosa e crime contra crianças e adolescentes. Nessas situações, as plataformas deveriam ser responsabilizadas mesmo sem ordem judicial.

Em documento enviado ao STF,  a União argumenta que as redes deveriam ser responsabilizadas quando incentivam ou permitem disseminação de conteúdos fraudulentos ou prejudiciais.

SOBRE MARKETPLACES E VPNs

O regime de responsabilidade do Marco Civil da Internet apoiou o crescimento dos modelos de negócio das redes sociais baseados na geração de conteúdo por usuários. “O artigo 19 mexe no coração do modelo de negócios delas”, diz Humberto Ribeiro. 

Quando o Marco Civil foi discutido, em meados de 2010, não havia ainda grandes redes sociais. Os e-commerces estavam começando. E os marketplaces ainda nem eram um modelo de negócio possível. Logo, o documento usou o termo geral “provedores de internet”.

Em 2024, a internet é outra. Redes sociais têm milhões de usuários, o e-commerce já corresponde a uma boa fatia do varejo e os marketplaces estão estabelecidos como lugar seguro de compra e venda de produtos.

a melhor forma de exigir responsabilidade é criar uma regra para que as plataformas possam fazer uma análise do conteúdo em larga escala.

Nesse sentido, há a exigência de que o artigo 19 diferencie os “provedores de internet”. Nessa semana, o Mercado Livre entrou com um manifesto no qual pede para o STF considerar que existem diversos tipos de intermediários digitais que lidam com conteúdos de terceiros.

Um marketplace, aponta o documento, ficaria sobrecarregado de responsabilidade se tivesse que remover conteúdos sem ordem judicial, diferentemente de uma rede social.

Há 10 anos a internet também não conhecia os termos fake news (notícias falsas), anti-vaxxer (promover discurso antivacina) e doxxing (revelar informações privadas de alguém para perseguição). Práticas essas disseminadas em grupos digitais, facilitadas pelo alcance das redes e pelo funcionamento pró-engajamento dos algoritmos.

Crédito: chaylek/ Vecteezy

Nesse cenário, de acordo com especialistas ouvidos pela Fast Company Brasil, o perigo é o STF tomar o risco pelo todo – e se confundir. Como fez na decisão que tirou o X/ Twitter do ar, quando Alexandre de Moraes não só bloqueou a rede social como também proibiu o uso das redes privadas virtuais (VPNs), com pena de multa para o usuário. Na sanha de bloquear o X, o STF quase criou um problema de cibersegurança para o Brasil

“A discussão do artigo 19 é uma situação que pode gerar uma boa regra, uma regra ‘tipo a da VPN’”, diz Fabro Steibel, do ITS Rio. Ele lembra que o STF terá que inovar para criar jurisprudência para algo que nem mesmo tem regras no Brasil. “O certo é que vai ter regra, não vai ser ideal e vamos ter que viver com as consequências disso”, comenta Steibel. 

Na visão de Humberto Ribeiro, o perigo mora no fato de o STF não dominar a discussão tecnológica. “Em alguns momentos, a atuação dos juízes é correta, mas, em algumas situações, eles passam dos limites”, avalia.

PARECE QUE O JOGO VIROU

A saída com menos repercussões para o longo prazo seria, de fato, a regulamentação vir a partir do legislativo, já que o resultado partiria de uma alternativa dialogada, consensual e com mais opções de dispositivos de transparência.

No ano passado, no calor do debate sobre o "PL das fake news", tanto o Google quanto o Telegram fizeram anúncios diretos contra o projeto. Em um dos pontos da argumentação, a gigante da busca expressava que a exigência de "dever de cuidado preventivo" do PL criaria um "bloqueio excessivo e uma nova forma de censura" na internet.

Postagens do Google chegaram a ser anunciadas mais de um milhão de vezes, de acordo com levantamento da Agência Pública. De fato, foi a primeira vez que o Google se posicionou dessa forma, e ainda colocou a publicação na sua página inicial, dando destaque a ela durante as pesquisas. Isso ajudou a opinião pública a se virar contra o projeto.

a União argumenta que as redes deveriam ser responsabilizadas quando incentivam ou permitem disseminação de conteúdos fraudulentos ou prejudiciais.

Agora, o cenário é outro. Na iminência de uma mudança mais radical no regime de responsabilidade do Marco Civil da Internet, as big techs podem alterar seu discurso. 

"Elas correm o risco de perder a imunidade que possuem. Podemos ver um movimento inusitado, de as plataformas defenderem a aprovação do projeto das fake news”, diz Ribeiro.

Interlocutores do governo dizem que as grandes empresas de tecnologia já estão se reunindo para encontrar uma proposta que chegaria a um meio termo. Mas tudo isso precisa acontecer rápido, antes de novembro. 

Quando Elon Musk começou a cruzada contra o STF, dizia que a discussão era sobre liberdade de expressão nas redes sociais. Estranhamente, ele acertou o alvo. Embora não tenha sido da maneira como gostaria.


SOBRE A AUTORA

Camila de Lira é jornalista formada pela ECA-USP, early adopter de tecnologias (e curiosa nata) e especializada em storytelling para n... saiba mais