Elon Musk ataca. E o Brasil se distancia de regulamentar as big techs

A discussão entre o CEO do X e autoridades brasileiras retirou o PL das fake news do horizonte e trouxe incertezas sobre a regulação das plataformas digitais

Crédito: Anthony Rosenberg/ iStock

Camila de Lira 7 minutos de leitura

Elon Musk ameaçou, mas quem saiu do ar no Brasil foi a promessa de regulamentação das redes sociais. A Câmara dos Deputados tirou da pauta de votação o Projeto de Lei 2630/2020 (conhecido como PL das fake news), de relatoria de Orlando Silva (PCdoB/SP). O aviso veio depois de uma série de ataques que o dono Twitter (atual X) fez ao Supremo Tribunal Federal (STF).

Em postagens com o tom típico de polêmicas dos trending topics, o bilionário acusou a corte máxima de censura, chamou o ministro Alexandre de Moraes de ditador”, prometeu que mostraria documentos que provam que o STF fez exigências “inconstitucionais” à plataforma e insinuou que fecharia a sede da empresa no país.

Além disso, ele ainda afirmou que liberaria perfis banidos em cumprimento a ordens judiciais. Sob o pretexto de defender a “liberdade de expressão irrestrita”, o empresário inflou parte ruidosa da opinião pública contra a regulamentação das redes sociais.

Parlamentares de direita e ultradireita, bem como partidários do ex-presidente Jair Bolsonaro (e o próprio ex-presidente), ecoaram a voz de Musk. Em favor do bilionário também estavam nomes da ultradireita que tiveram contas banidas por causa de investigações dos ataques golpistas de 8 de janeiro de 2022, em Brasília.

Foi a faísca que fez o PL das fake news – proposta que estava mais próxima de chegar à realidade – queimar de vez. A proposta já tinha sido aprovada pelo Senado. Bastava a aprovação da Câmara para ir à sanção do presidente da República. A narrativa de que responsabilizar as plataformas significa censura ganhou espaço. E se juntou ao lobby que já atuava contra o projeto.

Créditos: Starline/ Freepik/ vackground.com/ Unsplash/ Chesnot/ Getty Images

Segundo uma fonte do governo ouvida pela Fast Company Brasil, o governo trabalha para diminuir o estrago causado por Elon Musk. A constatação é de que a discussão sobre a necessidade de botar limites nas redes sociais retrocedeu.

No lugar do PL 2630/2020 – que, embora tivesse falhas, estava em discussão há quatro anos – a Câmara instaurou um Grupo de Trabalho que tem entre 30 e 40 dias para elaborar uma nova proposta.“

"O grupo de trabalho faz a discussão voltar 10 casas”, afirma Humberto Ribeiro, co-fundador do Sleeping Giants Brasil. Esta semana, o movimento criado para desmonetizar conteúdo desinformativo na internet lançou a campanha #DesmonetizaTwitter para conscientizar as empresas que anunciam na plataforma.

O grupo de trabalho ainda não tem relator. Segundo representantes do presidente da Casa, Arthur Lira (PP/AL), a nomeação acontecerá dentro de 45 dias. Logo depois, começarão os trabalhos. Ou seja, mesmo se tudo correr conforme o exigido, o assunto não vai avançar com a rapidez necessária para evitar os danos causados por desinformação e discurso de ódio nas redes sociais.

E AGORA, ELON?

No vácuo da Câmara, o STF tomou a dianteira do debate. O ministro Dias Toffoli colocou na pauta do Supremo a discussão sobre a constitucionalidade do artigo 19 do Marco Civil da Internet. O artigo prevê em quais condições um provedor de aplicação de internet pode ser responsabilizado civilmente pelos conteúdos publicados por terceiros.

Atualmente, as redes sociais só são responsabilizadas pelos danos provocados por conteúdos de terceiros caso descumpram ordem judicial para retirá-los do ar. Há 10 anos, o entendimento era que tal artigo serviria para proteger a liberdade de expressão e tratava plataformas como intermediárias. Caberia ao Judiciário entender se um conteúdo deveria ou não sair do ar, não ao intermediário.

A questão é que, 10 anos atrás, a internet era um espaço muito diferente. Não havia algoritmos de recomendação, sistemas de impulsionamento ou feeds personalizados.

Os provedores de internet não faziam parte da máquina que ajuda a disseminar conteúdo, como o que se vê nos processos de desinformação. Eis que vieram interpretações jurídicas diferentes do artigo 19, que levaram aos recursos extraordinários no STF.

A narrativa de que responsabilizar as plataformas significa censura ganhou espaço. E se juntou ao lobby que já atuava contra o PL das fake news.

Segundo Yasmin Curzi de Mendonça, professora da FGV Direito Rio e pesquisadora do Centro de Tecnologia e Sociedade da FGV, há três caminhos que o Supremo pode seguir com relação ao artigo 19: declará-lo  constitucional, inconstitucional ou conforme à constituição.

Caso siga pela constitucionalidade, o STF vai declarar que o artigo não precisa ser alterado em nenhum ponto. Em outras palavras, as redes sociais não são obrigadas a fiscalizar o conteúdo publicado, nem a indenizar um usuário em caso de danos, caso não haja demanda extrajudicial.

Já a decisão pela inconstitucionalidade significaria derrubá-lo por completo. Para apoiar essa ideia, o STF terá que, obrigatoriamente, discutir como ficaria a responsabilidade civil das plataformas.

Se for decidido pela inconstitucionalidade, as plataformas de tecnologia deverão seguir o modelo de “responsabilidade solidária” - no qual tanto usuários quanto as redes serão responsabilizados de forma conjunta.

Para Humberto Ribeiro, do Sleeping Giants, a opção pela inconstitucionalidade seria o “pior cenário”. Na visão de Márcio Borges, pesquisador do NetLab, que estuda impactos econômicos da desinformação digital desde 2015, o problema da inconstitucionalidade é a judicialização dos casos de vítimas de conteúdos danosos propagados nas redes.

O terceiro caminho que o STF pode seguir é interpretar o artigo 19 conforme a Constituição Federal. Isso significa que a responsabilização civil das redes sociais se daria de acordo com os princípios fundamentais do cidadão na Constituição.

As plataformas teriam que adotar salvaguardas para garantir não só o direito de liberdade de expressão, mas também o direito à dignidade e à intimidade. O que obrigaria todo provedor a adotar medidas de moderação adequadas quando a situação envolver riscos sistêmicos e em tempo útil para o usuário, a fim de que ele possa garantir os seus direitos.

Há 10 anos, a internet era muito diferente. Não havia algoritmos de recomendação, impulsionamento ou feeds personalizados.

O horizonte não está definido. Ainda não se sabe qual será o teor do voto de cada ministro ou quais condicionantes eles determinarão. “O ideal é que a responsabilização venha via Congresso. Com regras claras, assim como as regras de trânsito”, afirma Borges.

De qualquer forma, a via judicial para tratar um acontecimento prático impede que ações de transparência e prevenção sejam efetivamente reforçadas nas grandes empresas de tecnologia.

Apesar das falhas, o PL das fake news previa mecanismos de transparência para as redes, como identificação de conteúdos impulsionados, além da uniformização de termos de conduta e a publicação de relatórios periódicos por parte das empresas.

O X DA QUESTÃO

O que motivou Elon Musk a postar contra Alexandre de Moraes foram os “Twitter Files”, investigação jornalística feita a partir de supostos e-mails de funcionários do X no país. Em algumas mensagens, é possível ler pedidos judiciais que corroboram a retirada de conteúdos do ar.

Pedidos que, inclusive, já foram muito bem aceitos por Elon Musk em outros países. Na Índia, o X removeu links para o documentário da BBC sobre o ministro Narendra Modi. Quando questionado sobre as publicações removidas, Musk afirmou que as regras da Índia são muito duras “e não podemos violar as leis do país”. Na Turquia, ele não protestou para tirar do ar postagens antes das eleições presidenciais de 2023.

O Brasil não é o primeiro país a investigar o CEO e dono do Twitter. Na Austrália, a Comissão de Segurança Eletrônica multou a plataforma em US$ 386 mil. A pena foi aplicada por falta de cooperação com investigações de práticas de abuso infantil na plataforma.

Na Europa, ele é alvo de investigações da Comissão Europeia. A rede inaugurou o Digital Services Act (DSA, ou Lei de Serviços Digitais), que limita a divulgação de conteúdos tóxicos nas redes sociais. Por meio do DSA, a comissão analisa a ação da plataforma em disseminar conteúdo ilegal sobre os ataques do Hamas a Israel, por exemplo.

Para o público, no entanto, o bilionário agiu diferente: fez bravata. Ameaçou tirar o Twitter do ar e fechar os escritórios europeus. E, como no Brasil, ficou só na promessa.


SOBRE A AUTORA

Camila de Lira é jornalista formada pela ECA-USP, early adopter de tecnologias (e curiosa nata) e especializada em storytelling para n... saiba mais