STF decide que redes podem ser responsabilizadas por conteúdos publicados
Com decisão, redes sociais terão que atuar proativamente para remoção de conteúdos considerados ilegais

O Supremo Tribunal Federal (STF) decidiu, por maioria de votos, que as plataformas que operam redes sociais devem ser responsabilizadas pelas postagens ilegais feitas por seus usuários.
Com placar de oito votos a favor e três contra, o Supremo declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet. O dispositivo estabelecia que plataformas de tecnologia só poderiam ser responsabilizadas civilmente por postagens depois de descumprimento de ordem judicial para remoção do conteúdo.
Para a maioria da Suprema Corte brasileira, o artigo 19 não era o suficiente para proteger direitos fundamentais e a democracia.
A partir da decisão da Corte, as plataformas têm responsabilidade sobre os conteúdos de terceiros publicados e propagados em suas redes – incluindo anúncios pagos e redes “artificiais” (como chatbots).
O STF estabeleceu algumas situações em que as redes sociais podem ser punidas. Se o conteúdo postado foi um crime contra a honra, caso de injúria, calúnia e difamação, ainda será necessário uma ordem judicial para pedir a retirada da publicação do ar.
Em casos de crime contra a honra, os provedores podem ter que pagar indenização caso não cumpram ordem de retirada de conteúdo. Também ficou definido que, quando um fato ofensivo já reconhecido por decisão judicial for repetidamente replicado, todos os provedores deverão remover as publicações com conteúdos idênticos a partir de notificação judicial ou extrajudicial.
Já em casos de crimes, atos ilícitos e contas inautênticas, a rede deverá tirar a publicação do ar a partir de notificação extrajudicial.
MODERAÇÃO ATIVA
A principal mudança proposta pelo STF está na exigência de combate a conteúdos ilícitos e a crimes de ódio. Provedores serão considerados responsáveis caso não agirem para retirar do ar anúncios falsos e impulsionamentos pagos falsos, e também veiculados por chatbots. Um exemplo aqui seria de uma página de anúncio de uma loja falsa.
As redes também serão responsáveis se não bloquearem certos tipos de mensagens e publicações consideradas crime gravíssimo, como mensagens que promovem atos antidemocráticos, terrorismo, indução ao suicídio, incitação a crimes de ódio – como racismo, homofobia e transfobia –, pornografia infantil e tráfico de pessoas.
Nessas situações, as plataformas devem retirar o conteúdo do ar sem necessidade de ordem judicial ou extrajudicial. O entendimento do STF é que as plataformas têm o dever de cuidado com os usuários.
AUTORREGULAÇÃO
Também ficou definido que os provedores deverão editar autorregulação que abranja um sistema de notificações, processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
As plataformas deverão disponibilizar canais permanentes e específicos de atendimento, de preferência eletrônicos, acessíveis e amplamente divulgados.
O OUTRO LADO
A decisão é vista com desconfiança por parte das big techs, que temem o “chilling effect”, ou o efeito inibidor, uma suposta tendência das plataformas de removerem conteúdo de forma excessiva para evitar responsabilidades legais, o que poderia levar à censura de usuários.
Na visão do cientista-chefe do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio), Ronaldo Lemos, a decisão do STF traz mais incertezas do que resoluções. “Com a decisão do STF, o Brasil passa a ter um regime de responsabilidade confuso", diz Lemos.
A principal mudança proposta pelo STF está na exigência de combate a conteúdos ilícitos e a crimes de ódio.
O advogado, que fez parte da equipe que discutiu e criou o Marco Civil da Internet, tem dúvidas sobre a quantidade de regimes de responsabilidade criados para plataformas.
São quatro tipos diferentes de responsabilidade que recaem sobre os provedores de serviços digitais – e Lemos lembra que não são apenas para as grandes empresas de tecnologia. A decisão do STF vale para todas, de todos os tamanhos.
“A decisão pode levar à remoção massiva de conteúdos na internet, bastando notificação extrajudicial. Há obrigação de remover todos os conteúdos iguais. Agora, e se o conteúdo estiver sendo postado para ser criticado – o que é legítimo –, vai ser removido também?", questiona o advogado.
Ainda esta semana, o presidente do Google no Brasil, Fábio Coelho, afirmou ao jornal "Folha de S.Paulo" que a plataforma poderá restringir sua atuação no país.