5 perguntas para Matthew Bergman, do Social Media Victims Law Center

Crédito: Divulgação

Redação Fast Company Brasil 5 minutos de leitura

Crianças e adolescentes estão mais vulneráveis online do que adultos. Mesmo com os filtros, as plataformas são capazes de espalhar não só conteúdos, mas atividades impróprias e prejudiciais para os pequenos.

Nos Estados Unidos, pais estão lutando contra as redes nos tribunais. Matthew Bergman, advogado norte-americano criador do Social Media Victims Law Center, é um dos líderes desse movimento.

O centro de Bergman lidera casos contra TikTok, Meta, Snapchat e Discord. O advogado representa mais de duas mil famílias de vítimas de cyberbulling e de massacres em escolas. O espaço abre caminho para um recurso legal para adolescentes que sofrem de depressão, transtorno alimentar, automutilação ou suicídio como resultado do bullying em redes sociais.

Bergman tem 25 anos de experiência em casos de litígio coletivos – especificamente, casos de intoxicação por amianto. Apesar de ter presenciado situações complicadas e tristes nas últimas décadas, ele se diz mais assustado com os milhares de casos de jovens prejudicados pelas mídias sociais.

Mais do que apoiar as vítimas, Bergman quer levantar a bandeira para forçar as big techs a aumentarem seus dispositivos de segurança, principalmente para os usuários jovens e crianças.

FC Brasil – Você tem mais de 25 anos de experiência representando casos coletivos nos Estados Unidos. O que o levou a abrir o Social Media Victims Law Center?

Matthew Bergman – Minha carreira tem-se centrado principalmente na representação de vítimas que adoeceram e tiveram câncer em decorrência do amianto em produtos. Quando ouvi as revelações do Facebook Papers [em 2021], vi que as grandes empresas de mídia social sabem que os seus produtos estão fazendo com as crianças.

Caracterizar as plataformas de mídia social como produtos é uma forma de responsabilizá-las pelo que colocam no ar.

Ao mesmo tempo, a crise de saúde mental dos adolescentes só aumentou nos EUA. Liguei as histórias e vi as mesmas características: relação de causa e efeito entre um produto e uma doença, entre um desastre de saúde pública e uma má conduta em nome das empresas que criaram esses produtos.

Decidi que, no lugar de dedicar minha carreira a compensar vítimas de erros passados, queria usar o sistema legal para proteger as vítimas dos erros futuros.

FC Brasil – Você parte do princípio que as redes sociais são produtos e não plataformas. Alguns usuários não veem dessa forma. Por que é importante passar a analisá-las como produtos?

Matthew Bergman – Por mais que as pessoas olhem para as redes sociais como plataformas onipresentes ou serviços, elas mesmas se chamam de produto.

Eles têm postos como engenheiro de produto, são registrados na Comissão de Valores Mobiliários como fornecedores de produtos, falam de novos produtos nas discussões com investidores.

Caracterizar as plataformas de mídia social como produtos é uma forma e responsabilizá-las pelo que colocam no ar.

FC Brasil – As redes sociais são um produto seguro para crianças?

Matthew Bergman – Definitivamente, não. Elas são viciantes, projetadas para maximizar o engajamento. É assim que essas empresas ganham dinheiro. O lucro das big techs não vem da qualidade de suas redes sociais, mas pela quantidade de tempo que os usuários passam olhando para o produto.

Crédito: Divulgação

São empresas que usam princípios psicológicos e inteligência artificial para criar algoritmos que mostram às crianças não o que elas querem ver, mas aquilo do que elas não conseguem desviar o olhar.

Conforme o tempo passa, as informações mostradas nas redes sociais ficam progressivamente mais perturbadoras, violentas e depreciativas, o que mantém o interesse dos usuários por mais tempo.

A diferença é que esses usuários em específico ainda não têm o cérebro totalmente desenvolvido, o que resulta em incentivo a comportamentos de risco e radicais.

FC Brasil – Nos últimos anos, dossiês como o Facebook Papers mostraram que a alta diretoria da Meta discutia sobre os efeitos dos algoritmos em garotas adolescentes. Isso não é um impacto apenas nos EUA, acontece no mundo todo. Como a sociedade pode responsabilizar as empresas?

Matthew Bergman – Uma das coisas que aprendemos é que essas empresas de mídia social realmente operam em um reino de escuridão, nunca tiveram qualquer transparência sobre como seus produtos funcionam.

Durante muitos anos, elas tiveram sucesso em não ser questionadas por tribunais, políticos ou autoridades de saúde sobre o quão perigosos são seus produtos e como funcionam. Foi um dos motivos por que criamos o Social Media Victims Center, para dar mais transparência a esses produtos.

São empresas que usam princípios psicológicos e IA para criar algoritmos que mostram às crianças não o que elas querem ver, mas aquilo do que elas não conseguem desviar o olhar.

Há três maneiras de responsabilizar as big techs. Em primeiro lugar, você os considera legalmente responsáveis. Os Estados Unidos não são o único sistema judicial que tem responsabilidade civil. Os advogados de todo o país e do mundo precisam olhar para as leis de seus países e ver como você pode responsabilizar essas empresas.

A segunda ação é a atividade legislativa. Por exemplo, a União Europeia aprovou um projeto de lei muito bom que limita seriamente a extensão em que os algoritmos podem ser usados com crianças. Esse é um ótimo resultado.

Nos Estados Unidos, o Congresso está trabalhando numa lei com a qual republicamos e democratas concordam. Existem legisladores em todo o mundo, inclusive no Brasil, que precisam começar a usar seu poder para promulgar leis para enfrentar esta ameaça.

A terceira ação é o que chamo de tribunal da opinião pública, dos pais, dos usuários. Precisamos falar mais e entender melhor o fato de que as redes sociais são perigosas.

FC Brasil – Os caminhos da legislação e da litigação são longos. O que os pais e as big techs poderiam fazer hoje para deixar os produtos mais seguros para todos?

Matthew Bergman – Na verdade, as mudanças que tornariam esses produtos mais seguros poderiam ser implementadas agora. São saídas muito fáceis, como a opção de criar uma timeline sem algoritmos para crianças e reduzir o contato delas com conteúdos externos a familiares e amigos.

Poderiam fazer a verificação de idade e de identidade logo na hora de se criar perfis. Poderiam ter avisos básicos nesses produtos sobre os riscos que eles oferecem às pessoas.

Esses produtos foram feitos para para burlar a responsabilidade parental. Além de limitar o tempo de tela, os pais precisam ter conversas honestas com seus filhos, conversas francas sobre os perigos das plataformas. Mas, para isso, os pais também precisam se informar.


SOBRE O(A) AUTOR(A)

Conteúdo produzido pela Redação da Fast Company Brasil. saiba mais