Sem transparência, não há regulação que possa proteger nossas crianças

O PL 2628 tenta responder à pressão da sociedade por proteção à infância nas redes, mas ignora o ponto central: a necessidade de fiscalização externa

Crédito: ljubaphoto eIrina Silchuk/ Getty Images

Rose Marie Santini 4 minutos de leitura

Na última quarta-feira (dia 29), o Congresso Nacional aprovou, em votação simbólica, o PL 2628 – projeto de lei que estabelece regras para a prevenção e o combate a crimes contra crianças e adolescentes em ambientes digitais.

Como o texto sofreu alterações na Câmara, ele ainda precisa retornar ao Senado para a análise final. Mas, considerando a alta probabilidade de aprovação, a pergunta que se impõe agora é: o que podemos realmente esperar desse projeto de lei?

Podemos, de fato, acreditar que nossas crianças estarão mais protegidas nas plataformas digitais? Podemos confiar que essas empresas serão responsabilizadas por recomendar conteúdos impróprios? Haverá punição para as big techs que lucram com pedofilia e a sexualização infantil?

Lamento dizer, mas a resposta é não. Esse projeto, tal como está, não resolverá o problema, e é importante entender por quê.

O texto tem boas intenções e apresenta algumas propostas relevantes. No entanto, como aplicar regras se não há mecanismos eficazes de coleta de dados e fiscalização das plataformas digitais?

Um exemplo: o PL determina que as plataformas verifiquem a idade dos usuários e restrinjam o acesso a conteúdos inadequados. Mas a realidade já escancara os limites dessa proposta. Segundo a pesquisa TIC Kids (2024), 82% das crianças de 11 a 12 anos possuem perfis em redes sociais, mesmo que essas plataformas sejam legalmente destinadas a maiores de 13. Na prática, as crianças mentem a idade para acessá-las.

Para tentar contornar isso, o projeto sugere que as plataformas usem padrões de navegação para identificar usuários infantis. Porém, aí reside um paradoxo evidente: se uma criança consome conteúdo voltado a adultos, será classificada como tal pelos algoritmos – e, portanto, continuará navegando livremente, sem qualquer restrição. Justamente aquelas crianças mais expostas a riscos são as que passarão despercebidas.

A QUESTÃO DA TRANSPARÊNCIA

O PL 2628 também determina que as plataformas ofereçam mecanismos de controle parental e que contas de crianças estejam vinculadas às de um adulto.

No entanto, todos sabemos que é comum que crianças criem duas contas: uma para os pais monitorarem, no qual se identificam como menores, e outra onde mentem a idade e interagem livremente. A conta “fake” acaba sendo a que os pais veem, enquanto a conta “real” segue invisível e sem supervisão.

Outro ponto crítico do projeto é a proibição da publicidade direcionada a crianças e adolescentes. A lei veda a monetização, o impulsionamento e o perfilamento de menores com fins comerciais. No papel, parece um avanço. Mas, na prática, falha ao não prever como identificar se as plataformas estão, de fato, cumprindo essa proibição.

Crédito: Jacob Wackerhausen/ iStock

Como os anúncios são personalizados – e, portanto, não públicos – não existem mecanismos eficazes para verificar o que está sendo monetizado ou entregue de forma segmentada para menores. Como garantir que a publicidade não chegue às crianças se nem sequer sabemos quando ela está sendo veiculada?

E aqui chegamos ao ponto central: a ausência de regras claras e rigorosas de transparência. O grande erro do projeto – e da regulação europeia (Lei de Serviços Digitais ou DSA) que ele tenta espelhar – é tratar a transparência como um detalhe secundário.

Segundo a pesquisa TIC Kids, 82% das crianças de 11 a 12 anos possuem perfis em redes sociais

O artigo 31 do PL 2628 exige que plataformas publiquem relatórios de moderação de conteúdo. No entanto, o texto é vago quanto ao tipo, à precisão das informações e à abrangência desses relatórios, o que permite que as empresas tratem os dados da forma que lhes convém – muitas vezes sem qualquer padrão técnico, o que impede a fiscalização pública.

Sem um protocolo técnico de transparência, que permita observação externa, auditável e independente, não há como fiscalizar, investigar ou responsabilizar. A experiência da Europa comprova isso: mesmo com uma legislação avançada, pesquisadores e órgãos reguladores seguem sem acesso a dados essenciais.

Afinal, depender do envio de informações pelas próprias plataformas é como pedir que um contribuinte envie à Receita Federal uma confissão voluntária de sonegação. Ninguém entrega provas contra si mesmo.

MOBILIZAÇÃO SOCIAL

Enquanto isso, seguimos às cegas. Não sabemos o que acontece dentro dos ambientes digitais, não conseguimos responsabilizar empresas que lucram com a exploração de crianças, adolescentes e outros grupos vulneráveis e continuamos assistindo à violação sistemática das próprias políticas internas das plataformas, sem consequências.

Porque, sem transparência, não há responsabilização possível. E sem responsabilização, nenhuma lei, por melhor que seja, funciona.

Apesar disso, há um avanço importante que merece ser celebrado: a mobilização da sociedade, impulsionada pelo vídeo do criador de conteúdo Felca, revelou um limite moral claro.

Felca, influenciador digital
Felca, influenciador digital (Crédito: Reprodução/ YouTube)

A sociedade brasileira se levantou contra a mercantilização da infância e deixou um recado inequívoco: não aceitaremos que pedofilia, sexualização e exploração de crianças sejam normalizadas e muito menos que sirvam de fonte de lucro para empresas e indivíduos sem escrúpulos.

Agora, precisamos transformar essa indignação coletiva em exigência concreta por responsabilidade. E isso começa pelo princípio mais básico de qualquer democracia: a prestação de contas.

Precisamos de transparência real e efetiva sobre todas as informações de interesse público que circulam nas plataformas digitais. Sem transparência, não haverá decência.


SOBRE A AUTORA

Rose Marie Santini é fundadora e diretora do Laboratório de Estudos da Internet e Redes Sociais da UFRJ (NetLab). saiba mais