Safety by Design? Entenda regra do ECA digital que pode limitar rolagem infinita
Empresas passam a ser responsabilizadas por falhas de segurança previsíveis, já que exigência pressupõe antecipação de riscos

A Lei nº 15.211/2025, que institui o Estatuto Digital da Criança e do Adolescente (ECA Digital), entra em vigor no Brasil nesta terça-feira (17). A norma tem como objetivo reforçar a proteção de crianças e adolescentes no ambiente online em diferentes frentes.
Entre as medidas exigidas, que abrangem plataformas como redes sociais, jogos eletrônicos, serviços de streaming e lojas virtuais, está a implementação do Safety by Design, ferramenta que acaba com problemas logo em seu início.
O QUE É SAFETY BY DESIGN
Safety by Design (SbD) é um conceito que coloca a segurança como prioridade desde a concepção de um produto, serviço ou sistema, e não como algo a ser corrigido depois.
Ou seja: riscos são antecipados e mitigados ainda nas etapas iniciais de desenvolvimento, evitando danos aos usuários e outros envolvidos. No contexto das redes sociais e do ambiente digital, isso significa que as plataformas precisam pensar em segurança desde passos iniciais.
SAFETY BY DESIGN PENSADO EM MENORES DE IDADE
Para Mayara Stelle, cofundadora e diretora executiva de Sleeping Giants Brasil (SGBR), o ECA Digital incorpora o conceito de Safety by Design como um dos pilares da nova legislação, ao estabelecer que a proteção de crianças e adolescentes deve estar presente desde a concepção dos produtos digitais e não apenas como uma resposta a problemas já existentes.
Segundo ela, isso representa uma mudança estrutural na lógica das plataformas, que passam a ter a obrigação de antecipar riscos e integrar mecanismos de segurança desde o desenvolvimento de seus serviços.
"Ambientes digitais acessados por menores precisam ser “seguros por padrão”, deixando de tratar a proteção como um recurso opcional", explica.
A diretora explica que isso obriga empresas a adotarem medidas concretas, como configurações automáticas de privacidade, sistemas mais eficazes de verificação de idade e ferramentas de supervisão parental integradas.
“Essa abordagem impacta diretamente o funcionamento de algoritmos e modelos de negócio. Com o ECA Digital, práticas como a publicidade comportamental direcionada a menores e o uso de mecanismos que exploram vulnerabilidades psicológicas deixam de ser permitidas”. Além disso, as plataformas passam a ter a responsabilidade de prevenir riscos e agir rapidamente diante de conteúdos nocivos, sob pena de sanções.
Para a especialista, a principal mudança está na inversão de responsabilidade: a proteção da infância no ambiente digital deixa de recair majoritariamente sobre famílias e passa a ser uma obrigação das empresas que projetam e operam essas plataformas.
O QUE AS PLATAFORMAS DEVEM FAZER AGORA?
Redes sociais e aplicativos terão que ser projetados já considerando a proteção de crianças e adolescentes, reduzindo riscos como exposição a conteúdo inadequado, assédio ou aliciamento.
Contas de menores terão que vir, por padrão, com perfis privados, restrições de contato e limites de interação com desconhecidos. Ferramentas de controle parental devem estar integradas, permitindo que responsáveis acompanhem atividades, contatos e tempo de uso.
O monitoramento das Big Techs também deverá identificar e remover rapidamente conteúdos nocivos, priorizando a prevenção em vez da reação.
Além disso, as verificações de idade devem passar a ser mais complexas. Não basta apenas perguntar "você tem 13 anos?". As plataformas precisarão implementar tecnologias (como estimativa de idade por IA ou integração com documentos) que sejam eficazes, mas que também respeitem a LGPD (não coletando dados excessivos).
OUTROS PAÍSES SEGUEM CAMINHOS SIMILARES
Diversos países, como Austrália, França, Reino Unido e mais, vêm adotando regras rígidas para o uso de plataformas digitais por crianças e adolescentes.
Na Europa, se discutem propostas de proibição de redes sociais para menores de 16 anos, além da exigência de autorização dos responsáveis para a criação das contas e até um bloqueio de conteúdos considerados prejudiciais.
No mês passado, a União Europeia teria acusado o TikTok de ser viciante para crianças. A tese foi apoiada em outras nações e agora no ECA Digital, a versão brasileira das redes devem apresentar funcionalidades que evitam estímulos excessivos, exposição prolongada ou práticas que incentivem a dependência digital entre menores.
Plataformas devem provar que o algoritmo de recomendação não está empurrando a criança para uma série de conteúdos nocivos ou viciantes, prendendo o usuário em uma “rolagem infinita”.
PRÓXIMOS PASSOS
Agora, empresas passam a ser responsabilizadas por falhas de segurança previsíveis, já que o princípio do Safety by Design pressupõe antecipação de riscos.
Os próximos passos do ECA Digital dependem da regulamentação da Agência Nacional de Proteção de Dados (ANPD) e do Ministério da Justiça sobre quais sanções serão aplicadas imediatamente e quais terão prazo de adaptação técnica.