Novas Medidas para Proteger Crianças nas Redes Sociais
A partir de agora, as redes sociais que atuam no Brasil terão que extinguir recursos que possam prender a atenção de crianças e adolescentes. Entre as mudanças, destacam-se a proibição da rolagem infinita de feeds e a reprodução automática de vídeos, ambos considerados métodos que mantêm os jovens excessivamente conectados. Essas determinações fazem parte do decreto elaborado pelo Ministério da Justiça e da Segurança Pública, que regulamenta o Estatuto da Criança e do Adolescente Digital (ECA Digital). Espera-se que o documento seja oficialmente divulgado nesta terça-feira (17), quando a nova lei entra em vigor.
Além de cortar essas práticas, o novo regulamento proíbe qualquer tipo de técnica que explore fragilidades emocionais ou cognitivas dos menores. Isso inclui a criação de um falso senso de urgência e o uso de pressões emocionais ou recompensas para manter os jovens engajados por mais tempo nas plataformas. O decreto também veda o envio de notificações destinadas a trazer os usuários de volta aos aplicativos.
O objetivo principal do ECA Digital é combater casos de violência, assédio e exploração de jovens na internet. A lei exige que empresas de tecnologia implementem mecanismos para identificar a idade dos usuários e reforcem seus sistemas de moderação. Além disso, devem ser criados recursos para detectar comportamentos de risco antes que denúncias sejam formalizadas.
Como as Mudanças Impactarão Crianças e Adolescentes
A implementação dessas medidas, no entanto, não será imediata e ocorrerá de forma escalonada ao longo dos próximos meses. A Agência Nacional de Proteção de Dados (ANPD) será responsável por emitir diretrizes após a publicação do decreto, definindo, por exemplo, quando as proibições da rolagem infinita e da reprodução automática começarão a valer.
Outra importante alteração trazida pela nova legislação diz respeito à publicidade direcionada a crianças. As plataformas não poderão mais usar dados comportamentais dos usuários mais jovens — como gostos, histórico de navegação e tempo de uso — para mostrar anúncios. Também ficam excluídas do jogo técnicas de análise emocional e o uso de recursos de realidade aumentada e virtual para fins comerciais.
Verificação de Idade e Proteção de Dados
As mudanças não param por aí. As plataformas digitais deverão confirmar a idade dos usuários antes de liberar o acesso a conteúdos ou serviços específicos. As empresas também precisam agir para proteger os menores de conteúdos prejudiciais, como pornografia e material violento.
A responsabilidade sobre o uso seguro dessas plataformas recairá sobre as próprias empresas, que devem agir rapidamente em resposta a denúncias de comportamento de risco. Além disso, serão disponibilizadas ferramentas para que pais ou responsáveis possam supervisionar e controlar o uso da internet por crianças e adolescentes.
A coleta e o uso de dados pessoais de menores estarão sob regras mais rígidas, o que representa um avanço significativo na proteção da privacidade nesse grupo etário.
Desafios na Implementação das Novas Regras
Para especialistas em crimes digitais, o impacto dessas novas regras dependerá da eficácia e rapidez com que as plataformas irão aplicá-las na prática. A delegada Lisandréa Salvariego Colabuono, do Núcleo de Observação e Análise Digital (Noad) da Polícia Civil de São Paulo, destaca que a comunicação entre as plataformas e as autoridades ainda é um ponto fraco. “Atualmente, as plataformas fornecem informações de forma arbitrária, sem prazos claros, o que pode comprometer a proteção de vítimas em situações de risco imediato”, explica.
Ela salienta que o combate à violência digital deve ser uma responsabilidade coletiva, que envolva não apenas as instituições policiais, mas também escolas, comunidades e outras partes da sociedade. “A educação e a segurança devem caminhar juntas nesse esforço”, acrescenta.
A ideia de exigir verificação de idade visa abordar uma fragilidade histórica da internet, onde crianças e adolescentes frequentemente acessam ambientes digitais com pouquíssimas barreiras. O advogado Gonçalo Adão de Arruda Santos, especialista em perícia digital, enfatiza que já existem tecnologias que podem melhorar esse controle, embora nenhuma delas seja completamente infalível. “Métodos como a autodeclaração são vulneráveis, enquanto técnicas biométricas ou documentais, embora mais seguras, levantam questões sobre privacidade”, diz.
Segundo Leilah Luahnda Gomes de Almeida, doutora em ciências jurídicas e sociais, a exigência de verificação de idade é uma adaptação necessária das normas de proteção infantil ao contexto digital. Para organizações da sociedade civil, essa legislação marca um ponto de virada na forma como as empresas de tecnologia são responsabilizadas.
A experiência nacional e internacional demonstra que a autorregulação não é suficiente para garantir os direitos de crianças e adolescentes no ambiente online, afirma Maria Mello, gerente do eixo digital do Instituto Alana. Entre as empresas consultadas, o Discord revelou que já iniciou, desde março, a implementação de mecanismos de verificação de idade no Brasil. Os usuários poderão verificar sua idade por meio de selfie em vídeo ou envio de documentos, utilizando também denúncias e ferramentas automatizadas para detectar conteúdos abusivos.
O Roblox, por sua vez, foi contatado, mas não respondeu até o fechamento desta reportagem. A ANPD, que é a entidade reguladora, ainda irá estabelecer requisitos técnicos para garantir a segurança e confiabilidade das soluções de checagem de idade.
