NOTA PÚBLICA DA COALIZÃO DIREITOS NA REDE SOBRE O TEMA DA VERIFICAÇÃO ETÁRIA

A aprovação e sanção do Estatuto Digital da Criança e do Adolescente (ECA Digital) – Lei nº 15.211 de 17 de setembro de 2025 – representou uma vitória para a sociedade brasileira. Ao estabelecer um conjunto de responsabilidades diretas aos fornecedores de produtos e serviços digitais sobre suas moderações de contas e conteúdos, bem como obrigações de transparência e prestação de contas, a lei fortalece a agenda de regulação de plataformas digitais com o foco prioritário na proteção integral de crianças e adolescentes. Diante desse cenário, para que a agenda avance na construção de instrumentos regulatórios sobre os serviços e modelos de negócios das plataformas digitais, é fundamental que a regulamentação sobre o processo de verificação etária, previsto no ECA Digital, esteja em conformidade com a garantia de privacidade e proteção de dados pessoais.

Para a Coalizão Direitos na Rede, o processo de verificação etária é um instrumento, dentro de um conjunto de outras ferramentas, destinado a assegurar que o acesso de crianças e adolescentes aos ambientes digitais seja adequado ao seu estágio de desenvolvimento e formação, sem que isso signifique a imposição de meios compulsórios de identificação, de vigilância massiva e coleta excessiva de dados pessoais. Entendemos, portanto, que a verificação etária não trata da identificação nominal, mas da validação de um atributo, como a confirmação que a pessoa se encontra, ou não, em determinada faixa etária. Isso significa que qualquer solução que vier a ser implementada no Brasil não deve reproduzir métodos e técnicas que atrelam ao esforço de verificação etária um processo de identificação dos usuários de produtos e serviços digitais por meio do compartilhamento de documento de identificação civil oficial, compartilhamento de cartões de crédito, coleta de biometria facial, vasculhamento de e-mails, e entrega de dados biográficos, entre outros que coloquem em risco a privacidade e a proteção de dados dos usuários.  

Entendemos que é possível e necessário adotar um método equilibrando a eficácia de confirmação do atributo verificado e a proteção à privacidade e dados pessoais. Esse método é baseado no princípio da Prova de Conhecimento Zero (ou Zero Knowledge Proof), por meio da emissão de uma certificação criptografada, ou “token”, que servirá para atestar ao provedor de serviços digitais que o usuário encontra-se em determinada faixa etária, sem incorrer na necessidade de deter qualquer dado pessoal, biográfico ou biométrico ao referido provedor. Inclusive, a divisão de trabalho entre diferentes agentes ao longo do processo de verificação, com cada um desses agentes com competências bem definidas, fortalece uma arquitetura do processo em que as diferentes bases de dados necessárias para operacionalizar as soluções e os metadados gerados da operacionalização não fiquem concentradas sob um único agente que, ao agregar os dados e metadados, deteria posse sobre informações do mapa de acesso de produtos e serviços pelos usuários.  

Por tratar-se de um método atrelado à construção de um protocolo tecnológico, entendemos também que a verificação etária precisa se assentar sob modelos de códigos abertos e auditáveis. Nesse sentido, convém advertir que buscar a solução por meio de um produto ou serviço privado incorre no risco de agravar a condição de dependência do país às grandes empresas de plataformas e tecnologias digitais, que estão em melhores condições de produzi-la. Ademais, em razão da necessidade de adoção abrangente do método de verificação, a verificação privada pode implicar no estabelecimento de um expressivo poder de mercado ao provedor da solução, afetando o desenvolvimento de novos serviços e produtos tecnológicos. É desejável adotar regras e diretrizes que não favoreçam e criem, nos limites da legislação, limites para a realização da verificação etária aos principais agentes econômicos do ecossistema digital (como as grandes empresas de plataformas e tecnologias digitais, corretoras de dados e instituições financeiras). Como já amplamente documentado e denunciado pela CDR e outras organizações da sociedade civil, essa concentração de dados possibilita a esses conglomerados o abuso de poder econômico e político com consequências negativas sobre os usuários e a sociedade.

Para além do debate sobre os distintos métodos técnicos das soluções para verificação etária e sua arquitetura de governança e operacionalização, há, ainda, a preocupação sobre o escopo de agentes cuja obrigação de adoção de um processo de verificação etária recai, segundo o ECA Digital. Por isso, consideramos importante destacar que a regulamentação da lei e, em especial, a autoridade administrativa que supervisionará sua aplicação, atente para as situações que definem a condição de acesso provável (Art.1º) e a observação das assimetrias regulatórias (Art. 34º, § 2º), de modo a não prejudicar as soluções de sistemas operacionais de software livre cujo desenvolvimento e manutenção ocorre de forma comunitária. Sistemas operacionais de impressoras e roteadores, por exemplo, não impõem riscos à segurança e desenvolvimento biopsicossocial de crianças e adolescentes. 

Por fim, mas não menos importante, o ECA Digital prevê que o poder público deve assegurar a participação social como forma de garantir uma forte transparência no processo regulatório sobre os mecanismos de verificação etária (Art. 11º). Por isso, cumprimentamos as corretas iniciativas do governo federal de formar, em abril, o comitê consultivo sobre o tema1, com participação da sociedade civil e da academia; bem como lançar uma consulta pública sobre o tema2. Para além dessas iniciativas, é fundamental que as instâncias de participação social da Agência Nacional de Proteção de Dados (ANPD) sejam fortalecidas. A participação para decisões estratégicas e poder para estabelecer diretrizes, dentro do escopo da legislação, é um meio para mitigação de riscos de determinações autoritárias ou abusivas3.

Observando o cenário internacional é importante que o Brasil analise as experiências e implementação de melhores práticas e a correções de equívocos e violações já identificadas. A partir dessas experiências e das condições sociais, econômicas e políticas no país, entendemos que o Brasil pode contribuir para estabelecer um padrão internacional de verificação etária, equilibrando eficiência e proteção. No Reino Unido, por exemplo, o processo de verificação etária exemplifica a falha de soluções baseada em reconhecimento facial que, além de facilmente burladas, são fortemente questionadas em razão dos aspectos de vigilância massiva, discriminação algorítmica e ineficácia na diferenciação das faixas etárias. A Austrália, outro exemplo, produziu um robusto estudo na matéria de verificação etária para orientar a implementação da legislação que proíbe o uso de redes sociais para pessoas menores de 16 anos de idade, realizado a partir de um processo de participação e experimentação. 

Diante das questões apresentadas e em vista dos desafios que a implementação da verificação etária tem experienciado ao redor do mundo, ressaltamos a importância de sermos cautelosos diante da urgência política de implementá-la sem que haja ainda soluções tecnológicas robustas e que garantam as salvaguardas necessárias para assegurar a proteção de dados e a segurança das pessoas nas redes. Considerando a importância do acesso à internet na vida cotidiana e as condições desiguais em que esse acesso ocorre no Brasil, é importante que possamos avançar com a proteção de crianças e adolescentes no ambiente digital, assegurando, contudo, que as desigualdades e problemas já existentes não sejam agravados.

O que queremos

  • Modelo de Prova de Conhecimento Zero
  • Soluções públicas, abertas e auditáveis
  • Modelos que evitem a concentração de dados em grandes agentes econômicos 
  • Fortalecimento das instâncias e instrumentos de participação da sociedade e comunidade técnica

O que não queremos

  • Atrelar verificação etária com verificação de identidade
  • Soluções privadas centradas em grandes empresas do setor
  • Uso de reconhecimento facial, cartões de crédito e dados sensíveis como métodos padrão

Disponível em: https://direitosnarede.org.br/2025/05/16/estrutura-regulatoria-das-plataformas-digitais-deve-incluir-forte-mecanismo-de-participacao-social/ 

  1. Ministério da Justiça e Segurança Pública. Portaria MJSP nº 925. 10 de abril de 2025. Disponível em: https://dspace.mj.gov.br/bitstream/1/14869/1/PRT_GM_2025_925.html ↩︎
  2. Brasil Participativo. Aferição de idade na internet brasileira. 15 de outubro de 2025. Disponível em:https://brasilparticipativo.presidencia.gov.br/processes/idadeafericao ↩︎
  3. Coalizão Direitos na Rede e Sala de Articulação contra Desinformação. Estrutura regulatória das plataformas digitais deve incluir forte mecanismo de participação social. 16 de maio de 2025. ↩︎