NOTA DE APOIO E CONTRIBUIÇÕES AO PROJETO DE LEI Nº 2628, DE 2022, QUE DEFINE PROTEÇÃO DE CRIANÇAS E ADOLESCENTES NO AMBIENTE DIGITAL

Introdução

A Coalizão Direitos na Rede (CDR) avalia como positiva o avanço no debate e na tramitação do Projeto de Lei nº 2628, de 2022, que regula a proteção integral das crianças e adolescentes no ambiente digital. O projeto, de autoria do Senador Alessandro Vieira (MDB-SE), foi relatado pelo Senador Jorge Kajuru (PSB-GO) na Comissão de Constituição, Justiça e Cidadania (CCJ) e pelo Senador Flávio Arns (PSB-PR), nas Comissões de Direitos Humanos (CDH) e de Comunicação e Direitos Digitais (CCDD) do Senado Federal. Aprovado em dezembro de 2024 por unanimidade na CCDD e encaminhado à Câmara dos Deputados, o projeto encontra-se atualmente sob relatoria do Deputado Federal Jadyel Alencar (Republicanos-PI) na Comissão de Comunicação da Câmara dos Deputados, em que foram realizadas três audiências públicas, a partir da perspectiva da proteção de crianças e adolescentes, sobre ambientes digitais e saúde mental; a responsabilidade das empresas de plataformas digitais na proteção de dados pessoais; e educação digital e controle parental1.

O projeto pode representar um avanço significativo na instituição de uma regulação sobre as empresas de plataformas digitais no Brasil. Diante desse cenário, com o objetivo de contribuir para a discussão e aprimoramento da regulação, consideramos importante destacar os dispositivos no presente projeto de lei que (1) compreendemos como fundamentais para serem preservados e (2) recomendações para o aprimoramento do conjunto da proposta legislativa.

1. O que preservar e manter 

  1. Escopo adequado ao uso de produtos e serviços digitais por crianças (art. 1º):  é fundamental que a legislação seja aplicada tanto aos serviços direcionados às crianças e adolescentes (como jogos) quanto aos que crianças e adolescentes têm provável acesso (como redes sociais). A abrangência ampla é essencial para que a regulação esteja adequada à realidade material do uso de Internet por crianças e adolescentes. Afinal, mesmo que muitos termos de uso supostamente não admitam a participação de pessoas com menos de 13 anos, na prática, essas plataformas são amplamente utilizadas por crianças, contendo, inclusive, conteúdos direcionados a elas.  
  2. Limitações à exploração comercial e vedação à perfilização comportamental e análise emocional para fins de direcionamento de publicidade comercial (art. 6º, V, art. 16 e art. 19): a vedação de técnicas de perfilamento para direcionar publicidade digital, bem como o emprego de análise emocional, realidade aumentada, estendida e virtual é um instrumento que avança nas condições de melhor proteção às crianças e adolescentes. Considerando que a principal fonte de receita do modelo de negócios das empresas de plataformas digitais advém dos serviços de publicidade direcionada a partir da extração e processamento massivo e invasivo de dados pessoais e comportamentais, a vedação deste tipo serviço às crianças e adolescentes assegura uma camada de proteção contra uma arquitetura algorítmica voltada à extração destes dados através da captura do tempo de atenção das pessoas. Ainda, protege crianças e adolescentes de práticas abusivas que usam comercialmente seus dados para direcionamento de mensagens publicitárias que buscam prever preferências e estados emocionais, em um cenário de exploração de vulnerabilidades.
  3. Responsabilidade e moderação de conteúdo (art. 21 e 22): o estabelecimento de um novo regime de responsabilidade vinculado a um rol de conteúdos potencialmente nocivos garante que a moderação de conteúdo responda à latente necessidade de prevenir e mitigar danos decorrentes da exposição de crianças e adolescentes a conteúdos ilícitos, violentos ou inapropriados. 
  4. Proteção e direitos por padrão (art. 5º e 6º): essa obrigação é fundamental para que empresas privadas respeitem o melhor interesse de crianças e adolescentes desde a concepção de seus produtos e serviços. A decisão por padrões de segurança e privacidade mais protetivos não deve recair exclusivamente sobre os usuários e suas famílias, sendo fundamental que agentes privados coloquem no centro  os direitos de crianças e adolescentes.  A exigência de medidas proativas por parte das empresas reafirma o princípio da proteção integral, compatibilizando o PL com normas internacionais, como a Convenção sobre os Direitos da Criança.

2. O que fortalecer e aprimorar 

  1. Devido processo na moderação de contas e conteúdos (art. 22): o projeto estabelece corretamente a obrigação às empresas de plataformas digitais em proceder com a retirada de conteúdos que violem os direitos de crianças e adolescentes. Com o objetivo de assegurar melhor transparência e governança sobre o exercício destas obrigações, é importante associá-las a mecanismos de devido processo, como:
    1. a notificação sobre a retirada; 
    2. apresentação do motivo e fundamentação da retirada, informando se a identificação decorreu de análise humana ou automatizada; 
    3. oferecer a possibilidade de recurso do usuário contra a medida e definir prazos procedimentais para apresentação de recurso e para resposta ao recurso; e
    4. garantir o fácil acesso ao mecanismo de recurso. 

Ainda no escopo de fortalecer o devido processo, propomos a inclusão de um novo artigo para estabelecer mecanismos eficazes de identificação de abuso dos instrumentos de denúncias previstos na lei, informando aos usuários sobre o uso indevido destes instrumentos e potenciais sanções:

  1. com definição de critérios objetivos para identificação de abuso;
  2. a notificação ao usuário em caso de investigação em razão de identificação de abuso; 
  3. oferecer a possibilidade de recurso do usuário contra a medida e definir prazos procedimentais para apresentação de recurso e para resposta ao recurso;
  4. suspensão ou cancelamento da conta do usuário; e
  5. notificação às autoridades competentes em caso de abuso grave ou reiterado.  
  1. Prestação de contas e acesso a dados por pesquisadores credenciados (art. 23). As instituições acadêmicas, científicas, tecnológicas, de inovação e jornalísticas têm um papel estratégico a desempenhar na governança pública e social da moderação de contas e conteúdos das plataformas digitais. Por isso é importante assegurar acesso destas instituições a dados para pesquisa, como instrumento fundamental para produção independente de avaliações e conhecimento sobre como os sistemas e moderadores das plataformas digitais têm cumprido com suas responsabilidades. Ressalte-se que tal já é a regra estabelecida no continente europeu por meio do Digital Services Act, que em seu art. 40, estabelece o acesso a dados para instituições de pesquisa, incluindo organizações sem fins lucrativos e associações, para investigação de riscos sistêmicos de grandes plataformas digitais, quais sejam, aquelas que contenham uma base de usuários que supere 45 milhões de usuários mensais. Aqui, o objetivo é garantir a efetivação da responsabilidade compartilhada pela proteção integral de crianças e adolescentes, possibilitando que instituições brasileiras, a exemplo de universidades federais e institutos de pesquisa, possam identificar, compreender e endereçar riscos sistêmicos, bem como avaliar a adequação e efetividade das medidas de mitigação de riscos implementadas. Ainda, ressalte-se que, diante da regra europeia, há uma desigualdade em relação a pesquisadores brasileiros no acesso a essas informações, sendo que, hoje, as pesquisas realizadas dependem da boa fé e dos parâmetros de acesso a dados estabelecidos apenas pelos atores econômicos, sujeitos à descontinuidade de ferramentas como APIs e de visualização de dados. Um exemplo evidente dessa necessidade é o fato de a API do TikTok para acesso a dados por pesquisadores possuir restrição geográfica, disponível apenas para instituições acadêmicas e organizações sem fins lucrativos dos Estados Unidos, União Europeia, Reino Unido e Suíça2. Na prática, isso significa que pesquisadores brasileiros não possuem o mesmo acesso para identificação de riscos e impactos sobre direitos de crianças e adolescentes no território nacional. Finalmente, é importante que o dever de prestar contas a que se refere o art. 23 abranja tanto as plataformas direcionadas quanto aquelas a que crianças e adolescentes têm provável acesso
  2. Explicitar o dever de cuidado, proteção e segurança contra conteúdo viral e automutilação (art.6). A importância de se abordar o tema da automutilação se deve ao fato de que, assim como o inciso III do art. 6º menciona expressamente determinados danos à saúde mental – como ansiedade, depressão, entre outros – existem também danos físicos, que merecem igual atenção. A inclusão explícita desse dano no escopo da presente lei contribuiria para assegurar uma proteção mais ampla para as crianças e adolescentes. Os conteúdos que indiquem ou incentivem comportamentos de automutilação podem ser interpretados como distintos daqueles conteúdos que indiquem ou incentivem comportamento suicida por não visar o extermínio da própria vida, em que pese o evidente dano físico ao corpo. Ainda no escopo deste artigo, e com o objetivo de garantir uma proteção mais ampla, seria pertinente incluir a noção de “conteúdos virais” no inciso V do art. 6º. Considerando que esse dispositivo trata das práticas publicitárias predatórias, é fundamental destacar que os sistemas algorítmicos responsáveis pela moderação, recomendação e ordenamento de conteúdos — em plataformas cujo modelo de negócios se baseia na publicidade digital — operam com uma lógica voltada a privilegiar conteúdos com alto potencial de engajamento, frequentemente por meio de estímulos repetitivos. Embora nem todo conteúdo viral seja ilícito, a viralização, nessas redes, faz parte da dinâmica publicitária predatória promovida pelos próprios algoritmos da plataforma, independentemente de os conteúdos terem sido impulsionados mediante pagamento ou não. 

O Projeto de Lei nº 2.628, de 2022, já representa uma iniciativa robusta e avançada no campo da regulação das plataformas digitais no Brasil, pois traz para o centro da discussão a proteção dos direitos das crianças e dos adolescentes nos meios digitais. A Coalizão Direitos na Rede apoia o texto aprovado pelo Senado e defende a manutenção de seus dispositivos centrais, por entender que ele estabelece um marco importante na proteção de direitos, especialmente de crianças, adolescentes e seus responsáveis. Os acréscimos propostos não alteram a essência do projeto, mas devem ser vistos como reforços que fortalecem e aprimoram ainda mais as garantias já previstas na versão original.

  1.  Na ocasião dessas audiências públicas, foram ouvidas organizações que integram a Coalizão Direitos da Rede; quais são: Instituto Alana, Associação Data Privacy de Pesquisa, Idec – Instituto de Defesa de Consumidores e Instituto de Referência em Internet e Sociedade (IRIS-BH). ↩︎
  2.  https://developers.tiktok.com/products/research-api/. ↩︎