A Coalizão Direitos na Rede (CDR) vem por meio deste documento expressar seu posicionamento sobre o julgamento do Supremo Tribunal Federal (STF) pela parcial inconstitucionalidade o artigo 19 do Marco Civil da Internet, a partir do Recurso Extraordinário 1037396 (Tema de Repercussão Geral 987) e do Recurso Extraordinário 1057258 (Tema 533). Desde o início do julgamento1, com a realização da consulta pública pela Advocacia Geral da União2 e a leitura dos primeiros votos, realizados pelos ministros relatores3, manifestamos nossas posições, críticas e recomendações sobre as implicações de uma eventual interpretação de inconstitucionalidade do artigo 19.
Em que pese o esforço do Supremo Tribunal Federal em tratar o tema da responsabilidade dos provedores de aplicações, incluindo as plataformas digitais, sobre danos decorrentes de conteúdos publicados por terceiros, o Judiciário, como já manifestamos4, tem limites institucionais em estabelecer um regramento coerente com a complexidade do tema e instituir mecanismos adequados de governança sobre estas responsabilidades. Mas entendemos também que o resultado do julgamento em tela é decorrência da decisão da Câmara dos Deputados em suspender o debate e não retomar a votação de projetos concretos que ofereciam uma estrutura regulatória adequada de regras e governança.
Nesse sentido, queremos reiterar as recomendações e críticas e trazer reflexões à luz da conclusão do conjunto de votos formulados pelos ministros e ministra e da tese enunciada que ainda precisa ser oficializada pelo Supremo Tribunal Federal em seu acórdão sobre a referida inconstitucionalidade parcial. O resultado torna ainda mais urgente a retomada da agenda legislativa para lidar com as regras elaboradas pelos ministros.
Escopo e aplicações cobertas pela decisão
Um dos pontos preocupantes da tese enunciada é o seu escopo quanto aos tipos de provedores de aplicação cobertos pelas novas regras. O regime original do artigo 19 ficou mantido apenas para (a) provedor de serviços de e-mail; (b) serviços de reunião fechada por vídeo ou voz; (c) mensageiros instantâneos, “exclusivamente no que diz respeito às comunicações interpessoais5”. Apesar do debate ter sido focado em redes sociais, os efeitos serão estendidos para um conjunto amplo de outras aplicações, podendo gerar impactos desafiadores para estas e afetando os conteúdos de terceiros armazenados ou publicados no seu interior. É o caso, por exemplo, de enciclopédias virtuais, recursos educacionais abertos, serviços de hospedagem e, de modo amplo, bens públicos digitais.
Por outro lado, um ponto positivo na tese enunciada foi a exclusão dos crimes contra a honra (calúnia, injúria e difamação) do novo regime, mantendo estas situações dentro do modelo original do Artigo 19. Esta exclusão foi fundamental para evitar que os efeitos possíveis do novo regime (ver abaixo) fossem amplificados pelo receio dos provedores de aplicações de Internet da responsabilização por casos que poderiam ser enquadrados como um dos tipos de crime contra a honra. Outra flexibilização providencial foi a ressalva do novo regime para a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE.
Novo regime de responsabilização
A tese enunciada muda o regime de responsabilização do Artigo 19 em dois novos mecanismos. Primeiro, para todos os tipos de crimes ou ilícitos, passa a valer o regime do Artigo 21, com provedores de aplicação podendo ser responsabilizados por danos de conteúdos caso não os removam se notificados pela vítima ou pessoa afetada por aquele conteúdo (exceção que era prevista no Marco Civil apenas para a difusão de imagens íntimas não-consentidas). Este modelo de notificação e retirada reforça o poder de retirada nos provedores de aplicação (incluindo plataformas) em vez do Judiciário. Esta nova obrigação amplia sobremaneira as hipóteses de responsabilização. Segundo, para crimes graves (como atentados ao Estado democrático de direito, terrorismo, violência sexual contra crianças e adolescentes e induzimento ao suicídio), provedores de aplicação podem ser responsabilizados se não agirem sobre os conteúdos independentemente de notificação. Nesses casos, a responsabilidade da plataforma é pela gestão dos riscos sistêmicos; ou seja, ela não é obrigada a garantir, com infalibilidade, que nenhum conteúdo com esse teor circulará em seus espaços, mas sim a adotar medidas suficientes e compatíveis com o estado da técnica para coibir a disseminação descontrolada deles.
A CDR vem há anos apontando a necessidade de aprovar uma legislação que adote medidas concretas para evitar crimes e conteúdos e práticas problemáticas (como desinformação e discurso de ódio) na Internet. Entretanto, como temos alertado, há um risco de que a resposta dos provedores de aplicação, especialmente redes sociais e mecanismos de busca, seja a intensificação de remoção e outras formas de moderação de conteúdos para evitar o risco de responsabilização. Tal cenário implicaria em um efeito negativo sobre a liberdade de expressão e direito à informação dos usuários. Uma ponderação importante na tese do Supremo Tribunal Federal foi limitar o segundo mecanismo sobre crimes graves ao que chamou de “falhas sistêmicas”, definidas como “deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa6”.
Responsabilidade civil sobre conteúdos distribuídos por anúncio e impulsionamento pago
O reconhecimento e estabelecimento da responsabilidade civil das empresas de plataformas digitais sobre conteúdos distribuídos por seus serviços através de anúncios e impulsionamentos pagos é uma importante atualização no regime de responsabilidade destes provedores de aplicação. Pelo fato do modelo de negócio das plataformas de redes digitais e dos buscadores ser baseado numa dinâmica de extração de dados pessoais e comportamentais para recomendação de anúncios e conteúdos impulsionados, consideramos razoável haver responsabilização por estes tipos de conteúdos. Espera-se das empresas de plataformas digitais certa diligência e o respeito à legislação vigente e a direitos fundamentais em operações de negócios que provêm lucros exorbitantes para os grandes atores do mercado7.
Ausência de uma estrutura regulatória para fiscalização e aplicação da legislação
Ao longo do debate entre os ministros e ministra do Supremo Tribunal Federal, ficou evidente um dos limites institucionais da corte, que é o de ter capacidade de constituir uma estrutura de governança adequada para monitorar se as empresas de plataformas digitais atuarão conforme as responsabilidades e obrigações estabelecidas a partir deste julgamento. Pode-se esperar uma mudança no caráter dos processos judiciais que o Judiciário passará a tratar em razão das moderações de contas e conteúdos das plataformas digitais sob o novo regime de responsabilidade, mas não será um indicativo de que as empresas estarão atuando de forma diligente com suas obrigações. Por isso, fica evidenciado a importância de estabelecer um órgão ou autoridade que coordene administrativamente a estrutura regulatória e, para fazê-lo, a necessidade que o Congresso Nacional retome o debate sobre esta agenda (ver abaixo).
É fundamental que a estrutura regulatória para fiscalização e aplicação da legislação conte com uma instância robusta de participação social. A Coalizão Direitos na Rede (CDR) e a Sala de Articulação contra Desinformação (SAD) já apontaram a necessidade de assegurar uma estrutura com instância participativa com poder de decisões estratégicas e de estabelecer diretrizes para o cumprimento da lei8. Com isto, fica colocado a urgência em se avançar em uma legislação no Congresso Nacional sobre a regulação de plataformas digitais. Articulada a essa instância deve estar uma autoridade que compartilhe as responsabilidades de fiscalização com o Judiciário. Na atual conjuntura do Executivo, vemos a Autoridade Nacional de Proteção de Dados (ANPD) como a autoridade competente com mais potencial para exercer essas funções, desde que seu escopo de atuação seja ampliado e sua estrutura fortalecida, com ampliação do orçamento e do corpo de servidores.
Urgência de avançar em uma legislação no Congresso
Os ministros e a ministra do STF em sua tese apelam ao Congresso para que “seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais9”. Como temos apontado, é fundamental e urgente a aprovação de uma regulação pública democrática por meio de uma legislação equilibrada e baseada em direitos considerando o modelo de negócios das plataformas digitais, que ofereça mecanismos concretos para combate a conteúdos e práticas problemáticas nesses ambientes. Como exemplo, um desses mecanismos é a transparência, não abordada de forma profunda pela decisão em contento por estar fora da competência do STF. O fato da validade da decisão da corte estar vinculado à elaboração e aprovação de uma lei sobre a mesma matéria ajudam a reforçar esse chamado para que o congresso nacional atue na perspectiva das suas competências e regule a matéria/aprove uma tão aguardada lei que se dedique a regular plataformas.
A corte estabeleceu corretamente como deveres adicionais às plataformas digitais que elas devem adotar mecanismos que garantam o (i) devido processo sobre suas práticas de moderação de contas e conteúdos e (ii) a produção de relatórios de transparência sobre como as empresas executarão suas moderações. O problema é circunscrever estes importantes instrumentos de prestação de contas à autorregulação, isto é, para que as próprias empresas avaliem como implementar esses mecanismos e como produzir estes relatórios, atribuindo privadamente os critérios, métodos e formas de escrutínio sobre estes relatórios. A fiscalização das atividades das plataformas digitais pressupõe mecanismos de transparência robustos, que somente podem ser estabelecidos pela via legislativa.
Em que pese o esforço do Supremo, cabe ao Parlamento a elaboração por meio de amplo debate democrático de Leis que disciplinem atividades econômicas e sociais. Em um momento em que as plataformas digitais se notabilizam por seu papel no debate público, cabe às democracias de forma participativa estabelecer obrigações e limites de modo que as atividades sejam regidas por regras e parâmetros democráticos, equilibrados e que promovam os direitos da população – especialmente em um país marcado por diversas formas de opressão e desigualdades estruturais (como as de raça, gênero, classe, orientação sexual e de outros marcadores sociais).
- Coalizão Direitos na Rede. 2024. Nota sobre constitucionalidade do Art.19 do MCI. 14 de novembro. https://direitosnarede.org.br/2024/11/14/nota-sobre-constitucionalidade-do-art-19-do-mci/
↩︎ - Coalizão Direitos na Rede. 2025. Contribuições da CDR à Consulta Pública da AGU sobre regulação de plataformas. 31 de janeiro. https://direitosnarede.org.br/2025/01/31/contribuicoes-da-cdr-a-consulta-publica-da-agu-sobre-regulacao-de-plataformas/
↩︎ - Coalizão Direitos na Rede. 2025. Coalizão Direitos na Rede manifesta desacordo com os primeiros votos emitidos no julgamento pelo STF da constitucionalidade do artigo 19 do Marco Civil da Internet. 18 de dezembro. https://direitosnarede.org.br/2024/12/18/cdr-manifesta-desacordo-com-os-primeiros-votos-julgamento-stf-artigo-19-do-mci/ ↩︎
- Coalizão Direitos na Rede. 2024. Nota sobre constitucionalidade do Art.19 do MCI. 14 de novembro. https://direitosnarede.org.br/2024/11/14/nota-sobre-constitucionalidade-do-art-19-do-mci/
↩︎ - Supremo Tribunal Federal. 2025. Reconhecimento da inconstitucionalidade parcial e progressiva do art. 19 do MCI. 26 de junho. Brasília, DF. https://noticias-stf-wp-prd.s3.sa-east-1.amazonaws.com/wp-content/uploads/wpallimport/uploads/2025/06/26205223/MCI_tesesconsensuadas.pdf
↩︎ - Supremo Tribunal Federal. 2025. Reconhecimento da inconstitucionalidade parcial e progressiva do art. 19 do MCI. 26 de junho. Brasília, DF. https://noticias-stf-wp-prd.s3.sa-east-1.amazonaws.com/wp-content/uploads/wpallimport/uploads/2025/06/26205223/MCI_tesesconsensuadas.pdf
↩︎ - Coalizão Direitos na Rede. 2024. Nota sobre constitucionalidade do Art.19 do MCI. 14 de novembro. https://direitosnarede.org.br/2024/11/14/nota-sobre-constitucionalidade-do-art-19-do-mci/
↩︎ - Coalizão Direitos na Rede e Sala de Articulação contra Desinformação. 2025. Estrutura regulatória das plataformas digitais deve incluir forte mecanismo de participação social. 16 de maio. https://direitosnarede.org.br/2025/05/16/estrutura-regulatoria-das-plataformas-digitais-deve-incluir-forte-mecanismo-de-participacao-social/
↩︎ - Supremo Tribunal Federal. 2025. Reconhecimento da inconstitucionalidade parcial e progressiva do art. 19 do MCI. 26 de junho. Brasília, DF. https://noticias-stf-wp-prd.s3.sa-east-1.amazonaws.com/wp-content/uploads/wpallimport/uploads/2025/06/26205223/MCI_tesesconsensuadas.pdf
↩︎