Garantia de direitos nas redes sociais requer do Supremo Tribunal Federal interpretação do artigo 19 do Marco Civil da Internet conforme a Constituição. A constitucionalidade do dispositivo deve ser mantida sob risco de impactar o funcionamento da web. Porém, as plataformas devem ser responsabilizadas por danos aos cidadãos e à democracia causados por seus modelos de negócio, pelos conteúdos promovidos através de monetização e pagamento de anúncios.

O Marco Civil da Internet foi aprovado em 2014 e se tornou referência mundial de garantia de proteções e direitos humanos na rede mundial de computadores. Sancionado no dia 23 de abril, durante o Encontro Global Multissetorial sobre o Futuro da Governança da Internet (a NetMundial), a lei foi uma declaração do Brasil em defesa da democratização da governança global da Internet e por uma rede diversa, plural e aberta. Mais do que mérito do seu texto, a forma de construção e elaboração participativa do Marco Civil da Internet segue sendo um exemplo que o desenvolvimento da rede e sua regulação não pode prescindir do processo de discussão e participação da sociedade. Não obstante, mudanças na internet com a crescente centralidade das plataformas digitais desafiam o Brasil a atualizar o entendimento do sistema de responsabilização, por exemplo considerando-a em casos de conteúdos promovidos através de pagamento de anúncios e monetizados pelas plataformas, e de avançar na garantia de medidas que enfrentem problemas como opacidade no funcionamento e garantia de devido processo em relação à moderação de conteúdos, por meio de uma legislação específica.

Em seu texto, o Marco Civil da Internet reconhece os diferentes interesses envolvidos no uso da Internet no Brasil, tendo como perspectiva a defesa dos direitos civis, em contraposição aos projetos, nacionais e internacionais, de criminalização do seu uso. À época, predominava como principal instrumento dessa perspectiva criminalizante o regime de notificação e derrubada (notice and take down), em que, diante da contrariedade de uma grande empresa ou autoridade pública com as críticas publicadas em uma página na web ou conta nas mídias digitais, bastava uma notificação ao provedor de aplicação para que, conforme o poder econômico da empresa ou poder político da autoridade, se sentisse responsabilizado em derrubar os conteúdos publicados. A consequência problemática desse regime é o risco da delegação do arbítrio de censura ao abuso do poder econômico e político de quem notificou e à discricionariedade do provedor de aplicações.

O artigo 19 do Marco Civil da Internet apresenta em si a síntese dessa discussão ao expor na sua própria redação a justificativa de assegurar a liberdade de expressão e impedir a censura. Ao estabelecer a responsabilização dos provedores de aplicação sobre danos decorrentes de conteúdos de terceiros mediante o recebimento de ordem judicial, o Marco Civil da Internet também garante uma segurança jurídica para as análises de remoção ou sanção de conteúdos pelos provedores.

Contudo, o contexto de 2024 é substancialmente distinto do contexto de 2014. Embora o Marco Civil da Internet ainda seja uma referência fundamental, no seu mérito e no seu processo de formulação, para defesa de uma internet cívica, segura, diversa, plural e aberta, faz-se necessário a atualização do debate sobre os instrumentos de responsabilização dos provedores de aplicação sobre os conteúdos de terceiros.

Em 2024 o cenário é marcado pelo peso da influência das empresas proprietárias de grandes plataformas digitais sobre as condições de acesso e uso da internet pelo cidadão e cidadã; e da configuração dos mercados que seus serviços se inserem e medeiam. Embora essas companhias não representem todos os tipos de aplicações de Internet reguladas no Art. 19, elas ganharam centralidade na contemporaneidade. A consolidação desse poder colocou em destaque, no debate público nacional e internacional, a necessidade de construir instrumentos para o efetivo escrutínio público e social sobre os processos de tomada de decisões, humanos e algorítmicos, que as empresas de plataformas digitais – sobretudo redes sociais e ferramentas de busca – realizam sobre a moderação, recomendação e monetização de contas e conteúdos dos usuários de suas mídias digitais. 

As redes sociais  alteraram a forma de circulação dos conteúdos, tornando-se agentes centrais na disponibilização e/ou visibilidade. Contudo, minimizam a responsabilidade e o papel que seus sistemas desempenham na promoção, fortalecimento e consolidação de práticas de produção e distribuição de desinformação, discurso de ódio, incitação à violência racista, misógina, LGBTQIAP+fóbica, xenofóbica, danosas à integridade de crianças e adolescentes e de ameaça à integridade de processos eleitorais. Ainda, como tem se tornado público, em razão de delações de ex-funcionários1 e vazamento de documentos2, as plataformas sabem dos impactos e os efeitos dos seus serviços e ferramentas sobre a saúde mental de crianças e adolescentes, mas não tem adotado medidas em prol de sua proteção integral. Também é central notar que, ao longo dos últimos dez anos, as próprias empresas promovem seus serviços de anúncios como importantes ferramentas para incidir e influenciar as preferências e comportamentos da cidadã e do cidadão nos seus hábitos de consumo. Por esse conjunto de questões, considera-se que é o caso de haver responsabilização de tais provedores de aplicação  sobre conteúdos promovidos através de monetização e  pagamento de anúncios, na medida em que espera-se, razoavelmente, a diligência e o respeito à legislação vigente e a direitos fundamentais em operações de negócios que provém lucros exorbitantes para os grandes atores do mercado3.

No Brasil, em que pesem os esforços do Tribunal Superior Eleitoral (TSE) em estabelecer memorandos de cooperação com as empresas, as redes sociais se tornaram espaços privilegiados de violação de direitos humanos e despejo de avalanches de informações falsas e manipuladas sobre a integridades dos processos eleitorais em 2018, 2020 e 2022, servindo, inclusive, de espaço para articulação e convocação da intentona golpista do 8 de janeiro de 2023. O descaso das plataformas com a segurança e a integridade do debate público e eleitoral é notório e se expressa, inclusive, na ausência de esforço de avaliação sobre a eficácia de suas próprias ações4. Não há atualmente como saber se elas  são efetivamente fieis aos seus próprios termos de uso e aos compromissos que assumem publicamente.

Vale lembrar que o artigo 19 do Marco Civil da Internet não constitui, de forma alguma, uma limitação para que provedores de aplicações, em especial plataformas de redes sociais e ferramentas de busca, atuem para que seus trabalhadores e sistemas de moderação, recomendação e monetização de contas e conteúdos enfrentam, desincentivem e mitiguem a produção e distribuição de conteúdos ilegais e nocivos em seus serviços e mídias digitais. Exemplo disso é que diversas empresas estabeleceram suas regras e diretrizes internas para definir práticas e conteúdos proibidos ou sujeitos a ações de moderação. Entretanto, tais limitações se mostraram absolutamente insuficientes diante da dimensão dos problemas causados por seus modelos de negócio. Políticas fragmentadas, limitadas e omissões vêm sendo a tônica da ação dessas empresas. Entre as iniciativas existentes, há ainda um desequilíbrio entre as respostas dadas – em termos de prioridade e equipes designadas – em países-sede dessas empresas, em geral os Estados Unidos e outras nações do Norte Global, e naqueles do Sul Global, como o Brasil. Mais do que omissão, o modelo de negócio dessas empresas estimula e amplifica, intencionalmente5, a produção e circulação de conteúdos problemáticos, utilizando seu potencial de disseminação para ganhos comerciais com anúncios e impulsionamento.

Esse conjunto de desafios provocou reações no legislativo brasileiro, com a apresentação de diversos projetos de lei visando combater a circulação de conteúdos nocivos nas redes. O que mais avançou no Congresso Nacional foi o Projeto de Lei (PL) 2630 de 2020, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Depois de anos de intensos debates no parlamento e na sociedade, o texto foi aperfeiçoado para reunir uma série de mecanismos para lidar com essas questões, equilibrando liberdade de expressão com a proteção de direitos fundamentais no ambiente digital. Entretanto, o lobby  das grandes plataformas digitais (incluindo o uso abusivo de seus aplicativos e serviços para influenciar a sociedade negativamente sobre o texto) e a resistência de forças políticas, em especial de extrema-direita, bloquearam a votação da proposta. Nesse vazio legal, o tema voltou a ganhar espaço na esfera do Judiciário.

O questionamento no Supremo Tribunal Federal da constitucionalidade do artigo 19 do Marco Civil da Internet decorre de uma inércia legislativa frente aos riscos da ausência de transparência e da não responsabilização das plataformas por danos oriundos de seu modelo de negócios.

O artigo 19 do Marco Civil da Internet não pode ser interpretado como uma isenção de responsabilidade para plataformas digitais. Apesar de não haver responsabilidade objetiva das aplicações de internet pelos danos causados por atos de terceiros, há responsabilidade objetiva dos provedores de aplicações, em especial das grandes plataformas de redes sociais, com relação às atividades que lhe são intrínsecas, como a gerência sobre o acesso dos usuários aos conteúdos e o desenho das interfaces de suas aplicações para estimular certos tipos de comportamento. 

Decidir, porém, pela inconstitucionalidade do artigo 19 não fará nossa população e nossa democracia preparadas para os desafios do nosso tempo, não aprimorará os mecanismos de moderação, recomendação e monetização de contas e conteúdo, e não dotará o Estado e a sociedade brasileira de instrumentos para enfrentar os desafios das informações falsas e manipuladas. No cenário de novos desafios apontados anteriormente, faz-se necessário que o Supremo reconheça a constitucionalidade do artigo 19 em uma abordagem de interpretação conforme a Constituição.

A decisão do Supremo Tribunal Federal pode contribuir ao entender, por exemplo, que as empresas devem ser responsabilizadas por conteúdos promovidos através de pagamento de anúncios e monetizados pelas próprias plataformas. Ao integrarem neste caso a cadeia de consumo, as plataformas digitais passam a estar sujeitas também à responsabilidade objetiva e solidária prevista no Código de Defesa do Consumidor.

É fundamental lembrar ainda que a decisão do Supremo Tribunal Federal terá desdobramentos para o conjunto dos provedores de aplicações na internet, não se limitando apenas às grandes plataformas digitais. A abordagem do Supremo para o tema, portanto, deve considerar essa diversidade de agentes e adotar uma lógica de assimetria regulatória, para evitar efeitos indiretos sobre aplicações que não têm papel de mediação ativo. Soma-se a isso que a decisão possui limites para estabelecer um regramento coerente e detalhado, o que tem potencial para criar uma insegurança jurídica com parâmetros genéricos que serão interpretados por diferentes áreas do Judiciário. 

Por fim, o Art. 19 trata apenas da responsabilização ou não por danos decorrentes de terceiros, o que ocorre a posteriori de práticas problemáticas. Ela tem repercussão muito limitada, portanto, sobre a prevenção a esses problemas. Torna-se, portanto, fundamental que se retome a discussão sobre o aprimoramento do modelo de responsabilidade dos intermediários no âmbito legislativo, para que a sociedade e demais setores interessados tenham a oportunidade de serem ouvidos na construção de um marco regulatório eficiente.

A realidade tem nos demonstrado a necessidade de um regime de responsabilidade que estabeleça medidas de mitigação, regras sobre transparência; regras sobre o acesso a dados para pesquisa; sistemas eficientes de moderação e recomendação de contas e conteúdo, que respeitem a liberdade de expressão, com formas de contestação acessíveis; e proteção integral do desenvolvimento de crianças e adolescentes. Mesmo que considerássemos que a interpretação do Supremo Tribunal Federal sobre a constitucionalidade do artigo 19 pudesse aprimorá-lo, não seria capaz de dotar o Estado e a sociedade brasileira desse conjunto de instrumentos necessários para responsabilizar e escrutinar o poder das empresas de grandes plataformas digitais. Além disso, o aprimoramento do regime de responsabilidade precisa oferecer condições para atuação preventiva e não ficar estruturado, apenas, na responsabilização após as decorrências produzidas pelos danos.

O já citado PL 2630 é, atualmente, a proposta legislativa que melhor acumula o debate político sobre o tema e o trabalho de diversos especialistas de diferentes setores para a criação desses instrumentos necessários. A retomada da pauta é importante para a  promoção da segurança jurídica e para a manutenção de um ambiente online mais seguro. 

Por meio da transparência é possível realizar um escrutínio concreto sobre as empresas de grandes plataformas digitais porque, assim, a sociedade e as autoridades no Brasil terão como efetivamente verificar o quão fieis elas são com seus compromissos de segurança e integridade do debate público. Atualmente não dispomos nem de informações básicas como o número total de usuários que acessam determinado serviço. 

Precisam ser públicas e acessíveis, por exemplo, informações como o número de sanções e remoções aplicadas sobre contas e conteúdos em razão de cada uma das regras de uso da própria plataforma e da legislação brasileira; o número de pedidos de revisões dessas decisões apresentados pela cidadã e cidadão brasileiro, bem como quantas sanções e remoções foram revertidas, seja por pedido ou por decisão da empresa. São fundamentais também informações sobre o alcance dos conteúdos considerados violadores das regras e leis, informando quanto desse alcance foi à audiência original da conta autora do conteúdo ou para novas audiências; informações sobre pedidos de desindexação aplicadas em resultados de busca na Internet; sobre as equipes de trabalhadores envolvidas na aplicação das medidas de moderação, entre outros tipos de informações.

Importante destacar que, para além do debate público, o debate sobre transparência e responsabilidade dos provedores de aplicação tem relevância elementar para quem têm nas plataformas digitais um importante meio de trabalho. A opacidade na forma como as sanções, suspensões e remoções de contas e conteúdos são definidas, bem como a ausência de mecanismos eficazes de contestação dessas decisões, são objeto de reclamação dos cidadãos e cidadãs6. Essa situação escancara a importância de pactuação do funcionamento das plataformas com outros setores, o que também está contemplado no PL 2630. 

Como já foi dito, o Brasil fez história em 2014 quando, naquela conjuntura, aprovou o Marco Civil da Internet. A mudança na conjuntura e nos desafios enfrentados significa que o país pode voltar a fazer história, avançando no aprimoramento e construção participativa de instrumentos eficazes de responsabilização e transparência sobre as grandes plataformas digitais. Enquanto isso, espera-se que o Supremo Tribunal Federal contribua para modelar um dispositivo essencial para o funcionamento da web à luz dos demais direitos garantidos em nossa carta magna. 


  1. Ver “Mais de 40 estados nos EUA processam Meta por prejudicar a saúde de menores”, 24/10/203, G1 <https://g1.globo.com/tecnologia/noticia/2023/10/24/mais-de-40-estados-nos-eua-processam-meta-por-prejudicar-a-saude-de-menores.ghtml> ↩︎
  2.  Ver “TikTok sabe que pode deixar usuários viciados e gerar ansiedade, revelam documentos internos”, 11/10/2024, G1 <https://g1.globo.com/tecnologia/noticia/2024/10/11/tiktok-documentos-internos-revelam-que-big-tech-sabia-dos-seus-efeitos-prejudiciais-a-saude-dos-jovens.ghtml>.
    ↩︎
  3.   No ano de 2021, segundo a revista Visual Capitalist, 97% dos lucros da Meta, empresa detentora do Facebook e Instagram, advieram de receitas oriundas da publicidade, enquanto que para a Alphabet, holding detentora do Google, essa proporção foi de 81%. Nas palavras da própria publicação que divulgou esses dados, tratam-se de empresas que “vendem você como um produto para os anunciantes”, e que “no lugar de venderem um produto, ganham dinheiro vendendo a atenção dos consumidores”. Ver mais em: ANG, Carmen. How Do Big Tech Giants Make Their Billions?. Disponível em: <https://www.visualcapitalist.com/how-big-tech-makes-their-billions-2022/>  . Acesso em: 27 out. 2023.
    ↩︎
  4. O caso emblemático é a Meta com o próprio Comitê de Supervisão que, após a tentativa de golpe de Estado em 8 de janeiro de 2023, indagou a empresa sobre quais as métricas eram adotadas para auferir o sucesso dos próprios esforços no compromisso com a integridade eleitoral. Ao Comitê de Supervisão ”a Meta declarou que não adota nenhuma métrica específica para mensurar o sucesso de seus esforços de integridade eleitoral em geral”. Ver <https://www.oversightboard.com/news/6509720125757695-oversight-board-overturns-meta-s-original-decision-in-brazilian-general-s-speech-case-2/?lang=pt-br
    ↩︎
  5.  THE INTERCEPT. EXCLUSIVO: TikTok escondeu ‘feios’ e favelas para atrair novos usuários e censurou posts políticos. 2020. Disponível em: https://www.intercept.com.br/2020/03/16/tiktok-censurou-rostos-feios-e-favelas-para-atrair-novos-usuarios/.
    ↩︎
  6.  Ver Silva, F.S.R; Gertrudes, J.M.C; Dutra, L.C.M; Silva, R.F.G (2024). Reclamações sobre o procedimento de moderação de conteúdo em redes sociais: o que pensam os usuários. Belo Horizonte: Instituto de Referência em Internet e Sociedade. https://bit.ly/4enMVKv
    ↩︎