A Coalizão Direitos na Rede (CDR) reúne mais de 50 entidades da sociedade civil e organizações acadêmicas que trabalham em defesa dos direitos digitais. Nesse momento, vem a público se manifestar sobre aspectos importantes da Resolução n° 23.732/2024, aprovada pelo plenário do Tribunal Superior Eleitoral, que regulamenta a propaganda eleitoral para as eleições de 2024.
A normativa do TSE, que altera a Resolução n° 23.610/2019, aborda diversos temas ligados aos atos de campanha no ambiente digital e foi objeto de consulta pública realizada em janeiro de 2024. Na ocasião, diversas organizações que integram a Coalizão ofereceram aportes substanciosos para contribuir com o processo de redação. O texto final da Resolução, publicado pelo Tribunal em 1° de março, surpreendeu ao trazer previsões que não estavam contempladas nas minutas iniciais. Apesar de uma série de temas sensíveis terem sido abordados e tratados adequadamente – como obrigações de transparência para as plataformas e regras para venda de publicidade direcionada -, a resolução traz previsão que eclipsa estes temas e afeta a principal discussão sobre liberdade de expressão no ambiente digital da última década no país.
O artigo 9°-E da Resolução n° 23.610/2019 traz previsão alarmante para a liberdade de expressão e a livre circulação da informação, na intenção de combater a circulação de “fatos notoriamente inverídicos ou gravemente descontextualizados que possam atingir a integridade do processo eleitoral”, segundo a linguagem da própria resolução. Esse dispositivo prevê que as plataformas de redes sociais serão “solidariamente responsáveis, civil e administrativamente, quando não promoverem a indisponibilização imediata de conteúdos e contas, durante o período eleitoral” em cinco “casos de risco”. Conformam esse rol de hipóteses postagens com condutas ou atos antidemocráticos, circulação de desinformação sobre a integridade do processo eleitoral, incitação ou violência contra membros e servidores de órgãos públicos, discurso de ódio e discriminação e divulgação de conteúdos que usem inteligência artificial sem a devida rotulagem, trazida como obrigação pela própria normativa.
Em poucas palavras, o artigo interfere frontalmente no regime de responsabilidade de provedores sobre o conteúdo produzido por seus usuários estabelecido na legislação brasileira – tanto pela legislação eleitoral (em seu artigo 57-F) como pelo Marco Civil da Internet (em seu artigo 19). Este regime prevê que os provedores somente serão responsabilizados civilmente por conteúdos gerados por usuários nos casos em que descumprirem ordem judicial específica de remoção.
Este regime de responsabilidade sobre conteúdos produzidos por usuários não deve ser defendido por conta do interesse empresarial, mas por conta de estar diretamente conectado a direitos dos próprios usuários. Com esta proposta em vigor, assume-se que as plataformas de internet devem implementar filtros e tecnologias para decidir instantaneamente se aquilo que seus usuários postam gera estes riscos sob pena de responderem na Justiça – sem qualquer incentivo para que elas mantenham no ar os vários casos que gerarão dúvida. O caminho fácil para o poder econômico será assumir o risco de derrubar publicações legítimas.
Neste sentido, a norma do Tribunal afeta o estabelecido com o arcabouço jurídico brasileiro, o que deveria ser feito por alteração legislativa. Some-se a isso o fato de que tal debate está em curso no Congresso Nacional na forma do Projeto de Lei No 2.630 de 2020, que trata deste e de diversos outros temas sobre regulação de plataformas e cuja importância a CDR tem reiterado nos últimos anos. Infelizmente, o lobby das plataformas digitais e a resistência de setores do Congresso (inflamados por forças de extrema-direita) têm bloqueado a aprovação do projeto. A CDR tem contribuído repetidamente com o debate e mostrado como o regime de responsabilidade do Marco Civil deve ser preservado como modelo, com ajustes pontuais nas exceções (como na responsabilização quando há monetização de conteúdos específicos que geraram danos a terceiros). Cabe ao Legislativo, portanto, ser o palco e ator do debate sobre as necessárias respostas regulatórias para evitar abusos nas plataformas digitais.
Combater a desinformação e defender a integridade do período eleitoral é uma preocupação legítima e que deve mobilizar múltiplos esforços. É verdade que hoje as plataformas fazem muito menos do que deveriam para garantir um ambiente seguro nas redes. No entanto, a nova norma preocupa por diversas razões. A política proposta no dispositivo 9°-E – a indisponibilização imediata de conteúdos e perfis durante o período eleitoral, nos casos de riscos trazidos pela normativa – induzirá que as empresas provedoras de aplicação optem pelo caminho da segurança e proteção de sua própria operação, e promovam uma retirada massiva de conteúdo para evitar que sejam sancionadas.
Existe, portanto, uma enorme discrepância entre a intenção da resolução – diminuir a circulação de conteúdo ilegítimo – e as consequências que ela causará – precisamente, um impacto negativo na circulação de postagens legítimas nas redes sociais. Além disso, esse movimento acabará, ainda, fomentando a ânsia de monitoramento ativo de conteúdo a entes privados, e atribuindo-lhes a decisão sobre o que deve ou não estar na rede, contrariando o princípio de uma internet livre e democrática. Era justamente esse o efeito que o Marco Civil da Internet buscava evitar quando consignou, em 2014, o regime mencionado de responsabilização de intermediários. Ao invés de delegar ainda mais poder às plataformas digitais sobre o controle do debate público (como a resolução pode resultar fazendo), é fundamental instituir instrumentos que ofereçam mais poder à sociedade brasileira e autoridades públicas para escrutinar, de fato, as ações de moderação de contas e conteúdos, como o mencionado Projeto de Lei No 2.630 de 2020. Em vez de impor obrigações que levem à exclusão de conteúdo em larga escala, é preciso, por meio dos adequados instrumentos legais, assegurar obrigações de transparência e de prestação de contas pelas empresas, especialmente no caso de ciclos eleitorais, que prevejam a disponibilização de um histórico detalhado de suas ações – sanções, remoções e revisões – sobre todas as contas e conteúdos moderadas em suas plataformas é imprescindível para fortalecer a integridade do próprio processo eleitoral.
Frisa-se ainda que o texto que foi submetido à consulta pública no mês de janeiro não continha nada similar à previsão aqui abordada. O artigo, inclusive, surpreendeu as entidades desta Coalizão, que haviam engajado, por meio de contribuições escritas e orais, no processo de discussão da norma junto ao TSE. O processo de consulta pública historicamente organizado pelo Tribunal, que conta com plataforma para submissão de opiniões sobre as minutas dos textos, e com audiências no próprio órgão, se propõe justamente a funcionar como espaço de discussão, onde as partes interessadas nas normas do processo têm oportunidade de discutir sobre suas regras. A inovação, no entanto, veio a público apenas no momento de sua publicação final, após as normas terem sido votadas pelo plenário do TSE, furtando aos setores envolvidos a possibilidade de argumentação e diálogo.
É importante reconhecer também que a norma traz alguns avanços no que diz respeito à transparência dos atos de campanha e atuação das plataformas durante o período eleitoral. Primeiramente, regulamenta a inteligência artificial no âmbito da propaganda eleitoral, determinando que a utilização desse tipo de ferramenta na criação de conteúdos de propaganda eleitoral deve estar explicitamente rotulada por meio de áudio e marcas d’água, a depender do formato da peça em questão (art. 9°-B). O dispositivo é mecanismo importante já que possibilita o discernimento do eleitorado em relação ao que foi sinteticamente criado ou alterado.
Além disso, a resolução determina que os provedores que permitirem a realização de propaganda paga em suas plataformas deverão conservar os chamados “repositórios de anúncios”. As chamadas bibliotecas devem ser atualizadas em tempo real com informações compiladas sobre os conteúdos patrocinados, e viabilizam acesso aos próprios posts, bem como dados sobre seus patrocinadores, os valores praticados e o alcance do impulsionamento (art. 27-A). A existência de norma como essa é pauta antiga do campo dos direitos digitais, já expressada em diversas notas publicadas por essa Coalizão.
Diante do exposto, é fundamental que o TSE discuta as graves consequências desse dispositivo, dialogue com a sociedade civil e especialistas que vêm contribuindo com o tema, inclusive na consulta sobre essa regulamentação, e considere formas de reparar os efeitos indesejados alertados na presente nota.
[…] entanto, a nova norma preocupa por diversas razões”, destacou a Coalizão Direitos na Rede em nota divulgada na sexta-feira (15) sobre a resolução que aborda propaganda eleitoral, publicada pelo Tribunal Superior […]