Nota técnica sobre o relatório de 26 de junho de 2020 ao Projeto Lei nº 2.630/2020

. A última versão do relatório – fruto dessa intensa pressão social – trouxe mudanças em pontos problemáticos apresentados anteriormente, com destaque para remoção dos dispositivos sobre criminalização e o abrandamento de regras de coleta em massa de dados dos que usam redes sociais. Por outro lado, alguns riscos permanecem e a nova versão do relatórios trouxe, pela primeira vez, outros pontos preocupantes, em especial para exercício da liberdade de expressão.

A Coalizão Direitos na Rede tem acompanhado o debate sobre o PL 2630 desde o início de sua tramitação. Temos apresentado nossas contribuições sobre os textos em discussão, na perspectiva de que eles deveriam ter como objetivo garantir a transparência, a liberdade e a responsabilidade na Internet. A última versão do relatório – fruto dessa intensa pressão social – trouxe mudanças em pontos problemáticos apresentados anteriormente, com destaque para remoção dos dispositivos sobre criminalização e o abrandamento de regras de coleta em massa de dados dos que usam redes sociais. Por outro lado, alguns riscos permanecem e a nova versão do relatórios trouxe, pela primeira vez, outros pontos preocupantes, em especial para exercício da liberdade de expressão.

Neste sentido, considerando que o texto, que tem votação marcada para na próxima terça-feira (30), ainda requer aperfeiçoamentos, nas seguintes questões :

  1. Medidas de identificação que podem atingir a privacidade ou outros direitos (Artigos 5º, 7º e 8º)
  2. Coleta massiva de registros de mensagens (Artigo 10º)
  3. Regras para garantias à liberdade de expressão (Artigo 12)
  4. Remuneração por uso de conteúdos ou direitos autorais (Artigo 19)
  5. Composição e competências do Conselho de Transparência e Responsabilidade na Internet (Artigos 30 e 31)

1. Medidas de identificação que podem atingir a privacidade ou outros direitos (Artigos 5º, 7º e 8º)

Sugestão de redação: SUPRESSÃO

Justificativa:

O artigo 5º, inciso I, do relatório mantém a definição de “conta identificada” como “a conta cujo titular tenha sido plenamente identificado pelo provedor de aplicação, mediante confirmação dos dados por ele informados previamente”. Essa definição vincula as obrigações de identificação presentes nos artigos 7º e 8º.

O artigo 7º é extremamente problemático na medida em que exige a identificação em massa de usuários a partir de requisitos genéricos, como simples “denúncias” e “fundadas dúvidas”. Ao vincular a exigência de identificação a partir de “denúncias” e “fundadas dúvidas”, cria-se parâmetro de subjetividade que coloca para as plataformas o dever de, discricionariamente, coletar ainda mais dados pessoais dos cidadãos.

Esta coleta inócua viola a privacidade tanto por não ser necessária ao serviço prestado quanto por ser desproporcional para a finalidade a que se propõe. O Marco Civil da Internet (Lei n. 12.965/2014) já possibilita a identificação dos usuários na rede a partir de suas regras de guarda e disponibilização de registros a partir de ordem judicial.

Além disso, não são determinados parâmetros para eliminação dos dados coletados, o que caracteriza violação aos princípios da Lei n. 13.709/2018 (Lei Geral de Proteção de Dados – LGPD).

No §1º do artigo 7º, preocupa a inclusão na proposta de diretriz para limitar o número de contas por usuário, o que por si só não constitui nenhuma ilegalidade nem uso ilegítimo das plataformas. Isso restringe a atuação de organizações, empresas e até de partidos políticos, que podem ter contas diferentes para objetivos diferentes. Além disso, vale lembrar que vários profissionais de publicidade precisam administrar contas distintas como forma de exercício legítimo de sua profissão.

O art. 7º, §2º, por sua vez, estabelece poder de polícia para as plataformas, que passarão a ter o dever de interpretar a legislação geral para saber se as contas estão em desacordo com a lei. O resultado disso será a criação de um ambiente em que, na dúvida a respeito de violações legais em seu sistema, as plataformas tenderão a excluir massivamente contas de usuários, que estarão relegados à análise legislativa de um ente não estatal para reger e julgar suas comunicações.

Já o §3º mantém previsão de identificação geral e irrestrita, e o fato de determinar que isso seja feito somente uma vez em nada ameniza a coleta massiva de dados pessoais que irá imperar ainda mais no ambiente online brasileiro. Isso fere em larga medida a sistemática desenvolvida pela LGPD, cujos princípios foram considerados recentemente pelo Supremo Tribunal Federal como necessários ao cumprimento de direitos fundamentais. No caso específico do §3º, os princípios da necessidade e adequação são violados ao exigir-se coleta de dados excessiva em relação à finalidade das plataformas que se pretende regular.

Por fim, é necessária a supressão do artigo 8º. Em primeiro lugar, sua proposta cria um dever de comunicação entre provedor de aplicação (em especial de serviços de mensageria privada) e operadora de telefonia que representa um compartilhamento de dados pessoais sem base legal e que também colide com o disposto na LGPD. Isso se agrava pelo fato de não serem estipulados parâmetros de segurança da informação adequados para essa transferência massiva de dados pessoais, que poderá ocorrer inclusive fora de território brasileiro e, portanto, não sujeita à proteção da legislação nacional.

Por fim, como já alertamos anteriormente, a medida representa um possível obstáculo à inclusão digital da população brasileira, pois condiciona o acesso a uma aplicação de internet a fator que vai além do simples – e já custoso – acesso à internet.


2. Coleta massiva de registros de mensagens (Artigo 10º)

Sugestão de redação: SUPRESSÃO, ou, alternativamente, modificação conforme abaixo

Art. 10. Para fins de constituição de prova em investigação criminal e em instrução processual penal, a autoridade judicial pode determinar aos provedores de serviço de mensageria privada a preservação e disponibilização das interações de usuários determinados por um prazo de 15 (quinze) dias, considerados os requisitos estabelecidos no artigo 2º da Lei 9.296/1996, vedados os pedidos genéricos ou fora do âmbito e dos limites técnicos do seu serviço.

§ 1º As interações de usuário determinado de que trata o caput correspondem aos dados de envio e recebimento de mensagens por sua conta e devem incluir data e hora de sua ocorrência.

§ 2º O prazo de 15 (quinze) dias de disponibilização das interações de usuários determinados poderá ser renovado por até 3 (três) oportunidades mediante autorizações judiciais específicas.

§ 3º A autoridade policial ou o Ministério Público poderão requerer cautelarmente a prorrogação justificada da preservação dos dados de que trata o caput por igual período, devendo ingressar com o pedido de autorização judicial de acesso aos respectivos registros em um prazo não superior a 30 (trinta) dias.

§ 4º Exauridos os prazos ou diante de decisão judicial que denegue o pedido cautelar de prorrogação da preservação e disponibilização dos dados de que trata o caput e o parágrafo segundo, o provedor de serviço de mensageria privada deverá proceder sua eliminação em até 10 (dez) dias da respectiva notificação pela autoridade competente.

Justificativa:

A última versão do relatório manteve dispositivo de coleta em massa de registros de encaminhamentos de mensagens. A redação trouxe mudanças em relação a versões anteriores ao instituir tal obrigação para uma nova modalidade definida como “encaminhamentos em massa”, caracterizada como “o envio de uma mesma mensagem por mais de cinco usuários, em intervalo de até 15 dias, para grupos de conversas, listas de transmissão ou mecanismos similares de agrupamento de múltiplos destinatários”.

A despeito do texto ter circunscrito o tipo de encaminhamento e não trabalhar com qualquer conteúdo que essa mensagem deveria ter a priori, não resolveu o problema de uma coleta massiva e desproporcional de informações de usuários.

Em primeiro lugar, o chamado “encaminhamento em massa” abarca uma quantidade desproporcional de conteúdos. A dinâmica de aplicativos de mensageria privada envolve o compartilhamento de mensagens em grupos e agregações similares. Tal prática não será exceção, mas regra para uma parcela importante da comunicação ocorrida no interior dessas plataformas. Não foi afastado, assim, o problema já apontado de uma coleta de dados desnecessária.

Essa previsão, somada à identificação em massa, sujeita o conjunto da população a alto risco diante de políticas vigilantistas, medidas de mau uso de seus dados pelas empresas e, ainda, vazamentos. Terão seus dados guardados obrigatoriamente pelos aplicativos todas as pessoas que, por razões legítimas ou involuntárias, participem das cadeias de compartilhamento: jornalistas, pesquisadores, parlamentares e quaisquer cidadãos que, eventualmente, repassem uma postagem a fim de denunciá-la. Caso haja um processo judicial envolvendo esses conteúdos, caberá às pessoas envolvidas o dever de provar, a posteriori, sua não relação com as indústrias de disseminação de desinformação que o PL pretende atingir. Trata-se de grave violação ao princípio da presunção de inocência.

O STF tem sinalizado em seus mais recentes votos que metadados devem gozar da mesma proteção constitucional que o conteúdo das mensagens. Em votos do julgamento das ADIs 6387, 6388, 6389, 6390 e 6393, a Corte entendeu que a proteção de dados pessoais, prevista na LGPD decorre de direito constitucional autônomo, denominado autodeterminação informativa. O dispositivo em discussão claramente vai muito além da coleta necessária, subordinando o direito à proteção de dados ao exagero na coleta de insumos às investigações e apurações do cometimento de ilícitos. Não se justifica, portanto, a obrigatoriedade de sua guarda generalizada. Tal medida, se aprovada, poderá ter sua constitucionalidade questionada no Supremo Tribunal Federal.


3. Aperfeiçoamento de regras sobre garantias à liberdade de expressão (Artigo 12)

Sugestão de redação: MODIFICAÇÃO, conforme abaixo


Art. 12. Os provedores de aplicação de internet submetidos a esta Lei devem garantir o direito de acesso à informação e à liberdade de expressão de seus usuários nos processos de elaboração e aplicação de seus termos de uso, prezando por mecanismos de revisão e devido processo.

§1º Em caso de denúncia ou de medida aplicada em função dos termos de uso das aplicações ou da presente lei que recaia sobre conteúdos e contas em operação, o usuário deve ser notificado sobre a fundamentação, o processo de análise e a aplicação da medida, assim como sobre os prazos e procedimentos para sua contestação.

§2º Os provedores poderão adotar medidas imediatas de indisponibilização de conteúdos e contas se verificarem risco de:
II – dano imediato de difícil reparação;
I – segurança da informação ou do usuário; ou
III – grave comprometimento da usabilidade da aplicação.

§3ª Deve ser garantido pelo provedor o direito de o usuário recorrer da indisponibilização de conteúdo e contas, a ser analisado por pessoa natural em casos de risco de dano a liberdade de expressão.

§4º Havendo dano decorrente da caracterização equivocada de conteúdos como violadores dos padrões de uso de aplicações ou do disposto na presente lei, caberá ao provedor de redes sociais repará-lo, no âmbito e nos limites técnicos do serviço.

Justificativa:

Ao longo da tramitação do PL, foi ganhando força a necessidade de abordar no texto uma demanda frequente de cidadãos, recomendada por entidades de defesa da liberdade de expressão e por relatores de direitos humanos: a adoção de parâmetros democráticos para moderação de conteúdos pelas plataformas, incluindo aí garantias de transparência nos processos de moderação e direito a recurso e reparação diante de medidas aplicadas sobre contas e conteúdos. A última versão do relatório, contudo, privilegiou um sistema de obrigações de remoção de conteúdo, abandonando qualquer perspectiva de devido processo.

A desvirtuada redação do artigo 12, inciso II, em vez de proteger a liberdade de expressão, agora determina que as redes sociais deverão excluir imediatamente qualquer conteúdo vinculado a “prática de crimes”. Isto significa que os provedores deverão, sob pena de sanção, criar sistemas de remoção imediata a partir de um julgamento subjetivo sobre a ocorrência da prática de qualquer crime que seja objeto de “ação penal pública incondicionada”, modalidade padrão de legitimação ativa para o processo penal, afastada apenas por meio de previsão expressa em lei.

Do ponto de vista das garantias processuais penais, a imposição de remoção imediata de conteúdo sem a participação do Ministério Público, titular da ação penal, pode ensejar uma futura declaração de nulidade. A proposta poderia ser um tiro pela culatra, ao prejudicar o regular desenvolvimento do devido processo penal.

Do ponto de vista da liberdade de expressão, propriamente, o novo relatório obriga as plataformas a fazerem análise de todos os conteúdos e, de acordo com a regra de processo penal aplicável, remover de imediato. A medida forçará Facebook, Instagram, Youtube, TikTok, Twitter, entre outras rede sociais, a removerem fotos, vídeos e textos mediante qualquer dúvida, a fim de evitar prejuízos com processos judiciais e eventuais punições contra elas mesmas. Esse cenário imporia às empresas uma “censura privada por precaução” e toda pessoa que usa redes sociais pensaria duas vezes antes de fazer uma denúncia legítima, por exemplo, por receio de que o conteúdo viesse a ser rapidamente deletado.

Vale exemplificar que entre os tipos penais de ação pública incondicionada enquadram-se os crimes de violação de direito autoral e de apologia ao crime. O artigo 184 do nosso código penal é uma “norma penal em branco”, ou seja, remete para outra lei a disciplina específica de quais são os direitos autorais e, portanto, o que é crime: um cenário bastante exagerado, como apontam muitos estudos.1 Além disso, diversas experiências internacionais demonstram o imenso potencial de abuso na remoção de conteúdo fundada em mera denúncia de ofensa a direitos autorais.2

Tal versão do texto retorna um problema já exaustivamente apontado pela Coalizão Direitos na Rede e reconhecido por diversos atores.

A imposição às plataformas da responsabilidade de fiscalização, ainda mais de qualquer tipo de conteúdo relacionado a “práticas de crimes de ação penal pública incondicionada”, promoverá a retirada massiva de publicações, impactando diretamente na liberdade de expressão e no debate público nessas plataformas.

Ao mesmo tempo, o inciso III do artigo 12 falha por não possibilitar a remoção imediata de conteúdos nos casos em que seja realmente necessário. A lei deve dar segurança jurídica para a exclusão ágil de conteúdos com potencial de causar grave dano irreversível e de difícil reparação,como imagens de exploração sexual de crianças e adolescentes, cenas de sexo e nudez não consentidas, disponibilização de dados pessoais sem consentimento; violência explícita, entre outras. Também dá a entender que remoções relacionadas a medidas de segurança e de garantia da usabilidade das aplicações não possam ser feitas pelas plataformas.

Entendemos que o relatório não deve definir quando será necessária ou não a exclusão imediata conteúdos. Ao contrário, deve trazer garantias de a) notificação quando usuários tiverem alguma publicação analisada, incluindo motivos da possível remoção e prazos para manifestação; b) direito a recurso, a ser apreciado por pessoa natural, e não por sistemas automatizados em casos de risco ao exercício da liberdade de expressão; e c) direito à reparação diante de danos causados pela indisponibilização equivocada de contas e conteúdos por parte das aplicações de Internet.

4. Remuneração por uso de conteúdos ou direitos autorais não está no escopo da presente lei (artigo 19)

Sugestão de redação: SUPRESSÃO

Justificativa:

No artigo 19 do novo relatório, o senador Angelo Coronel atende a um pleito dos grandes meios de comunicação e obriga as plataformas a remunerar tais veículos por direitos autorais e “uso de conteúdos”. O dispositivo introduziu previsão absolutamente nova ao debate, sem relação com nenhum dos pontos jamais tratados em qualquer outra versão do texto ou mesmo em outros projetos de lei sobre o tema. A proposta é alheia à própria questão do enfrentamento à desinformação. Não há sequer fundamentação específica no relatório em relação à razão pela inclusão do dispositivo e sua relação com as demais temáticas e diretrizes elencadas nos demais artigos.

Além disso, trata como simples remendo uma regulação merecedora de debate muito mais amplo e profundo. Isto porque representa uma transformação estrutural na economia digital, que impacta modelos de negócio diversos nessa cadeia – muitos deles de pequenos produtores de conteúdo. Trata-se da inserção de uma disputa de interesses econômicos na esfera do direito autoral, um mercado que visa legislação e debate próprio.

A proposta deve, portanto, ser suprimida, pois ultrapassa o escopo de discussão do presente projeto de lei e falha ao estabelecer uma necessidade de remuneração genérica sem detalhamento.

5. Aperfeiçoamento da composição e das competências do Conselho de Transparência e Responsabilidade na Internet (artigos 30 e 31)


Sugestão 1
: MODIFICAÇÃO, art. 30, §1º, II:

II – elaborar e sugerir código de conduta a redes sociais e serviços de mensageria privada, a ser avaliado e aprovado pelo Congresso Nacional, aplicável para a garantia dos princípios e objetivos estabelecidos nos artigos 3º e 4º desta Lei, dispondo sobre fenômenos relevantes no uso de plataformas por terceiros, incluindo, no mínimo, desinformação, discurso de incitação à violência, ataques à honra e intimidação vexatória;

Justificativas:

Entre as competências do Conselho de Transparência e Responsabilidade na Internet, o inciso II do art. 30 estabelece que o órgão elabore código de conduta a redes sociais e a serviços de mensageria privada sobre desinformação, discurso de incitação à violência, ataques à honra e intimidação vexatória. Assim, a redação já indica um conjunto de temas que necessariamente deverão ser tratados no referido código.

Tal mandamento cria uma obrigação inicial excessiva, que imporá sobre as plataformas a adoção de medidas sobre temas sensíveis e que envolvem o exercício da liberdade de expressão. A previsão genérica do instituto dos códigos de conduta visando assegurar o cumprimento dos objetivos na Lei parece ser diretriz suficiente para que o detalhamento acerca do escopo, parâmetros e conteúdo dos referidos códigos possa ser objeto de debate pelo próprio órgão, a partir de sua criação.

Da mesma maneira, é fundamental garantir autonomia ao funcionamento do Conselho, que já contará com representantes do Congresso em sua composição, não devendo o código de conduta aprovado pelo mesmo ter que ser, posteriormente, submetido a todo o Parlamento.


Sugestão 2
: SUPRESSÃO, art. 31, §3º

Justificativas:

O §3º do art. 31, formalmente, repete a numeração do dispositivo anterior. Talvez seja apenas um equívoco, que já devesse ter sido excluído pelo próprio relator.

Materialmente, indica que um Ato da Presidência do Congresso Nacional disciplinará a forma de indicação dos conselheiros. No entanto, é necessário garantir independência e autonomia ao Conselho, cujas deliberações serão impactantes, algo já tratado no §2º do mesmo artigo.

Vincular a forma de indicação dos conselheiros a um ato da Presidência do Congresso Nacional cria situação de subordinação entre as decisões tomadas pelo Conselho e o Congresso. Como mencionado, a redação do relatório apresentado se mostra incompatível com o § 2º do artigo 31, que já prevê que a indicação de representantes observará “procedimento definido entre seus pares, por associações e entidades representativas de cada setor”.

A Coalizão Direitos na Rede persiste no esforço intenso dos últimos dois meses em torno deste PL. Esperamos que o tempo adicional de discussão aberto pelo Senado Federal seja responsavelmente utilizado para refletir sobre o texto já apresentado, com a reconsideração dos graves perigos para o uso livre e democrático da Internet, e não para inclusão de novas previsões. Como temos dito, o enfrentamento à desinformação não poder ser pretexto para instituição de medidas sem efetividade comprovada e que coloquem em risco direitos fundamentais da população.

Brasil, 28 de junho de 2020.

1 Vieira, A. P. (2018). Direito Autoral na Sociedade Digital. Editora Montecristo. FURLAN, Fabiano Ferreira; CARNEIRO, Herbert José Almeida; MENDONÇA, José Osvaldo Corrêa Furtado de. “Aspectos penais, processuais penais do crime de violação de Direito Autoral e a rede peer-to-peer”. In: XVII Encontro Preparatório para o Congresso Nacional do CONPEDI–Belo Horizonte. Florianópolis: Fundação Boiteux. 2008. DE SOUSA LIMA, Ana Luzia. O Crime de Violação de Direito Autoral e os Princípios Constitucionais Penais. MAGRANI, Bruno. “Função social do direito de autor: análise crítica e alternativas conciliatórias”. In: PRETTO, Nelson De Luca. Além das redes de colaboração: internet, diversidade cultural e tecnologias do poder. Salvador: EDUFBA, p. 155-170, 2008.

2 Seltzer, Wendy, Free Speech Unmoored in Copyright’s Safe Harbor: Chilling Effects of the DMCA on the First Amendment (March 1, 2010). Harvard Journal of Law & Technology, Vol. 24, p. 171, 2010; Berkman Center Research Publication No. 2010-3. Available at SSRN: https://ssrn.com/abstract=1577785. Burk, Dan L., Anti-Circumvention Misuse (July 31, 2002). UCLA Law Review, Vol. 50, 2003; Minnesota Public Law Research Paper No. 02-10. Available at SSRN: https://ssrn.com/abstract=320961 or http://dx.doi.org/10.2139/ssrn.320961. Menell, Peter S., Jumping the Grooveshark: A Case Study in DMCA Safe Harbor Abuse (December 21, 2011). Available at SSRN: https://ssrn.com/abstract=1975579 or http://dx.doi.org/10.2139/ssrn.1975579.

Print Friendly, PDF & Email

Newsletter

Digite seu email e inscreva-se em nossa newsletter