Discurso de ódio também aparece como item problemático. Especialistas do InternetLab e da Artigo19 comentam evolução das políticas de aplicação de padrões da comunidade e tentativas de aproximação da bigtech com a sociedade civil, mas observam conflitos entre transparência e interesses econômicos
Por Enio Lourenço/
Ilustrações: Leo Garbin
“Estamos empenhados em tornar o Facebook em um lugar aberto e autêntico, protegendo os dados privados das pessoas e mantendo nossa plataforma segura para todos”, assim o Facebook apresenta seu último Relatório de Transparência, publicado em maio, referente ao primeiro trimestre de 2019.
A rede social afirma que esta é uma forma de dar visibilidade ao funcionamento da aplicação de políticas, solicitações de dados e proteção de propriedade intelectual aos 2,7 bilhões de usuários. Vale destacar que é a primeira vez que a plataforma compartilha dados sobre o processo de apelação e restauração de conteúdo removido.
Sobre a aplicação de padrões da comunidade, as violações das regras estão divididas em nove categorias: 1. Nudez adulta e atividade sexual; 2. Intimidação e assédio; 3. Nudez infantil e exploração sexual de crianças; 4. Contas falsas; 5. Discurso de ódio; 6. Bens regulados: drogas e armas de fogo; 7. Spam; 8. Propaganda terrorista (ISIS, Al-Qaeda e afiliados); 9. Violência e conteúdo gráfico.
A Coalizão Direitos na Rede (CDR) analisou o documento e conversou com Francisco Brito Cruz, diretor do InternetLab, e Paulo Lara, assessor do programa de direitos digitais da Artigo 19, que comentaram a evolução das políticas de transparência na plataforma, o avanço de ferramentas de inteligência artificial na remoção proativa de conteúdo, as poucas informações sobre processos de apelação e restauração de conteúdo, além do problemático quesito “discurso de ódio”.
Aplicação dos padrões de comunidade e a celeuma do discurso de ódio
Publicada no início de junho, uma reportagem do UOL revelou que somente neste ano o Facebook encontrou um caminho para filtrar via machine learning mais de 98% de certos tipos de conteúdo publicados com precisão aceitável. Esse dado é corroborado pelo Relatório de Transparência, que reconhece ter aumentado suas taxas de detecção proativa das violações aos padrões de comunidade antes mesmo das denúncias de outros usuários, que também podem ser analisadas por moderadores humanos.
De acordo com Brito Cruz, a plataforma aumentou a moderação dos posts com o uso de inteligência artificial, que tem se mostrado efetiva na aplicação de políticas sobre nudez, spam ou de conteúdo terrorista. Entretanto, áreas que possuem análise mais subjetiva, como o discurso de ódio — mesmo o Facebook tentando ser objetivo sobre suas definições conceituais –, carece de interpretação contextual e a moderação humana não tem sido tão eficiente.
“Não permitimos o discurso de ódio no Facebook porque se cria um ambiente de intimidação e exclusão e, em alguns casos, pode promover a violência. Nós definimos o discurso de ódio como discurso violento ou desumanizador, declarações de inferioridade, ou que clama por exclusão e segregação com base em características protegidas, como raça, etnia, nacionalidade, afiliação religiosa, orientação sexual, casta, sexo, gênero, identidade de gênero e deficiência grave ou doença”, diz o relatório.
O Facebook apontou crescimento de detecção proativa do discurso de ódio entre o terceiro trimestre de 2018 e o primeiro trimestre de 2019, de 51,5% para 65,4%. Uma das justificativas é que a plataforma aprimorou as ferramentas para escanear essa categoria em um número maior de idiomas. Os casos do Sri Lanka, de Mianmar e da Nova Zelândia (leia mais aqui) mostram como discursos de ódio se concretizaram em situações de perseguição política, violência física e assassinatos contra minorias políticas.
“A subjetividade do discurso de ódio é um tema que povoa as discussões de fronteiras a respeito da liberdade de expressão. Por um lado, você tem arranjos normativos em todo mundo que permitem que esse tipo de discurso seja feito; por outro, existem ordens estatais que o proíbem. É um discurso que está na franja do que pode ser considerado legítimo. Cada Estado-nação tem uma concepção do que pode ou não pode estar presente no discurso e em quais situações há maior violência ou discurso de ódio”, comenta Brito Cruz.
Para o diretor do InternetLab (centro de pesquisa em direito e tecnologia), o discurso de ódio não é uma categoria nativa de todos os países, mas sim do debate dos Estados Unidos, onde está a sede da empresa, e de outros países europeus. Assim, quando ele é apropriado em contextos nacionais de outras partes do mundo, há um debate para além da extensão da liberdade de expressão ou de como vai ser visto naquela realidade regional.
“Como a série histórica [no relatório de transparência] é bastante reduzida, eu não me arrisco a dizer que o discurso de ódio aumentou. Eu prefiro olhar um pouco mais cético para esses dados, esperando que a série histórica nos diga mais sobre a presença desse tipo de discurso na plataforma e tentando ser sensível também as mudanças nos métodos de detecção, que são muito cruciais para ver como esses números vão aparecer depois”, afirma Brito Cruz.
Moderação obscura e interesses econômicos
O Facebook destaca ser a primeira vez que apresenta dados sobre o processo de apelação e restauração de conteúdo a fim de corrigir erros nas decisões de fiscalização. Um avanço ao indicar os dados percentuais, porém sem maiores explicações sobre o processo de recurso, o teor das reivindicações dos usuários ou mesmo o tempo para que esses conteúdos voltem a circular na plataforma.
A organização não-governamental Artigo 19, que atua em defesa dos direitos ao acesso à informação e à liberdade de expressão, enxerga com bons olhos a publicação do Relatório de Transparência do Facebook, mas também destaca o conflito de interesses entre o modelo de negócios da bigtech, baseado na exploração econômica dos dados de seus usuários. Ou seja: a transparência pregada acaba se apresentando um pouco fosca.
“Tem uma questão de segredo tecnológico de algoritmo que também necessitaria de um escrutínio, valeria um estudo importante sobre a maneira como funcionam os padrões tecnológicos do site da empresa. A gente tem acesso aos termos de serviço e aos padrões da comunidade, mas existe uma série de coisas intrínsecas a uma empresa privada que são problemáticas e não são abertas”, pondera Paulo Lara, assessor de direitos digitais da Artigo 19 no Brasil.
“E tem também o problema do alto nível de concentração de dados e de poder econômico e político que uma empresa como o Facebook tem, e que não é remediado pelo lançamento de um relatório de transparência quando se fala em incrementar os processos de liberdade de expressão”, complementa.
A ambiguidade também é visível na capacidade de a plataforma viabilizar um diálogo público com múltiplas vozes, intensificando um processo comunicacional entre segmentos e atores distintos, enquanto a figura jurídica privada da companhia tenta incorrer em subterfúgios de isenção sobre responsabilidades consagradas nos padrões internacionais ligados aos direitos humanos e de liberdade de expressão.
“É importante uma transparência ativa em relação a quais são os processos de moderação, como funcionam as apelações, quais são os princípios pelos quais o Facebook se baseia quando toma decisões de remoção de conteúdo. Ou se eventualmente há investigações internas na empresa sobre procedimentos de mensagens, usuários e contas”, diz Paulo Lara.
Para remoção de conteúdo quando não há violação dos padrões da comunidade, o Facebook alega que essas medidas são baseadas na legislação local de cada país. A gigante tecnológica diz receber relatórios de governos e tribunais, bem como de entidades não-governamentais com detalhes dos casos em que a plataforma limita o acesso a determinados conteúdos.
Três estudos de caso são mencionados: na Índia, um conteúdo difamatório que afirmava que produtos da PespsiCo Kurkure continham plástico; na França, um usuário denunciou imagem que violava seus direitos de privacidade; e na Malásia, páginas e postagens que alegam violar as leis locais sobre a santidade da religião.
A empresa do Vale do Silício ainda informa que responde a solicitações de dados por parte de governos de acordo com a lei aplicável e dos termos de serviço. “Toda e qualquer solicitação que recebemos é cuidadosamente revisada em busca de suficiência jurídica, e podemos rejeitar ou exigir maior especificidade nas solicitações que parecem amplas ou vagas”, explica o relatório.
Entre julho e dezembro de 2018, a plataforma recebeu 110.634 pedidos. Somente no Brasil foram 3.761 solicitações por processo jurídico e 509 solicitações de emergência sobre 10.838 usuários ou contas.
Transparência radical e controle da sociedade
As formas obtusas como o Facebook expõe seus dados no relatório, com meias informações e poucos detalhes, faz com que ambos os especialistas ouvidos pela reportagem clamem por uma transparência radical, política, ética e de conduta, a fim de propiciar maior participação social.
Brito Cruz, que já participou de reuniões com a direção regional do Facebook na América Latina, aponta que a bigtech saiu de sua “zona de conforto” ao abrir conversas com entidades, acadêmicos e ONGs ao redor do mundo, além de realizar consultas públicas pontuais com os próprios usuários nos últimos anos.
“Claro que é um passo de uma empresa privada que tem uma motivação por trás: a de manter o seu modelo de negócio. Mas isso não tira o fato de ser um passo arriscado. É uma abertura em termos de poder da empresa em relação a suas decisões de conteúdo”, comenta.
“Uma visão mais crítica pode dizer que o Facebook faz isso para não ter que decidir sobre casos difíceis. De fato é um jeito da plataforma se eximir de decisões acerca de conteúdos mais difíceis. Mas outra voz, talvez mais moderada, diria que é melhor que o Facebook não tenha a última palavra sozinho a respeito do que tem que estar ou não estar dentro da plataforma”, pontua o diretor do InternetLab.
Já Paulo Lara considera que a transparência radical dever ser implementada tanto na participação social quanto na divulgação de dados mais completos sobre as políticas do Facebook que evidenciem o devido processo legal para casos de remoção ou bloqueios, sobretudo no caso de grupos historicamente marginalizados.
“A ideia da Artigo 19 é criar uma campanha para que o Facebook abra um diálogo capaz de construir parcerias com a sociedade civil, com o Estado-nação, de uma maneira técnica e política que possibilite que essas verificações estejam claras para a maioria dos usuários”, diz o assessor.
“O Facebook tem uma responsabilidade muito grande não só pela liberdade de expressão e pelas mensagens que circulam na plataforma, mas também por influenciar o debate social, político e cultural. E a gente precisa compreender que a parte que tem menos expressão nos debates públicos por conta da sua situação social, cultural, econômica, étnica é que precisa de mais apoio e clareza para saber em que medida as suas expressões estão sendo violadas através de remoções de conta, conteúdo ou bloqueios”, conclui Paulo Lara.