No FIB 12, CDR realiza workshop sobre o banimento das tecnologias de reconhecimento facial na segurança pública

Painelistas apresentaram os vieses discriminatórios presentes nessas tecnologias digitais e as suas formas de utilização por aparatos repressivos do Estado, que aprofundam o problema estrutural do racismo no país

No dia 03/06, último dia de atividades da 12ª edição do Fórum da Internet no Brasil (FIB), realizado em Natal (RN), a Coalizão Direitos na Rede organizou o Workshop “Reconhecimento Facial: considerações sobre o banimento desta tecnologia digital no contexto da segurança pública brasileira”. A atividade contou com a participação de Ana Gabriela Souza Ferreira (Artigo 19 e Orí Lab), deputada estadual Daniella Monteiro (PSOL/RJ), Ingrid Soares (Escritório Mattos Filho), Nina da Hora (PucRio), Pablo Nunes (CESeC), Paulo Victor Melo (Centro de Comunicação, Democracia e Cidadania/UFBA) como palestrantes; Raquel Rachid (Laboratório de Políticas Públicas e Internet – LAPIN) na moderação; e Janaina Spode (Coalizão Direitos na Rede) na relatoria.

O workshop também faz alusão à campanha #TireMeuRostoDaSuaMira, uma mobilização de mais de 30 organizações da sociedade civil (entre as quais a Coalizão Direitos na Rede), lançada no próprio FIB 12 e que requer o BANIMENTO TOTAL das tecnologias digitais de reconhecimento facial na segurança pública brasileira “diante das evidências de seu uso abusivo e pouco transparente. A capacidade de identificar individualmente e rastrear pessoas mina direitos como os de privacidade e proteção de dados, de liberdade de expressão e de reunião, de igualdade e de não-discriminação”, informa o site da campanha. A campanha também promove um olhar antirracista para a realidade carcerária do Brasil (a terceira maior do mundo), que tende a se agravar com a expansão do uso dos sistemas de reconhecimento facial. 

“Não existe neutralidade no perfilamento das pessoas nos sistemas de reconhecimento facial na segurança pública. O estudo Gender Shades constatou que o índice de erro em corpos femininos negros é de 35% e em corpos masculinos brancos é de 0,8%. Essa discrepância não é aleatória”, alertou a pesquisadora da Orí Lab e coordenadora de gênero, raça e diversidade da ONG Artigo 19 no Brasil e na América do Sul, Ana Gabriela Souza Ferreira.  

Paulo Victor Nunes, coordenador do Centro de Comunicação, Democracia e Cidadania da UFBA, relembrou a importância de situar o debate do reconhecimento facial em uma perspectiva histórica do nosso país, no âmbito da escravidão brasileira. “Ressalto aqui uma frase muito emblemática do escritor Antonio Prata, em artigo publicado no jornal Folha de São Paulo, em que ele diz que a escravidão é o epicentro da tragédia brasileira. Estamos falando de um país que escravizou milhares de pessoas por quatro séculos. E 70 mil pessoas morreram apenas no caminho. Qualquer tipo de resposta e alternativa para possíveis soluções ao reconhecimento facial, é preciso ter em mente o período escravocrata deste país”, pontuou.

Workshop “Reconhecimento Facial: considerações sobre o banimento desta tecnologia digital no contexto da segurança pública brasileira”

Pablo Nunes, coordenador adjunto do Centro de Estudos de Segurança e Cidadania (CESeC), que lançou recentemente o relatório “Negro Trauma” sobre as abordagens policiais no Rio de Janeiro, enfatizou os erros de abordagens policiais do estado do Rio de Janeiro, que rotineiramente chega aos jovens negros de forma extremamente violenta e racista. Essa lógica racista teve continuidade com as tecnologias relacionadas ao contexto da segurança pública. A intervenção de Nunes provocou a plateia com o seguinte questionamento: “Por que pessoas negras precisam sofrer com esse suposto avanço tecnológico? A sociedade não deveria servir à tecnologia. Mas sim a tecnologia que deveria servir à sociedade”.

A cientista da computação e pesquisadora do Centro de Tecnologia e Sociedade (CTS) da Fundação Getúlio Vargas, Nina da Hora, disse que é 100% a favor do banimento do reconhecimento facial. “O setor privado não está preocupado com as melhorias desses sistemas, mas sim com o dinheiro que essas tecnologias trazem aos seus modelos de negócios. Já o setor público e o terceiro setor, para ter condições de pensar criticamente sobre essas tecnologias, precisam que o setor privado apresente mais transparência em seus processos. Não é a tecnologia que tem que ditar a evolução humana, mas sim o contrário”, reforça a pesquisadora.

Para a deputada estadual fluminense Daniella Monteiro (PSOL-RJ), que preside a Comissão de Defesa dos Direitos Humanos e Cidadania (CDDHC) da Assembleia Legislativa do Rio de Janeiro (Alerj), o governo compra essas tecnologias para controlar socialmente as massas. Ela afirma que o Rio de Janeiro é pioneiro nessas iniciativas de controle de determinadas pessoas. A deputada também finaliza a sua participação no workshop provocando a reflexão do público com um questionamento: “A quem serve e a quem interessa esses controles massivos da sociedade?”

Assista ao workshop na íntegra:

Por Lígia Bernar (texto) e Enio Lourenço (edição e fotos)