Por uma legislação de IA centrada em direitos: comentários ao texto preliminar substitutivo do 2338/2023 apresentado pelo Senador Eduardo Gomes 

O Grupo de Trabalho de Inteligência Artificial (GT IA) da Coalizão Direitos na Rede (CDR), coletivo de organizações civis com mais de 50 entidades, criado em 2016 para defesa de direitos fundamentais no uso de tecnologias e da Internet, vem à público manifestar sua preocupação com relação ao texto preliminar substitutivo do PL 2338/2023, apresentado pelo Senador Eduardo Gomes (PL-TO).

O texto preliminar substitutivo (“TPS”) apresenta mudanças substanciais com relação ao texto originalmente apresentado pela Comissão de Juristas do Senado Federal (CTIA), que se tornou o PL 2338/2023, apresentado pelo Senador Rodrigo Pacheco.

Apesar de propor alguns avanços em relação à agenda regulatória para temas que não haviam sido contemplados anteriormente na discussão legislativa – como IA generativa e questões de sustentabilidade no uso dessas tecnologias – o TPS não ampliou a gramática de direitos fundamentais sedimentada no texto original do PL 2338/2023. 

Na realidade, o que o novo texto faz é desidratar boa parte dos dispositivos que originalmente garantiriam esses direitos, além de incluir disposições que permitem a utilização de tecnologias notória e internacionalmente conhecidas por representarem riscos inaceitáveis de violação aos direitos humanos. Nesse sentido, entendemos que o TPS apresenta retrocessos muito significativos para a proteção dos direitos dos cidadãos brasileiros. 

Do processo legislativo

As discussões sobre a regulação da tecnologia devem se dar através de um debate amplo, participativo e multissetorial. Tal requisito é fundamental para que tenhamos legislações minimamente adequadas e conforme as boas práticas legislativas nacionais e internacionais, como visto nas experiências brasileiras do Marco Civil da Internet (MCI) e da Lei Geral de Proteção de Dados Pessoais (LGPD). Atropelar a discussão é perigoso para a sociedade como um todo.

Pela complexidade do tema, a regulação brasileira sobre Inteligência Artificial,  uma tecnologia de impactos sociais e econômicos tão complexos, deve contar com o devido e amplo debate público em sua construção, tendo por foco a defesa de direitos e a mitigação de riscos. A viabilização de um processo verdadeiramente democrático na construção desta regulação perpassa a garantia de participação ampla e equânime de todos os setores da sociedade. 

Contudo, desde a instalação da CTIA, a sociedade tem tido expressiva dificuldade de acesso a informações a respeito dos procedimentos e trâmites da Comissão, o que já foi objeto de crítica desta Coalizão. Se, por um lado, foram realizadas audiências públicas em outubro de 2023, estas audiências não contemplaram a realidade da população brasileira, sendo relevante a pressão da sociedade civil para a atenuação deste quadro. 

Além disso, o conjunto de colaborações que construíram o TPS – e que resultaram na piora do texto original do PL 2338 em pontos críticos, como os levantados nesta carta – tem sido tratado consistentemente de maneira opaca, impedindo a participação popular significativa e democrática no processo legislativo. 

Logo, o primeiro pedido desta Coalizão é a da urgente publicação das contribuições públicas ao TPS recebidas pela CTIA entre os dias 24 de abril e 09 de maio de 2024 em seu sítio eletrônico oficial – o que foi inclusive utilizado, em 14 de maio, como argumento para embasar a prorrogação do prazo de funcionamento da Comissão por mais 55 dias.

Além disso, é também fundamental a realização de novas audiências públicas, bem como a publicação de um calendário dos próximos trabalhos e eventos relacionados a serem realizados pela CTIA até 17 de julho de 2024, data prevista para seu encerramento.

Do texto preliminar substitutivo (TPS)

Feita a primeira solicitação para aprimoramento da transparência sobre os trabalhos da CTIA, indicamos, abaixo, os principais pontos de preocupação da sociedade civil em relação ao TPS:

  1. Capítulo III – “Da categorização de riscos”: em comparação à redação anterior, a nova redação das regras definindo sistemas de risco alto ou excessivo não apenas é confusa como representa expressiva redução de seu escopo original.

Além de reduzir o rol dos sistemas considerados de “alto risco”, permite o uso  de sistemas de armas autônomas (SAA) e tecnologias de reconhecimento facial por parte da segurança pública. Isso vai na contramão da lógica seguida pelo texto, de categorização desses usos como de risco excessivo e, portanto, proibidos. 

Também é necessário apontar que, ao estabelecer o rol de sistemas considerados de “risco excessivo”, ou seja, aqueles devem ser vedados, salvo infortunas exceções, o TPS apenas indica a  proibição de utilização e implementação desses sistemas, abrindo espaço para seu desenvolvimento e distribuição. Ora, tendo em vista que o dispositivo categoriza esses sistemas de IA como aqueles que têm maior grau de risco aos direitos fundamentais,  não faz sentido que o Estado Brasileiro permita  o desenvolvimento, distribuição, utilização e implementação desses tipos de ferramentas.

Quanto ao rol de alto risco, não se indica a sua redução ou definição a posteriori, mas a possibilidade de sua ampliação ou redução por autoridade competente, apenas após ampla consulta pública e construção multissetorial de consensos técnico-políticos. Por isso, recomendamos a retomada do parcial do rol de Alto Risco do PL 2338/2023 (art. 17) e a manutenção dos critérios de definição do alto risco (art. 15 do TPS), com os adendos a serem incluídos no sentido das sugestões abaixo e de contribuição enviada à CTIA pela Campanha Tire Meu Rosto da sua Mira.

  1. SAA (Sistemas de Armas Autônomas): Outro ponto de crítica está na regulamentação proposta dos SAA que permite certos contextos de uso. Além de ser um tópico de grande controvérsia jurídica no cenário internacional, tal disposição se opõe às normativas internacionais de Direito Internacional Humanitário e de Direito Internacional de Direitos Humanos sobre o tema e no posicionamento pacifista que rege as relações internacionais do Brasil, que deve focar na criação de pactos de redução da letalidade e violência, não de ampliação do uso de armas. 

A solução do TPS está ainda diretamente relacionada à regulamentação de tema não discutido em profundidade no Brasil, com grande potencial relevante de ofensa a direitos constitucionais. Uma carta de autorização ao uso de armas autônomas compromete um cenário já fragilizado de guerra aos pobres e excluídos no Brasil, especialmente porque o texto preliminar excepciona sua aplicação ao âmbito de defesa nacional. Os efeitos negativos da permissão de SAA atingirão diretamente a população negra que vive nas periferias, colocando em risco suas vidas e territórios.

Tendo em vista que o TPS dispõe que a regulamentação pretendida não se aplicaria para fins exclusivos de defesa nacional, entende-se que pretende abrir espaço para que as SAA sejam utilizadas para fins de segurança pública. Essa possibilidade reafirma os riscos de uso dessas ferramentas em um cenário no qual o Estado Brasileiro se coloca como agente de promoção de violência às comunidades negras, aos povos indígenas e a grupos mais vulneráveis em geral. Essa possibilidade também implicaria em potenciais processos de responsabilização do Brasil nos sistemas de justiça internacionais, como a Corte Interamericana e a Corte Internacional de Justiça. 

Além disso, do ponto de vista formal de lógica jurídica e do caráter geral da Lei de IA, a introdução de um longo capítulo sobre regras específicas sobre uso de armas autônomas fere a lógica sistêmica e geral da legislação, devendo ser abandonada pelo Senado Federal.

  1. Sistemas de identificação biométrica: de forma similar à permissibilidade de uso de SAA, o TSP também apresenta claro retrocesso quanto ao regime dado ao uso de sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público. Além dos graves riscos associados ao potencial vigilantismo e violação dos mais diversos direitos fundamentais, é sabido que tais sistemas reforçam e potencializam discriminações estruturais baseadas em raça, gênero e território, o que é confirmado pelos muitos casos de erros/falsos positivos em rostos negros, em especial mulheres negras, levando a constrangimentos e violação de direitos. 

Tal situação é ainda mais alarmante no contexto de segurança pública, quando o uso desses sistemas agrava a realidade de violência contra população negra e pobre, que vive constantemente submetida ao modelo de segurança pública orientado pela lógica da guerra nos territórios periféricos de todo país. O uso de tais sistemas, que são opacos, caros e sem eficácia comprovada, não resolvem problemas estruturais de ordem sócio-econômica, apenas reforçam a seletividade do sistema penal brasileiro. 

Por isso, é urgente o banimento desses sistemas no Brasil de forma a impedir que mais pessoas inocentes sejam presas erroneamente a partir do emprego dessas tecnologias, como já ocorreu nos estados de Sergipe, Bahia e Rio de Janeiro. Por isso, a exclusão de comandos normativos como os dos incisos do art. 14 do TSP é fundamental, já que permitem amplo uso dessas ferramentas para segurança pública, suprimindo inclusive a previsão da necessidade de lei federal presente no texto do PL 2338/2023, o que é inaceitável e incongruente com a lógica protetiva de direitos do futuro marco legal de IA brasileiro. 

  1. Proteção ao trabalho e aos trabalhadores: apesar do TPS trazer artigo específico sobre o tema, ainda deixa de mencionar expressamente uma atenção aos efeitos negativos advindos da plataformização e precarização do trabalho por meio do uso de inteligência artificial, focando mais em “riscos de deslocamento de emprego e oportunidades de carreira relacionadas à IA”. Motoristas e entregadores de aplicativo, por exemplo, são casos notórios sobre o quanto essa tecnologia pode impactar a proteção de direitos trabalhistas.
  2. Sistema Nacional de Regulação da Inteligência Artificial (SIA): conforme mencionado anteriormente sobre a importância de debates amplos, participativos e multissetoriais na governança de tecnologias, o SIA proposto falha nesse aspecto multissetorial, ao privilegiar somente órgãos estatais, como agências reguladoras, e entidades de autorregulação e entidades de acreditação de sistemas de IA. Não há inclusão das entidades de proteção do interesse público, como organizações da sociedade civil, comunidade técnico-científica ou mesmo o Sistema Nacional de Defesa do Consumidor (SNDC). O multissetorialismo proposto é falho e capenga no desenho do sistema, não representa um sistema com participação pública significativa e precisa ser corrigido.

Assim, é fundamental que ocorra a restituição de garantias previstas na redação original do PL 2338 no tocante à proteção e preconização dos direitos fundamentais dos cidadãos e os sistemas de Alto Risco, SAA e Reconhecimento Facial, tal como defendido pela campanha Tire Meu Rosto da Sua Mira.

Ante o Substitutivo, é necessária atenção para que a maior especificidade da regulamentação, fundamental para a garantia de uma normativa efetiva mais do que meramente principiológica, não se transforme em permissividade que vulnerabiliza a população especialmente negra e pobre, que vive constantemente submetida ao modelo de segurança pública orientado pela lógica da guerra nos territórios periféricos de todo país. Portanto, o cenário de conciliação entre uma abordagem baseada em riscos e uma modelagem regulatória baseada em direitos deve se voltar à proteção dos vulneráveis, e não no autorizativo de medidas que os coloquem em situação ainda mais penosa.

Ainda, considerando as particularidades do cenário brasileiro, é importante a existência de regulações nacionais que não sejam um mero transplante de iniciativas estrangeiras. No contexto brasileiro, ao qual esta carta se dirige, uma boa regulação precisa considerar a conciliação entre uma abordagem baseada em riscos e uma modelagem regulatória baseada em direitos, elencando proposições de gestão de risco e de avaliação de impacto, além de princípios relevantes para uma adequada compreensão e desenvolvimento da inteligência artificial, especialmente considerando a proteção de grupos vulneráveis e o compromisso expresso com o combate ao racismo e outras formas de discriminação.

Assim, para continuar somando esforços junto à CTIA, levando em consideração a urgência da regulação da IA em um ano marcado por eleições, manifestamos interesse para dialogar com esta Casa e esta Comissão para contribuir na construção de um marco legal que seja, de fato, representativo, promotor de direitos e que abarque de maneira uniforme princípios e diretrizes para a Inteligência Artificial no Brasil. 

Os pontos apresentados nesta carta, apesar de não serem exaustivos, são os que consideramos como mais urgentes para o cenário brasileiro e que precisam ser enfrentados e considerados no futuro Marco Legal da IA.

Por fim, a construção de tal regulação deve levar em conta processos históricos, que colocaram o Brasil na vanguarda da governança participativa de tecnologias, como o ocorrido no MCI e na LGPD, quando houve maior transparência sobre o processo legislativo, inclusive com a ativa participação da sociedade civil, que hoje pede não só pela sua maior inclusão, mas também das vozes usualmente excluídas desse processo, como quilombolas e povos originários.

É possível garantir o desenvolvimento tecnológico no campo da inteligência artificial (IA) e, ao mesmo tempo, impedir abusos e proteger direitos. Não podemos repercutir a falácia de que regulação impede inovação. Pelo contrário: é por meio deste debate regulatório que a sociedade brasileira tem a oportunidade de caminhar, de forma pioneira, no sentido de um avanço tecnológico ético, sustentável, que respeite suas particularidades históricas e culturais e não acentue desigualdades estruturais. 

Em suma, a retomada e aprimoramento do texto do PL 2338/23 se mostra imperiosa, com o abandono, por completo, de normativas desnecessárias e permissivas em temas sensíveis aos direitos humanos.

Brasília, 17 de maio de 2024.

Coalizão Direitos na Rede

Contatos

Grupo de Inteligência Artificial (GT IA):

Paula Guedes (ponto focal)

E-mail: paulaguedesfs@gmail.com

Ladyane Souza (consultora)

E-mail: souza.ladyane@gmail.com

Secretaria Executiva:

E-mail: secretariaexecutiva@direitosnarede.org.br

Telefone: 51 99990-0512

Imprensa:

Laila Oliveira

E-mail: imprensa@direitosnarede.org.br

Telefone: (79) 991356252