Brasil não está pronto para regular inteligência artificial

Novo projeto de lei sobre IA representa uma séria ameaça aos direitos digitais no país; Senado Federal precisa amadurecer o texto com a participação da sociedade

A Coalizão Direitos na Rede (CDR) – coletivo que reúne 48 entidades da sociedade civil e organizações acadêmicas que trabalham em defesa dos direitos digitais – vem a público chamar a atenção dos senadores brasileiros sobre o Projeto de Lei nº 21-A, de 2020 (PL 21-A/2020), de autoria do Deputado Eduardo Bismarck e relatado pela Deputada Luísa Canziani, aprovado na Câmara dos Deputados no dia 29 de setembro de 2021. 

Um panorama geral sobre problemas envolvendo Inteligência Artificial e suas modalidades práticas

O desenvolvimento de tecnologias associadas à inteligência artificial (IA) abre um cenário cada vez mais amplo de modificação de relações de trabalho, percepções sociais e soluções para problemas até então não resolvidos. Seja como mecanismo que faz funcionar soluções automatizadas mais eficientes, até a apresentação de diagnósticos mais precisos, a IA parece ser o “toque de Midas” para buscar medicamentos mais poderosos, liberar o ser humano de trabalhos repetitivos e ampliar a prosperidade social.

É importante lembrar, contudo, que o “toque de Midas” ao tempo em que cria prosperidade, pode também resultar no atropelamento das condições humanas e declínio de um grupo social. A inteligência artificial já recebe contestações e alertas suficientes para que seu lado negativo deva ser ressaltado e, devidamente, regulado. 

Já foi mencionado, em nota anterior [1] da Coalizão Direitos na Rede que “[…] esses sistemas utilizam big data para resolver problemas e servir como base para decisões automatizadas que podem levar à discriminação, por exemplo, racial, de gênero ou orientação sexual”. 

Como exemplo, podemos citar o fato de que sistemas de reconhecimento facial, baseados em inteligência artificial, têm sido utilizados pela polícia no Brasil para identificar pessoas procuradas, e seus equívocos, muito maiores quando relativos a pessoas negras, já levaram à prisão de pessoas inocentes. Além disso, o uso de inteligência artificial em processos seletivos de emprego e para concessão de crédito já foi discriminatório contra pessoas negras, restringindo seu acesso ao mercado de trabalho e à ascensão econômica, aprofundando a exclusão sócio-econômica desses grupos.

Entretanto, contrário aos apontamentos de boa parte da academia e sociedade civil, a Câmara dos Deputados aprovou, a toque de caixa, uma legislação que carece de acuidade técnica e dá espaço à insegurança jurídica e social ao não refletir, detidamente, sobre o que é a inteligência artificial no presente e suas possíveis consequências futuras. Importante lembrar, aqui, que o processo jurídico se volta justamente ao dilema “presente x futuro”, buscando projetar, sem futurologia, um caminho possível de ordem e controle com vistas a garantir direitos dos cidadãos brasileiros.

Como o PL restringe direitos já previstos no ordenamento jurídico

Responsabilidade civil

Talvez o mais grave dispositivo do PL 21-A/2020 seja o artigo 6º, VI, que prevê que normas sobre responsabilização de agentes envolvidos com o desenvolvimento e operação de sistemas de IA deve ser predominantemente subjetiva e levar em conta a “a efetiva participação desses agentes” no dano. 

Tal previsão restringe direitos por dois principais motivos. O primeiro por uma questão técnica: os sistemas de IA, principalmente aqueles de aprendizagem de máquina (machine learning), são desenvolvidos de modo a que sejam capazes de aprender a partir do processamento de dados (input) e, com base neste aprendizado, realizar ações (output) de forma mais ou menos autônoma. 

Essa capacidade de aprendizagem e autonomia faz com que esses sistemas possam muitas vezes tomar decisões quase impossíveis de serem explicadas por seus desenvolvedores, tamanha sua complexidade. 

Por isso, não é de acordo com o direito brasileiro que os danos que essas tecnologias incorrem exijam de cidadãos comuns, na maioria das vezes sem conhecimento técnico, que expliquem (a) onde houve a falha, (b) qual agente a cometeu e (c) qual a culpa que possui por ela.

Com isso, o dispositivo – e aqui entramos na segunda razão – fere o desenvolvimento do direito de buscar garantir sempre a efetivação da reparação ao indivíduo que sofreu o dano (reparação integral). Nessa linha, a necessidade de demonstração da culpa torna-se desnecessária, nos termos do art. 927 do Código Civil, “quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem” (caso de inúmeras tecnologias de inteligência artificial, como as mencionadas anteriormente). 

O Código de Defesa do Consumidor (CDC), em direção similar, também prevê hipóteses em que a reparação ocorrerá sem necessidade de comprovação de culpa, principalmente em seus artigos de 12 a 14, que preveem a compensação de danos causados por produtos e serviços defeituosos ou cuja informação não foi passada de forma acurada ao consumidor.

Certo é que o §3º do art. 6º, VI, do PL 21-A/2020 traz uma exceção aplicável a relações de consumo. No entanto, ela ainda assim restringe direitos do CDC. Primeiro, porque os danos causados pela inteligência artificial vão muito além daqueles em situações consumeristas. Não há esse tipo de relação entre um serviço de análise de crédito e um candidato a empréstimo pessoa física, por exemplo. Com isso, a pessoa afetada ainda teria de conseguir comprovar a culpa do agente pela falha do sistema.

Segundo, porque o PL 21-A/2020 determina que, ainda que a responsabilidade seja objetiva em relações consumeristas envolvendo inteligência artificial, o postulante à reparação deverá comprovar qual foi a “participação efetiva [do agente] no evento danoso”. Tal disposição é diametralmente oposta ao que determina o CDC, especialmente em seus artigos 18 e 19, que preveem que a responsabilidade objetiva de fornecedores será solidária. Isso significa que, quando há vício do serviço ou produto, não é necessário ao consumidor comprovar em qual medida se deu a responsabilidade de cada agente na cadeia de produção ou fornecimento de um produto, podendo todos os envolvidos serem responsabilizados.

Não discriminação e busca pela neutralidade

O artigo 5º do PL, que estipula princípios para inteligência artificial, também apresenta graves problemas. Seus incisos III e IV, que se referem aos chamados princípios da “não discriminação” e “busca da neutralidade”, estão entre os mais preocupantes. 

Pelo princípio da não discriminação, o PL 21-A/2020 aduz que se deve buscar “mitigar a possibilidade de uso dos sistemas para fins discriminatórios ilícitos ou abusivos”. Não há, portanto, nenhuma proibição à discriminação, ou mesmo a previsão de inibição ou banimento como opções a serem consideradas para determinadas aplicações de inteligência artificial, como faz, por exemplo a proposta de regulamento da União Europeia [2].

Por sua vez, o princípio expresso pela “busca da neutralidade” consiste em uma mera recomendação de que os agentes envolvidos no desenvolvimento e operação de sistemas de inteligência artificial busquem identificar e mitigar vieses contrários às determinações da legislação em vigor. Como se vê, não há nenhuma espécie de obrigação de seguir esse princípio, mas uma mera e pobre diretriz para tanto. Muito menos há qualquer previsão de responsabilização do agente caso o sistema demonstre viés discriminatório.

Em primeiro lugar, esses princípios reduzem drasticamente o escopo de aplicação do princípio da não discriminação previsto no art. 6º, IX, da Lei Geral de Proteção de Dados Pessoais (LGPD), que expressamente proíbe o processamento de dados pessoais de modo que cause qualquer forma de discriminação ou abuso ao afirmar a “impossibilidade de realização do tratamento para fins discriminatórios ilícitos ou abusivos”. Com isso, para além de não terem qualquer força normativa, os princípios mencionados do PL 21-A/2020 ainda reduzem o escopo de direitos preexistentes no ordenamento.

Não bastasse, os dois princípios do PL tornam inócuo o combate à não discriminação nos sistemas de inteligência artifical no Brasil. Isso é particularmente problemático em um país marcado pelo racismo onde, entre as detenções feitas pela polícia com uso de reconhecimento facial em 2019 e que foram registradas com dados relativos à cor da pele, 90% dos indivíduos identificados eram negros [3].

Transparência

Outro princípio problemático é o da transparência, previsto no art. 5º, V, do PL. Ele restringe a três situações específicas o direito de requerer informações sobre o funcionamento de sistemas de inteligência artificial. As duas primeiras referem-se à necessidade de se informar uma pessoa quando ela interage com um chatbot e de comunicar a ela a identidade do responsável pelo sistema.

Para além disso, o dispositivo determina, em sua alínea (c), que o indivíduo tem o direito de ser informado “sobre critérios gerais que orientam o funcionamento do sistema de inteligência artificial, assegurados os segredos comercial e industrial, sempre que houver potencial de risco relevante para os direitos fundamentais”.

A parte final desse último dispositivo representa mais uma redução a direitos promovida pelo PL. Ela restringe fundamentalmente o direito, previsto na LGPD, a obter informações sobre sistemas de decisão automatizada (que incluem sistemas de inteligência artificial que processam dados de natureza pessoal). 

Isso porque o art. 20, §1º, da LGPD, é claro ao afirmar que titulares de dados têm o direito de solicitar informações sobre os critérios e procedimentos utilizados para a decisão automatizada sempre que afetem seus interesses. Essa hipótese é muito mais abrangente do que a do PL 21-A/2020, e garante efetividade à proteção de indivíduos contra injustiças causadas por sistemas de inteligência artificial.

Riscos acerca falta de participação multissetorial

Ponto a ser destacado entre as problemáticas referentes ao texto envolve não a matéria de fundo (inteligência artificial), mas uma dupla dimensão: a interna e a externa, ou seja, de prática do Estado Legislador e das consequências de mercado com agentes do exterior.

Do ponto de vista interno, o atropelo do processo legislativo saudável impede o aprimoramento do texto e a análise de tantos pontos em aberto quanto aos impactos tecnológicos da IA. Além disso, a marcha acelerada, sem consulta pública concreta e profunda aos diferentes atores envolvidos com a tecnologia e afetados por ela, expõe a nova lei a se tornar um exemplo de má prática em termos de índice democrático e participação popular. Em outras palavras, é uma lei que não condiz com os princípios constitucionais brasileiros.

Do ponto de vista externo, destacam-se as consequências gerais de ordem econômica. Tal destaque se dá pelo fato de que, seguindo uma tendência geral na regulação da tecnologia, legislações de outros países e uniões econômicas (como a União Europeia) tendem a impor condições de exercício de modelos de negócio em seu território. Uma legislação que não possua critérios em diálogo transnacional e seja ausente de mecanismos adequados de controle e de garantias de direitos pode obstar a certificação e liberação de produtos envolvendo inteligência artificial em mercados estrangeiros. Isso significa dizer que, se aprovado da forma como está, o PL 21-A/2020 pode representar um barreira para que empresas brasileiras de tecnologia vendam seus produtos e serviços para mercados internacionais, bem como desestimulará investidores estrangeiros a estabelecerem ou ampliarem negócios no Brasil.  

Ademais, nenhum país do mundo entende ter debatido o suficiente para a produção de uma legislação específica sobre a inteligência artificial. O modelo europeu, por exemplo, já conta com alguns anos de debate e prevê rodadas de diálogo pelos próximos anos para construção de um modelo eficaz e adequado de regulação dessas tecnologias. 

Ressaltamos, ainda quanto à participação, que o PL não reflete importantes compromissos assumidos internacionalmente pelo Brasil, como os dispostos nas Recomendações sobre a Ética da Inteligência Artificial da UNESCO [4], adotadas a menos de um mês.

As Recomendações são pautadas em torno da dignidade humana, direitos humanos, igualdade de gênero, diversidade, proteção ambiental, desenvolvimento social, econômico, dentre outros. Para que o uso da IA respeite essas premissas, os Estados-Membros, incluindo o Brasil, concordaram que é extremamente importante a promoção do diálogo multissetorial e multidisciplinar, citando, por exemplo, pesquisadores, representantes da sociedade civil, autoridades policiais e usuários como atores essenciais para esse debate.

Além disso, o documento destaca princípios como justiça, não discriminação, transparência, direito à privacidade e proteção de dados, como norteadores da regulação do desenvolvimento e uso da IA. Isso implica que países adotem uma abordagem responsável e inclusiva em relação à inteligência artificial. 

Apesar de o Brasil ter parte nesse posicionamento internacional no âmbito da UNESCO, muito há de se trabalhar para que as Recomendações sejam adotadas internamente. Se por um lado essas orientações trazem maior clareza quanto à governança responsável e inclusiva da IA, por outro, a sua não aderência a nível doméstico deixa ainda mais fragilizada a credibilidade do estado brasileiro.

Sobre as avaliações de impacto de inteligência artificial

Avaliações, relatórios e diagnósticos do impacto são instrumentos que têm ganhado cada vez mais importância em uma sociedade na qual as ações humanas e empresariais podem provocar riscos de difícil ou impossível reparação. Atualmente, no Brasil existem ao menos três avaliações de impacto setoriais definidas por lei, sendo elas: a avaliação de impacto ambiental, a avaliação de impacto regulatório e o relatório de impacto à proteção de dados pessoais. 

Por outro lado, uma avaliação de impacto de inteligência artificial (AIIA) é um instrumento de governança que pode ser adotado pelo responsável pelo desenvolvimento e operação de um sistema de IA para avaliar, documentar e prestar contas de determinadas aplicações que possam causar um alto risco para os direitos das pessoas físicas. Através da uma AIIA, será possível identificar e definir salvaguardas para eliminar ou mitigar riscos associados ao desenvolvimento ou operação destes sistemas [5], o que contribui para consolidar a inteligência artificial na sociedade de uma forma responsável [6]

Sobre a Criação de um Grupo Permanente de Especialistas multissetoriais em Inteligência Artificial

A experiência internacional nos mostra inúmeros benefícios sobre a criação de um grupo permanente de especialistas em inteligência artificial. Como notório exemplo, podemos citar a iniciativa da União Europeia em instituir o Grupo de Peritos de Alto Nível em Inteligência Artificial (High-level Expert Group on Artificial Intelligence), um grupo multissetorial e multidisciplinar que é  composto por membros da indústria, da academia e da sociedade civil, que são escolhidos por meio de uma chamada aberta da Comissão Europeia. 

Há também experiências como esta no México, que em 2018, ao apresentar a sua Estratégia Nacional de Inteligência Artificial, também criou a IA2030Mx, uma coalizão multissetorial de instituições mexicanas que atua para desenvolver ações sobre inteligência artificial que sirvam a toda sociedade. Todo esse ecossistema que vem sendo criado permite ao México se tornar uma importante referência nas discussões na América Latina sobre o desenvolvimento ético e responsável da inteligência artificial para o bem comum.

No cenário brasileiro, vislumbramos inúmeras oportunidades para atuação de um grupo de especialistas em inteligência artificial, tais como: (i) definição de parâmetros para elaboração de códigos de conduta e guias de boas práticas (art 4º, parágrafo único, PL 21-A/2020); (ii) aperfeiçoamento e diálogo do marco legal da IA considerando as ações previstas na Estratégia Brasileira de Inteligência Artificial (EBIA); (iii) aperfeiçoamento e adequação do marco regulatório considerando os compromissos internacionais e convenções relacionadas à inteligência artificial as quais o Brasil é signatário ou aderiu; (iv) debate amplo e aprofundado sobre os possíveis cenários de responsabilidade civil dos agentes envolvidos no ciclo de vida da IA; (v) elaboração de estudos e relatórios sobre temas específicos, incluindo sobre os impactos da IA no Sul-Global; dentre outros.

Sugestões de aperfeiçoamento

Dadas as graves faltas relatadas acima, a Coalizão Direitos na Rede indica como sugestão de aperfeiçoamento ao processo legislativo e ações em curso:

  1. a ampliação do debate para amadurecimento do tema;
  2. a supressão do artigo 6º, junto de todos os seus incisos e parágrafos, do PL 21-A/2020;
  3. a criação do instrumento de avaliação de impacto de inteligência artificial  para a identificação do nível de risco de sistemas de IA e, por conseguinte, para a gestão com base em risco mencionada nos  § 1º e 2º do artigo comentado, tornando necessária a discussão aprofundada acerca de seus parâmetros e metodologia. 
  4. a instituição, via PL 21-A/2020, de um grupo permanente de especialistas multissetoriais em inteligência artificial, que produzirá informações de qualidade sobre a IA e apoiará estratégias, políticas, acompanhamento e aperfeiçoamento regulatório e definições de prioridades.

Coalizão Direitos na Rede
Brasília, 7 de dezembro de 2021



[1] Disponível em: https://direitosnarede.org.br/2021/09/23/inteligencia-artificial-nao-pode-ser-regulada-a-toque-de-caixa/

[2]  European Commission, “Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, COM/2021/206 final,” EUR-Lex, April 21, 2021. Disponível em: https://eur-lex.europa.eu/legalcontent/EN/TXT/?uri=CELEX%3A52021PC0206.

[3] Sobre o ponto, “Exclusivo: levantamento revela que 90,5% dos presos por monitoramento facial no Brasil são negros”. Disponível em: https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/.

[4] Disponível em: ​​https://en.unesco.org/artificial-intelligence/ethics#recommendation

[5] Governo do Canadá. Algorithmic Impact Assessment. Disponível em: https://canada-ca.github.io/aia-eia-js.

[6]  ECP. Artificial Intelligence Impact Assessment. Roadmap for conducting the AIIA. Platform for the Information Society. 2019, p. 9. Disponível em: https://futurium.ec.europa.eu/en/european-ai-alliance/best-practices/ai-impact-assessment-code-conduct.