Por uma regulação de Inteligência Artificial que defenda direitos!
Do histórico
Da urgência de uma regulação para Sistemas de Inteligência Artificial
É inegável que os sistemas de inteligência artificial (IA) podem proporcionar inúmeros benefícios para a vida em sociedade, em especial para promoção dos 17 Objetivos de Desenvolvimento Sustentável da ONU, como educação de qualidade, saúde e bem-estar, erradicação da pobreza, redução das desigualdades, proteção do meio-ambiente e trabalho decente.
Porém, a ausência de regras obrigatórias para o desenvolvimento, implementação e utilização das inúmeras possibilidades de uso de IA possui enorme potencial de acirrar riscos conhecidos e evitáveis. A IA já facilita e gera danos e violações de direitos concretos, por exemplo, pelo reforço de práticas discriminatórias, exclusão de acesso a bens e serviços essenciais para grupos historicamente marginalizados, auxílio a campanhas de desinformação e violência, erosão de processos e espaços democráticos, facilitação à vigilância pública e privada, acentuação de mudanças climáticas, aceleração de epistemicídio de línguas e culturas originárias e locais e intensificação da precarização do trabalho.
Consequentemente, para que tenhamos sistemas de IA que promovam uma inovação pautada em direitos humanos, ética e responsabilidade, é crucial que sejam estabelecidas regras mínimas para a salvaguarda de de direitos de pessoas afetadas, deveres para os agentes de IA, medidas de governança e a definição de um arranjo regulatório de fiscalização e transparência, o que não é impeditivo ao fomento ao desenvolvimento e fomento à inovação – muito pelo contrário. Uma regulação eficiente, protetiva de direitos, é condição indispensável para o florescimento de produtos e serviços de IA responsáveis, isto é, potencializadores do ser humano e do Estado Democrático de Direito.
O PL 2338/2023, que olha para riscos e direitos, é um bom norte para regulação da IA, pensando no que vem sendo desenvolvido em outros cenários internacionais. Essa abordagem permitiria um diálogo facilitado entre as legislações de diferentes países com a nossa (interoperabilidade/convergência regulatória), diminuindo o esforço de adequação das organizações no contexto brasileiro. Mais do que isso, entendemos que uma regulação da IA baseada em direitos e atenta a seus riscos contribuiria para posicionar o Brasil como um pioneiro no desenvolvimento e fornecimento de tecnologias responsáveis.
Desmistificando mitos e falsos trade-offs: regulação como impulsionadora da inovação responsável e do desenvolvimento econômico inclusivo
Atores contrários à regulação abrangente de IA no Brasil, ou com obrigações quase que inexistentes, são aqueles que justamente se beneficiam deste cenário sem regras harmonizadas e previsibilidade jurídica, em detrimento da proteção de direitos humanos, a partir da criação de argumentos e narrativas que não se sustentam na prática.
- Regulação x Inovação → Não há embate entre regulação e inovação, ambas podem e devem coexistir, como aconteceu com o Código de Defesa do Consumidor em 1990 e com a Lei Geral de Proteção de Dados Pessoais em 2018. Além disso, a regulação baseada em riscos dos sistemas de IA permite o estímulo à inovação responsável, de forma a possibilitar o desenvolvimento econômico, tecnológico e social pautados no bem-estar e na promoção de direitos fundamentais. Nesse sentido, a Academia Brasileira de Ciências publicou um relatório sobre regulação de IA afirmando ser perfeitamente compatível a agenda de estímulo à indústria nacional de IA e a proteção de direitos fundamentais;;
- Maior necessidade de diálogo → captura de um argumento legítimo da sociedade civil para defesa de estratégia de não regulação ou obstaculização de processos legislativos por atores interessados na ausência de lei. Protelar a adoção de uma regulação responsável, nesse caso, abre margem para que continuem a desenvolver e implementar tecnologias arriscadas.
- Tecnologia ainda não conhecida → o argumento sobre a IA ser absolutamente disruptiva e incontrolável para fins de regulação não se sustenta ao considerarmos, sobretudo, dois pontos: a) os estudos sobre o tema, tanto na academia quanto no setor privado, acumulam 8 décadas de experimentações e análise de impactos sociais; b) os agentes de IA, em especial desenvolvedores, possuem agência na tomada de decisões sobre ideação, desenvolvimento e implementação da tecnologia, incluindo a opção por não implementação quando mecanismos de transparência, controle de qualidade e accountability não forem considerados suficientes.
Substitutivo ao PL 2338/2023 de 07 de junho de 2024
Como trabalho final da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), foi publicado relatório no dia 07 de junho de 2024 com uma nova proposta de texto substitutivo. É importante destacar que este texto traz elementos considerados essenciais para a boa regulação de sistemas de IA no Brasil, quais sejam:
- Estabelecimento de regulação assimétrica, baseada em níveis de risco, o que faz com que haja diferentes obrigações para os agentes de IA, que não serão sobrecarregados com carga regulatória incompatível com o risco de seus sistemas;
- Fixação de direitos e garantias básicos dos indivíduos potencialmente afetados pela IA;
- Definição de usos de IA que são inaceitáveis (lista de riscos excessivos), justificando a vedação da sua implementação e utilização no território nacional;
- Criação de obrigações gerais de governança, conjugadas com obrigações específicas para sistemas de alto risco e especificamente para o poder público;
- Manutenção da avaliação de impacto algorítmico para identificação e mitigação de riscos e análise das oportunidades;
- Atenção especial ao contexto brasileiro de discriminações estruturais a partir da fixação, ao longo de todo o texto, de medidas de prevenção e combate a essas diferentes formas de discriminação, direta e indireta, além da proteção de grupos vulneráveis;
- Definição de um arranjo regulatório de fiscalização com autoridade competente com independência.
Neste ponto, destacamos as últimas melhorias adicionadas ao texto original do PL 2338 pelo texto substitutivo de 07 de junho:
- Expresso banimento de sistemas de armas autônomas, sem quaisquer hipóteses excepcionais;
- Criação de medidas de governança específicas para as IAs de propósito geral e as IAs generativas, o que é importante no cenário em que tais sistemas não necessariamente podem ser enquadrados dentro dos níveis de risco;
- Previsão de participação social em processos de governança, como nas avaliações de impacto algoritmos e suas revisões e nos procedimentos de regulamentação e classificação da lista de alto risco;
- Melhor detalhamento do arranjo regulatório.
Apesar dos avanços supramencionados, o substitutivo manteve ou agravou pontos críticos que se posicionam de forma contraditória ao objetivo central da regulação de IA protetiva de direitos. Destacamos tais disposições a seguir.
Onde é possível melhorar o substitutivo do PL 2338?
- Regramento para sistemas de identificação biométrica à distância, tempo real e espaços publicamente acessíveis (artigo 13, inciso VII)
Desde o texto original do PL 2338, sistemas de identificação biométrica à distância em tempo real e em espaços acessíveis ao público (tecnologias de reconhecimento facial) são categorizados como de risco excessivo, devendo sua implementação e uso serem vedados. No entanto, os últimos textos substitutivos ao projeto incluíram amplas exceções para o uso de tais sistemas, especialmente para o Sistema de Justiça Criminal e o trabalho das agências policiais (art. 13, VII, relatório substitutivo).
A Coalizão Direitos na Rede reconhece a importância do trabalho policial e da Justiça Criminal na garantia de uma sociedade mais segura, mas compreendemos que o uso de tais sistemas não melhora nem tornará mais eficiente a capacidade do sistema penal em proporcionar maior segurança para a população. Na verdade, nenhuma salvaguarda técnica ou legal é suficiente para tornar aceitável os riscos associados ao uso dessas tecnologias.
A vigilância constante, massiva e indiscriminada, por si só, representa uma violação dos direitos e liberdades das pessoas e da coletividade que incorre na restrição dos espaços cívicos e públicos. O que se conhece sobre sistemas de reconhecimento facial é que eles são ineficientes e geram gastos desnecessários para a Administração Pública, tendo em vista seu grau de erros. Pesquisa recente apontou para um gasto médio por prisão por reconhecimento facial como de 850 mil reais aos cofres públicos. Por outro lado, para além da sua ineficiência, sistemas como esse foram continuamente denunciados pelo seu poder discriminatório que atinge sobretudo a população negra e em maior grau as mulheres.
Nesse sentido, a Coalizão Direitos na Rede defende o banimento do reconhecimento facial no âmbito da segurança pública e Justiça Criminal, tendo em vista que essas áreas de atuação do Estado são dotadas de um alto grau de sensibilidade e possibilidade de restrição de direitos fundamentais como a liberdade e o direito de reunião. Ademais, reafirma o fato que existem fatores críticos no que tange ao potencial discriminatório dessas tecnologias que tendem a errar – os chamados falsos positivos – levando a casos de inaceitáveis como a do homem preso injustamente em Sergipe, de um jovem abordado agressivamente após falso reconhecimento em Salvador e uma mulher sendo confundida e presa no Rio de Janeiro. Situações como essas são graves e acontecem repetidas vezes.
Compreendemos a permissão do uso de sistemas de reconhecimento facial como violadoras dos direitos fundamentais mais caros ao povo brasileiro. Ainda, a forma que permite seu uso , sem mecanismos de proteção e salvaguardas específicas dada a natureza desses sistemas, agrava o já anunciado problema. É igualmente preocupante a ausência de lei para a proteção de dados pessoais específica para atividades da segurança pública.
Nesse sentido, a CDR vê como um tímida mas positiva a alteração do texto para que que preveja a dependência de lei federal específica para o uso desses sistemas, assim como a exigência de relatórios de impacto algorítmico e relatórios de impacto à proteção de dados pessoais.
No mais, é necessário que haja maior transparência em relação a realização de prisões e a revelação de estatísticas precisas de seus números, além de permitir acompanhamento específico do Ministério Público e da Defensoria Pública para casos de prisões com o sistema de identificação biométrica. Nesse sentido, a CDR também entende como minimamente positivo que capturas realizadas com identificação biométrica sejam propriamente identificadas nos autos de prisão e comunicadas à autoridade judiciária como tal.
- Necessidade de alteração de disposições do rol de alto risco (art. 14)
2.1) Retorno da finalidade de avaliação da capacidade de endividamento e estabelecimento de score de crédito
A pontuação de crédito (score de crédito) é uma ferramenta utilizada por bancos e instituições financeiras para avaliar se um indivíduo é um bom pagador, a partir da sua classificação de risco de inadimplência, como, por exemplo, para a tomada de decisão quanto ao acesso ao crédito nestas instituições.
O acesso ao crédito financeiro é fundamental como condicionante para o exercício de uma série de direitos constitucionalmente garantidos, fazendo com que a automatização de sua concessão, por meio da pontuação de crédito definida por IA, deva estar sujeita a garantias robustas, especialmente em razão do potencial discriminatório, como já comprovado através de pesquisas, inclusive realizadas em contexto brasileiro. Importa ressaltar que, além da vital importância do crédito como condição de acesso a bens e serviços essenciais como saúde e moradia, os modelos de crédito são alimentados com inúmeros dados pessoais como input, o que, por si só, exigiria uma proteção reforçada quanto à sua segurança.
Por isso, a retirada da “avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito” do rol de alto risco do PL 2338/2023 é equivocada e, por isso, recomenda-se a sua volta ao projeto. Esta classificação de alto risco, inclusive, está alinhada com outros regramentos para âmbito internacional, como o Regulamento Europeu sobre IA, o AI Act.
2.2) Deslocamento dos incisos IX, X e XI do art. 14 (alto risco) para o art. 13 (risco excessivo)
Os incisos IX, X e XI do art. 14 trazem usos de IA que, em diferentes pesquisas nacionais e internacionais, já se mostraram produtores de mais efeitos negativos que positivos. Isso se dá, especialmente, porque tais usos se relacionam com ideias de tecnosolucionismo e teorias lombrosianas, que acabariam por reforçar discriminações estruturais e violência histórica contra determinados grupos da sociedade, em especial a população negra.
Em 2016, a Pro Publica divulgou uma pesquisa que demonstrava como um sistema de IA utilizado para gerar uma pontuação de previsão de probabilidade de um indivíduo cometer um crime futuro possuía resultados enviesados com base em raça e gênero, o que não era compatível com a realidade de pessoas que, de fato, cometiam crimes ou reincidiram neles. Desta forma, o inciso X do art. 14 do substitutivo ao PL 2338 estaria permitindo o uso de IA de forma semelhante para “prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares”, o que não é comprovado cientificamente e, pelo contrário, evidências mostram o potencial de reforço de práticas discriminatórias.
O inciso XI, relativo à identificação e autenticação biométrica para o reconhecimento de emoções, também é preocupante, já que não há consenso científico quanto à possibilidade de identificação de emoções simplesmente com base em expressões faciais, o que levou a Microsoft a descontinuar o uso de ferramentas de IA para tais fins.
Dessa forma, recomendamos a exclusão dos incisos IX, X e XI do art. 14 do texto, direcionando-os para o art. 13 de risco excessivo, logo, proibidos.
- Mudança no regime de responsabilidade civil das operadoras, fornecedoras e distribuidoras de sistemas de Inteligência Artificial
O atual texto substitutivo ao PL 2338 traz nos art. 32 e 33 a referência direta aos regimes de responsabilidade civil já existentes no ordenamento jurídico brasileiro. Consequentemente, fica disposto que, para os sistemas de IA nas relações de consumo, seja aplicável a responsabilidade civil objetiva do Código de Defesa do Consumidor. Para as demais situações, aplicariam-se as regras de responsabilidade do Código Civil, sem prejuízo de outras legislações pertinentes.
Saudamos a iniciativa de reconhecer que o ordenamento jurídico brasileiro já possui instrumentos vigentes de responsabilidade civil aplicáveis para os sistemas de IA. Porém, diante do desequilíbrio de poder e informação existente entre os agentes de IA e as pessoas impactadas por essess sistemas, recomenda-se que o art. 34 preveja a regra de inversão do ônus da prova como dever do juiz, quando verificada a hipossuficiência da vítima ou quando for excessivamente onerosa a produção de prova de nexo de causalidade. Desta forma, sugere-se como nova redação:
Art. 34. O juiz inverterá o ônus da prova, a seu critério, quando a vítima demonstrar sua hipossuficiência para produzir a prova ou quando as características de funcionamento do sistema de inteligência artificial tornem excessivamente oneroso para a vítima provar o nexo de causalidade entre a ação humana e o dano causado pelo sistema.
Esta alteração na redação garantirá maior coerência ao texto de lei, que se pretende ser protetivo de direitos. Isso porque os sistemas de IA estão estruturados em métodos com maior ou menor grau de explicabilidade, o que qualifica os requisitos postos acerca da hipossuficiência ou da onerosidade da vítima fazer prova quanto às características do sistema. Caso isso não seja alterado, mantendo-se o ônus primário da prova, estaríamos diante de uma hipótese de prova impossível. Ademais, atendidos os requisitos da lei, não é “a critério” do magistrado ordenar a inversão, mas estabelecê-la de pronto, para evitar decisões surpresas e por que, quando atendidos os requisitos e pleiteado pela parte, nasce o direito subjetivo processual à inversão.
- Participação da sociedade civil no Sistema Nacional de Governança e Regulamentação de Inteligência Artificial (SIA)
Como já mencionado, é louvável que o substitutivo melhor defina o arranjo fiscalizatório em torno da IA no país, com o objetivo de melhor orientar e supervisionar o desenvolvimento e aplicação da tecnologia. Isso foi feito com a criação do Sistema Nacional de IA (SIA), formado pela futura autoridade competente a ser designada pelo Poder Executivo, autoridades setoriais e o novo Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA).
Porém, há lacuna quanto à definição de participação da sociedade civil neste arranjo, o que é fundamental para garantir a participação social múltipla e diversa neste contexto. Por isso, recomenda-se que o substitutivo ao PL 2338 inclua a Emenda 18 de autoria do Senador Alessandro Vieira (MDB/SE), assim como inclusão explícita da sociedade civil no parágrafo primeiro do artigo 40.
Pela aprovação do PL 2338/2023 com a inclusão das Emendas
Diante do exposto, o Grupo de Trabalho de Inteligência Artificial (GT IA) e o Grupo de Trabalho de Vigilância, Plataformização e Proteção de Dados (GT VPPD) se manifestam pelo seguimento do processo legislativo do referido projeto de lei na Comissão Temporária sobre Inteligência Artificial (CTIA) no Senado Federal e posteriormente no plenário desta casa em direção a sua aprovação no texto final publicado pelo relator, Senador Eduardo Gomes, em 07 de junho de 2024, desde que sejam aprovadas as emendas 7 a 20 e 27 de autoria, respectivamente, dos senadores Alessandro Vieira e Fabiano Contarato, além de novas emendas relativas à pontuação de crédito e responsabilidade civil.
Brasília, 18 de junho de 2024.
Coalizão Direitos na Rede
Contatos:
Grupo de Inteligência Artificial (GT IA):
Paula Guedes (ponto focal)
E-mail: paulaguedesfs@gmail.com
Grupo de Vigilância, Plataformização e Proteção de Dados (GT VPPD):
Pedro Diogo (consultor)
E-mail: pedro.diogo@lapin.org.br
Secretaria Executiva:
E-mail: secretariaexecutiva@direitosnarede.org.br
Telefone: 51 99990-0512
Imprensa:
Laila Oliveira
E-mail: imprensa@direitosnarede.org.br
Telefone: (79) 991356252