Superficialidade do texto não cobre a complexidade do tema
A Coalizão Direitos na Rede (CDR) – coletivo que reúne 48 entidades da sociedade civil e organizações acadêmicas que trabalham em defesa dos direitos digitais – vem a público chamar a atenção dos parlamentares sobre o Projeto de Lei nº 21, de 2020, de autoria do Deputado Eduardo Bismarck e relatado pela Deputada Luísa Canziani, que pretende estabelecer princípios, direitos e deveres para o uso de inteligência artificial (IA) no Brasil.
Após uma análise detalhada do substitutivo apresentado, a Coalizão Direitos na Rede entende que a atual redação proposta desconsidera de forma intencional a complexidade do tema, ignorando os debates nacionais e internacionais sobre regulação de inteligência artificial, além de possuir trechos que conflitam diretamente com o atual ordenamento jurídico brasileiro.
Por exemplo, o texto legislativo desvaloriza o histórico da discussão do tema no Congresso Nacional e a discussão sobre proteção de dados pessoais, não prevê instrumentos concretos para lidar com aspectos relevantes da tecnologia ante a possibilidade da aplicação de alguns desses sistemas de IA colocar indivíduos em risco e, apressadamente, prevê um regime de responsabilidade civil prejudicial aos cidadãos brasileiros.
Nesse sentido, a Coalizão Direitos na Rede defende que o referido projeto de lei seja objeto de um debate amplo e plural no Parlamento, que considere a voz de todos os setores interessados e afetados e seja realizado com um tempo adequado, pois apesar da urgência da proposta, entendemos ser necessário maior aprofundamento e discussão técnica sobre o texto final, sob pena de riscos importantes, tanto para população brasileira quanto para a constituição de um ecossistema de IA seguro e confiável no país.
Inteligência artificial: o que estamos querendo regular?
O uso de ferramentas de inteligência artificial, que se utilizam de algoritmos para tomada de decisão, vem crescendo exponencialmente. Estes algoritmos estão presentes nos mais diversos espaços, desde aplicativos de transporte, propagandas direcionadas, até tecnologias mais invasivas, como as de reconhecimento facial. Eles são usados para escolher entre currículos de aspirantes a determinada vaga de emprego, para checar e possivelmente conceder crédito e decidir sobre seguros de saúde. Mas, na maioria das vezes, são construídos como “caixas-pretas”, não oferecendo transparência sobre seu funcionamento.
Esses sistemas utilizam big data para resolver problemas e servir como base para decisões automatizadas que podem levar à discriminação, por exemplo, racial, de gênero ou orientação sexual. Eles ainda podem ter impacto direto nas escolhas e nas opções oferecidas às pessoas. Como algoritmos são dependentes de dados históricos e, consequentemente, refletem crenças já presentes na sociedade, pessoas vulneráveis são mais propensas a resultados desfavoráveis, já que, geralmente, acontecimentos passados tendem a ser levados em consideração. Assim, grupos vulneráveis são aqueles que mais podem sofrer com esse tipo de discriminação.
Essas tecnologias são complexos processos de tomada de decisão, em que o mesmo algoritmo pode ser usado para o bem ou para o mal. Exemplo disso são os dados relativos ao histórico médico de um indivíduo: eles podem servir para que um paciente tenha um melhor atendimento ao dar entrada em algum serviço de emergência; ao mesmo tempo, podem ser utilizados como filtro para uma empresa que quer contratar empregados, mas não quer ter vultosos gastos com planos de saúde.
Inteligência artificial: Vieses, discriminação, injustiças, opressões, danos e riscos
É necessário romper com a falsa ideia de neutralidade que gira em torno dos sistemas automatizados. Tais sistemas, por terem seu funcionamento baseado em modelos matemáticos, podem perpetuar preconceitos, equívocos e vieses humanos, introduzidos a partir dos critérios pelos quais foram programados ou das bases de dados que os alimentam.
Um grande volume de dados pessoais, tais como preferências, comportamentos, rotinas, compras, saúde, finanças, entre outros, tem servido como matéria-prima para que esses sistemas modulem o comportamento das pessoas, atribuam-lhes perfis e influenciem, de forma pouco perceptível, decisões que afetam diretamente as suas vidas. A coleta de dados incompletos, inexatos ou genéricos podem induzir à elaboração de perfis equivocados e induzirem a decisões desastrosas, com potencial de dano em larga escala sobre a vida dos cidadãos. Contudo, a opacidade subjacente ao funcionamento desses sistemas, assegurada por leis de propriedade intelectual, por segredo industrial, além da difícil compreensão entre aqueles que não possuem conhecimento técnicos especializado, se impõe como barreira para que os resultados e decisões amparadas por esses sistemas sejam auditados, contestados e seus responsáveis devidamente notificados.
É igualmente relevante entender que a implementação de inteligências artificiais também pode ter danos que vão além dos potenciais vieses de concepção e desenvolvimento. O uso, ainda que bem-intencionado, pode causar exclusão de parcelas significativas da população. Já foram noticiados casos de filtros de inteligência artificial que excluíam pessoas com deficiência, por exemplo1. Há inúmeras instâncias em que a utilização dessas ferramentas, em ambientes em que a discriminação ou a exclusão é sistêmica, exacerba as circunstâncias sociais no que se pode chamar de “automação de desigualdades”2.
Deve-se ter em mente que diferenças de acesso e infraestrutura também impactam o uso de inteligência artificial, um problema quando se disponibiliza como política pública padrão o uso de ferramentas de inteligência artificial sendo que partes significativas da população não têm acesso à internet. Um maior número de pessoas pode ficar de fora de serviços públicos essenciais. O exemplo da Índia, em que pessoas ficaram de fora de programas sociais de acesso à alimentação básica porque não puderam comprovar a sua identidade, é ilustrativo.
Nesse sentido, toda e qualquer legislação que busque regular o tema deve enfrentar não somente a questão de discriminação, mas também de exclusão. Isso torna essencial que as propostas de normatização sejam pensadas para promover diversidade e a não discriminação dentro de três níveis: i) desde a concepção; ii) durante o processo de desenho e desenvolvimento; e iii) na implementação. A checagem para possíveis vieses, discriminação e exclusão deve ser estruturada com base em uma governança contínua, particularmente para aquelas ferramentas que tenham maior risco de impacto a direitos.
Comentários sobre o PL 21/20
a. Histórico da discussão do tema no Congresso e a discussão sobre Proteção de Dados Pessoais
No Congresso Nacional, o debate sobre Inteligência Artificial tem caminhado desproporcionalmente mais rápido do que discussões sociais fundamentais envolvendo temas relacionados à internet e a tecnologias digitais. Um exemplo dessa rapidez com que vem sendo tratado o assunto é que, enquanto o Marco Civil da Internet foi debatido por quase quatro anos antes de ser aprovado e sancionado, o PL 21/2020 pretende ser aprovado poucos meses depois de suas primeiras audiências públicas.
Outro exemplo é a Lei Geral de Proteção de Dados, que passou por um longo processo de tramitação no Congresso Nacional e também por grande debate entre os mais diversos setores da sociedade. Todo esse debate teve como objetivo garantir que a temática fosse tratada com maior profundidade, a partir da participação de múltiplos setores.
Na contramão desse histórico, o processo acelerado de discussão do Projeto de Lei sobre inteligência artificial tem dificultado a participação de múltiplos setores, onde apontaram nas audiências públicas promovidas as incongruências do PL, que pode inclusive modificar temas que já estavam consolidados na LGPD.
b. Programático e principiológico, mas sem instrumentos concretos para lidar com aspectos relevantes da tecnologia ante a possibilidade da aplicação de alguns desses sistemas colocar indivíduos em risco;
Embora os princípios e fundamentos afirmados pelo PL estejam alinhados aos avanços internacionais no debate sobre direitos humanos e IA, a ausência de parâmetros concretos de implementação, supervisão e aplicação desses ideais é alarmante. Brasileiros e brasileiras continuarão sujeitos aos impactos de sistemas opacos e por vezes discriminatórios se a regulação de IA não prever instrumentos eficazes para assegurar o exercício de direitos e estabelecer obrigações objetivas quanto à prevenção e a mitigação dos riscos dessa tecnologia. A preservação de um ambiente inovativo não deve legitimar uma abordagem permissiva frente aos elevados riscos que diversas aplicações de IA carregam para os direitos humanos, sob risco de dano aos próprios fundamentos e princípios que o PL pretende afirmar.
c. O regime de responsabilidade civil para IA
Afirmar que as “normas sobre responsabilidade de pessoas naturais ou jurídicas que desenvolvam ou operem sistemas de inteligência artificial devem se pautar na responsabilidade subjetiva” destoa frontalmente dos regimes estabelecidos no ordenamento jurídico brasileiro, tanto no Código de Defesa de Consumidor quanto na Constituição Federal.
Em relações de consumo, deve ser aplicado o Código de Defesa do Consumidor, inclusive no tocante à inversão do ônus da prova (art. 6º, inc. VIII, CDC) e à responsabilidade objetiva e solidária (arts. 12 e 14) da cadeia de fornecimento pela reparação de danos por defeitos (no caso, falta de segurança) no produto ou serviço. Mesmo em relações que não são de consumo, pode-se aplicar responsabilidade objetiva por danos causados com o uso da IA, tendo em vista a assimetria informacional e a atividade de risco, nos termos do art. 927 do Código Civil, bem como a inversão do ônus da prova (art. 373, §1º, Código de Processo Civil).
No caso do poder público, a referida regra de responsabilidade subjetiva é flagrantemente inconstitucional, uma vez que a Constituição Federal, em seu art. 37, § 6º, define expressamente que é objetiva a responsabilidade das pessoas jurídicas de direito público e as de direito privado prestadoras de serviços públicos.
d. Discriminação e não-exclusão no PL
As salvaguardas e garantias quanto à discriminação e não exclusão presentes no projeto de lei são genéricas e parecem minimizar o desafio que é busca por não-discriminação (algorítmica ou por ferramenta de inteligência artificial) e não-exclusão (ou mesmo inclusão). Países como Canadá e Reino Unido (só para citar dois) propõem uma série de elementos como transparência algorítmica e obrigações de auditoria para determinados usos de inteligência artificial, particularmente para a administração pública. Igualmente relevante é a busca por diversidade desde a concepção. No sistema europeu, por exemplo, essa é uma recomendação estrutural3. Algo que de certa forma também aparece no Brasil. O CNJ, em sua resolução sobre inteligência artificial no judiciário propõe o seguinte:
Art. 20. A composição de equipes para pesquisa, desenvolvimento e implantação das soluções computacionais que se utilizem de Inteligência Artificial será orientada pela busca da diversidade em seu mais amplo espectro, incluindo gênero, raça, etnia, cor, orientação sexual, pessoas com deficiência, geração e demais características individuais.
§ 1º A participação representativa deverá existir em todas as etapas do processo, tais como planejamento, coleta e processamento de dados, construção, verificação, validação e implementação dos modelos, tanto nas áreas técnicas como negociais4.
Isso só mostra o quanto ao debate sobre o texto proposto do PL não só pode como deve avançar no sentido de garantir a diversidade desde a concepção e salvaguardar contra a discriminação e a exclusão que o design, desenvolvimento e implementação de ferramentas de inteligência artificial podem trazer. De outra forma, a regulação não atingirá objetivos de estabelecer um ambiente positivo para ferramentas dessa natureza.
Caminhos relevantes pro debate e proposições
- Soberania digital e o colonialismo de dados
A proposta não apresenta mecanismos para disciplinar a participação do setor privado, em especial, de empresas internacionais, no provimento de sistemas de inteligência artificial para a execução de serviços públicos. Ao ofertarem tecnologias para a realização de serviços públicos e aplicá-las para ampla parcela da população, empresas passam também a produzir informações que orientam os gestores públicos a definirem prioridades e políticas que serão executadas em larga escala, com impactos sobre a vida de muitas pessoas. Não se pode ignorar que corporações e plataformas digitais lucram coletando e manipulando dados pessoais obtidos na coleta dos rastros digitais e de informações sobre o comportamento de usuários de seus serviços e produtos, extraindo valores através da lógica de big data e correlações algorítmicas sobre os dados das populações. Desse modo, discutir uma regulação sobre o uso de sistemas de inteligência artificial demanda uma consideração atenta sobre os processos que envolvem a coleta de dados e tratamento de dados por meio desses sistemas, uma vez que o seu processamento é a matéria-prima dos serviços baseados em inteligência artificial. A expansão das grandes tecnologias e de sua capacidade de extrair dados das pessoas tem garantido a consolidação do monopólio privado das grandes corporações transnacionais, levando-as a deterem mais informações e dados que o próprio Estado nacional, ampliando a influência e o poder desses atores econômicos sobre a governança pública. Portanto, é essencial que sejam reforçados na proposta legislativa os mecanismos de transparência, de prestação de contas e de responsabilização e legitimidade às suas ações.
- Direitos dos usuários
Uma legislação que possui como princípio a “centralidade do ser humano”, mas que sequer enumera quais serão os direitos dos cidadãos afetados por sistemas de IA, precisa ser debatida com mais atenção. Apesar dos inúmeros motores, princípios e fundamentos elencados no texto legislativo em análise, não há previsão de concretas garantias, direitos e deveres, e isso é um problema grave que precisa ser corrigido. A título de exemplo, o conjunto normativo brasileiro que regula o tratamento de informações (Lei Geral de Proteção de Dados, Lei de Acesso à Informação, Marco Civil da Internet e Código de Defesa do Consumidor) possui uma série de princípios e fundamentos, mas igualmente prevê salvaguardas bem definidas com o intuito de proteger os direitos fundamentais e humanos dos indivíduos.
- Interlocução com o debate de proteção de dados pessoais;
Ao ler o texto do substitutivo, em comparação com o texto original, percebe-se que foram excluídas menções importantes à Lei 13.709, de 2018 – Lei Geral de Proteção de Dados, que tem como principal objetivo proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural. Ignorá-la não é o melhor caminho a ser tomado, é imprescindível que um texto legal sobre inteligência artificial dialogue fortemente com o direito fundamental à proteção de dados pessoais. Nesse sentido, a Autoridade Nacional de Proteção de Dados (ANPD) possui importância estratégica na organização das temáticas de proteção de dados. Assim, deve ser-lhe garantida explicitamente, no mínimo, a previsão de participação em um tema tão prioritário como os sistemas de inteligência artificial.
Aqui, também lembramos que a LGPD possui instrumentos, ignorados no texto do substitutivo, que permitem a implementação de importantes mecanismos de compliance e controle das tecnologias de IA: o princípio da accountability (Art. 6o, X), o direito à revisão de decisões automatizadas (Art. 20), e a obrigação do controlador e do processador de dados em elaborar relatórios de impacto de proteção de dados em determinados contextos (Art. 38).
- Abordagem baseada em risco e possibilidade de proibição e banimento;
Embora a inteligência artificial tenha o potencial de trazer desenvolvimentos econômicos e sociais, se o PL 21/2020 não for capaz de efetivar princípios e valores éticos como equidade/não-discriminação, responsabilidade, prestação de contas e transparência, a tecnologia também pode ser promotora de desigualdades e injustiças tanto no setor econômico (ex. desestimulando a concorrência) quanto no social (ex. discriminação algorítmica). Dessa forma, é muito importante que um marco legal do desenvolvimento e uso da Inteligência Artificial também preveja a possibilidade de moratórias e banimentos no uso de uma determinada tecnologia em casos de alto e provável risco de discriminação.
Ante os motivos acima mencionados, as organizações que integram a Coalizão Direitos na Rede requerem o seguinte:
- Maior aprofundamento e discussão técnica sobre o texto legislativo, sob pena de riscos importantes para os direitos fundamentais e humanos da população brasileira, para a atuação das autoridades e para a constituição de um ecossistema de IA seguro e confiável no país.
- Ampliação e promoção do debate em torno do texto no que se refere à responsabilidade civil dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial, uma vez que a atual redação “é incompatível com a proteção constitucional, com a sistemática da responsabilidade civil já existente no ordenamento jurídico brasileiro, vai no sentido oposto do debate internacional, além de não conseguir dar conta da complexidade do tema”, conforme também defende a Comissão de Proteção de Dados e Privacidade da OAB/RJ5.
- Realização de mais audiências públicas para a garantia de um debate amplo com a sociedade.
- Realização de reunião urgente entre a sociedade civil e o autor Deputado Eduardo Bismarck, a relatora Deputada Luisa Canziani e a Frente Parlamentar Mista da Economia e Cidadania Digital (Frente Digital).
Coalizão Direitos na Rede
Brasília, 23 de setembro de 2021
1 Veja reportagem sobre a loja de roupas que vendia camisetas com dizeres “Eu sou imunocomprometido – por favor, dê-me espaço” e que teve seus anúncios retirados do ar pela ferramenta de inteligência artificial de uma plataforma por supostamente violar política contra a venda de produtos médicos: https://link.estadao.com.br/noticias/empresas,como-o-facebook-excluiu-anuncios-de-roupas-para-pessoas-com-deficiencia,70003621661.
2 Veja por exemplo: EUBANKS, V. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, London: St. Martin’s Press, 2018; BENJAMIN, R. Race after Technology: Abolitionist Tools for the New Jim Code. Cambridge: Polity Press, 2019.
3 Veja por exemplo: https://www.coe.int/en/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment.
4 Resolução Nº 332 de 21/08/2020. Dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário e dá outras providências: https://atos.cnj.jus.br/atos/detalhar/3429.
5 OAB-RJ. CPDP – Comissão de Proteção de Dados e Privacidade. Nota técnica da Comissão de Proteção de Dados e Privacidade da OAB/RJ: Substitutivo ao PL 21/2020. Disponível em: https://www.migalhas.com.br/arquivos/2021/9/2F0E0B7DA86433_NOTAIAOABRJ.pdf