CARTA ABERTA: Defendendo uma legislação brasileira de IA que proteja direitos

Assine a nossa Carta aberta

Acesse a versão em espanhol aqui!
English version here!

Brasília, 8 de Julho de 2024

No Brasil, é urgente uma abordagem embasada em direitos humanos para a regulamentação dos Sistemas de Inteligência Artificial.

É inegável que os sistemas de inteligência artificial (IA) podem proporcionar inúmeros benefícios à sociedade, nomeadamente na promoção dos 17 Objetivos de Desenvolvimento Sustentável (ODS) da ONU.

No entanto, a falta de regras vinculativas para regular o desenvolvimento, a implementação e a utilização da IA ​​tem um enorme potencial para exacerbar riscos conhecidos e evitáveis. A IA, de um lado,  já facilita algumas atividades e, de outro, também gera danos e violações concretos, ao reforçar práticas discriminatórias, excluir grupos historicamente marginalizados do acesso a bens e serviços essenciais, apoiar a desinformação, minar processos democráticos, incrementar a vigilância, exacerbar as alterações climáticas, acelerar o epistemicídio de indígenas e línguas e culturas locais, e intensificando a insegurança no emprego.

Para garantir que os sistemas de IA promovam inovação baseada em direitos humanos, na ética e na responsabilidade, é fundamental estabelecer regras mínimas para salvaguardar os direitos dos indivíduos afetados, as obrigações dos agentes de IA, as medidas de governança e a definição de um quadro regulamentar de supervisão e transparência. Isto não impede o desenvolvimento e a inovação; pelo contrário, uma regulamentação eficaz que proteja os direitos é uma condição indispensável para o florescimento de produtos e serviços de IA responsáveis ​​que melhorem o potencial humano e o Estado de direito democrático.

O Projeto de Lei 2338/2023, que se centra nos riscos e nos direitos, é um bom guia para a regulação da IA, tendo em conta o cenário internacional. Embora ainda haja espaço para melhorias, como mostramos a seguir, esta abordagem facilitaria o diálogo entre as legislações dos diferentes países (interoperabilidade/convergência regulatória), reduzindo o esforço das organizações para se adaptarem ao contexto brasileiro. Além disso, a regulamentação da IA ​​baseada em direitos e atenta aos seus riscos ajudaria a posicionar o Brasil como pioneiro no fornecimento e adoção de tecnologias responsáveis.

Desmascarando mitos e falsas soluções: a regulamentação como motor da inovação responsável e do desenvolvimento económico inclusivo

Os atores que se opõem à regulamentação abrangente da IA ​​no Brasil são precisamente aqueles que se beneficiam desta situação não regulamentada, criando argumentos e narrativas que não se sustentam na prática.

  1. Regulamentação vs. Inovação → Não há conflito entre regulação e inovação; ambos podem e devem coexistir, como se vê no Código Brasileiro de Defesa do Consumidor e na Lei Geral de Proteção de Dados. Além disso, a regulação dos sistemas de IA baseada em riscos/direitos permite a promoção da inovação responsável, fomentando o desenvolvimento econômico, tecnológico e social que dá prioridade ao bem-estar e à promoção dos direitos fundamentais. Nesse sentido, a Academia Brasileira de Ciências publicou um relatório sobre a regulamentação da IA, confirmando que estimular a indústria nacional de IA e proteger os direitos fundamentais são agendas perfeitamente compatíveis.
  2. “Aumento da necessidade de diálogo” → A sociedade civil tem defendido um diálogo mais inclusivo e sistemático. Contudo, aqueles que são contrários a uma regulamentação prescritiva utilizam o mesmo argumento para prejudicar e abrandar o processo legislativo. Atrasar a adoção de uma regulamentação responsável permite o desenvolvimento e a implementação contínuos de tecnologias de risco.
  3. Tecnologia desconhecida → O argumento de que a IA é inerentemente perturbadora e incontrolável para fins regulatórios não se sustenta porque (a) os estudos sobre o tema, tanto na academia quanto no setor privado, acumulam oito décadas de experimentação e análise de impactos sociais; (b) Os agentes de IA, especialmente os desenvolvedores, têm agência na tomada de decisões sobre a concepção, desenvolvimento e implementação de tecnologia, incluindo a opção de não implementá-la se mecanismos de transparência, controle de qualidade e responsabilidade são considerados inadequados.

Além de argumentos e narrativas falaciosas, há uma forte mobilização dos setores produtivos e das empresas de tecnologia para impedir a votação do Projeto de Lei, seja por meio da imposição de uma enxurrada de emendas de última hora, de pedidos de audiências públicas, ou de lobby direto junto aos parlamentares. O lobby da indústria é enorme, incluindo  viagens internacionais e eventos privados organizados por big techs para os senadores mais envolvidos no debate.

Após um lobby bem-sucedido para adiar a votação do projeto, uma nova rodada de audiências públicas foi convocada. O primeiro pedido de indicação de nomes para as audiências incluía apenas indivíduos do setor privado, composto basicamente por homens brancos do sudeste do país, desconsiderando outros setores, especialmente a sociedade civil, bem como marcadores sociais de raça, gênero e território. Coube à sociedade civil lutar pela inclusão de alguns dos seus representantes.

Nestas últimas audiências, representantes do setor privado insistiram no argumento (falacioso) de que a regulamentação da IA ​​no Brasil impediria a inovação no país, sendo um custo enorme para startups e pequenas e médias empresas, em favor da inovação a qualquer custo (inclusive em detrimento de direitos fundamentais básicos) – posição esta que desconsidera o capítulo específico sobre estímulo à inovação e ao crescimento dessas empresas, inclusive com obrigações mais brandas e proporcionais. Houve também a utilização de argumentos sem base lógica ou jurídica relacionados à censura, como a comparação da avaliação preliminar dos sistemas de IA (cujo objetivo é apenas verificar o grau de risco de um determinado sistema de IA) com uma potencial censura prévia dos desenvolvedores.

Com a aproximação da votação do projeto pela CTIA (que já foi impedida pelo lobby privado em mais de um momento), observou-se a intensificação da utilização das redes, especialmente a plataforma X, para disseminação de conteúdo inverídico sobre o PL 2338, classificando-o como “PL da censura” e associando a classificação de risco ou medidas de governança à estratégias políticas do governo. Esta estratégia de relacionar projetos de lei que conferem obrigações legítimas de governança à plataformas com  censura já foi observado em outros momentos, como no curso do processo legislativo do PL 2630/2020.

Cenário Regulatório Brasileiro: Junho–Julho de 2024

Como trabalho final da Comissão Temporária de Inteligência Artificial (CTIA) do Senado Federal, foi publicado em 7 de junho de 2024 um relatório contendo uma nova proposta de Projeto de Lei 2338, que foi novamente atualizado em 18 de junho e 4 de julho de 2024. É importante destacar que esta última proposta inclui elementos considerados essencial para a adequada regulamentação dos sistemas de IA no Brasil, a saber:

  • Garante direitos básicos para indivíduos potencialmente afetados pela IA;
  • Define usos inaceitáveis ​​de IA, que representam riscos significativos para direitos fundamentais;
  • Cria orientações gerais e obrigações de governança, com requisitos específicos para sistemas de alto risco e para o setor público;
  • Mantém avaliações de impacto algorítmico para identificar e mitigar riscos, bem como avaliar oportunidades;
  • Dá especial atenção ao contexto brasileiro de racismo estrutural, incorporando ao longo do texto medidas para prevenir e combater diferentes formas de racismo discriminação direta e indireta, bem como para proteger grupos vulneráveis;
  • Estabelece um quadro de supervisão onde a autoridade competente trabalha em conjunto com os reguladores setoriais.

Além disso, gostaríamos de destacar melhorias importantes que foram acrescentadas ao texto original do Projeto de Lei 2.338 pela última proposta:

  • Proibição explícita de sistemas de armas autônomas;
  • Criação de medidas de governança específicas para IA de uso geral e generativa, o que é fundamental porque tais sistemas podem não se enquadrar perfeitamente nas categorizações de nível de risco;
  • Acrescenta a participação social nos processos de governança;
  • Definição do regime de responsabilidade civil para operadoras, fornecedores e distribuidores de sistemas de inteligência artificial conforme previsto no Código de Defesa do Consumidor (responsabilidade objetiva) para as relações de consumo e no Código Civil para os demais casos. Ao mesmo tempo, garante também o dever de inversão do ônus da prova em caso de vulnerabilidade; falta de compreensão e recursos da vítima; ou quando as características do sistema de IA tornam excessivamente oneroso para a vítima provar os requisitos de responsabilidade civil;
  • Designação direta da Autoridade Brasileira de Proteção de Dados como autoridade competente para harmonizar o sistema de supervisão, em colaboração com outros intervenientes.

Apesar dos avanços descritos acima, a última versão mantém ou agrava questões críticas que contradizem o objetivo central de regulamentar a IA para proteger direitos e prever inovação responsável. 

O que pode ser feito para melhorar a regulamentação brasileira?

Sistemas de IA de risco excessivo

Inicialmente,  é importante destacar que os usos proibidos de sistemas de IA não devem estar vinculados à intenção do agente. Assim, a expressão ‘com o propósito de’ para os usos proibidos (art. 13, I) deve ser excluída para abranger todas as tecnologias nocivas e seus efeitos, independentemente da verificação da intenção dos agentes de IA em serem propositalmente prejudiciais ou não.

Além disso, as proibições também não poderiam estar ligadas à causalidade, como ocorre com a expressão “de maneira que cause danos”. Assim, é necessário alterar o art. 13, I (a) e (b), para excluir o nexo de causalidade de “de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros” para as proibições de técnicas para induzir comportamentos e explorar vulnerabilidades.

Além disso, o uso de tecnologias de reconhecimento facial para segurança pública e justiça criminal devem ser banidas, considerando que estas são áreas altamente sensíveis devido ao potencial de restringir direitos fundamentais, como a liberdade de expressão e de reunião, além de reverter a presunção de inocência. Esses usos também acabam por reafirmar o potencial discriminatório destas tecnologias, que muitas vezes conduzem a erros – conhecidos como falsos positivos – levando a situações inaceitáveis, como a prisão injusta de homem em Sergipe, o tratamento agressivo de um jovem após uma identificação equivocada em Salvador, e a prisão injusta de uma mulher no Rio de Janeiro. Casos como esses são graves e recorrentes.

A vigilância constante, massiva e indiscriminada constitui uma violação dos direitos e liberdades das pessoas e limita o espaço cívico e público. O que se sabe sobre os sistemas de reconhecimento facial é que eles são ineficientes e geram custos desnecessários para a administração pública devido às suas altas taxas de erro. Um estudo recente indicou um custo médio para recursos públicos de 440 mil reais por cada prisão realizada por meio de reconhecimento facial. Além da sua ineficiência, tais sistemas têm sido consistentemente denunciados pelo seu impacto discriminatório, afetando desproporcionalmente as populações negras e, em maior medida, as mulheres.

Consideramos a autorização para uso de sistemas de reconhecimento facial como uma violação dos direitos fundamentais garantidos ao povo brasileiro. Além disso, a forma como a sua utilização é permitida, sem salvaguardas e proteções específicas, dada a natureza destes sistemas, agrava problemas já reconhecidos. Igualmente preocupante é a falta de legislação específica de proteção de dados para atividades de segurança pública.

Sistemas de IA de alto risco

Além disso, há necessidade de mudança nas disposições da categoria de alto risco, principalmente no que diz respeito (a) à avaliação da capacidade de endividamento e ao estabelecimento de pontuações de crédito e (b) usos prejudiciais da IA. 

  1. Avaliação da capacidade de endividamento e estabelecimento de pontuações de crédito 

A pontuação de crédito é uma ferramenta utilizada por bancos e instituições financeiras para avaliar se um indivíduo é um tomador confiável com base no seu risco de inadimplência, por exemplo, ao tomar decisões sobre o acesso ao crédito nessas instituições.

O acesso ao crédito financeiro é fundamental como pré-requisito para o exercício de uma série de direitos garantidos constitucionalmente, o que sublinha a importância de salvaguardas robustas na pontuação de crédito definida pela IA. Isto é especialmente crucial devido ao seu comprovado potencial de discriminação, como evidenciado pela investigação, incluindo estudos realizados no contexto brasileiro.  É importante notar que, além da importância crítica do crédito como pré-requisito para o acesso a bens e serviços essenciais, como cuidados de saúde e habitação, os modelos de crédito são alimentados com uma grande quantidade de dados pessoais, o que por si só exige uma maior proteção de segurança. 

Considerar esta aplicação na classificação de alto risco é consistente com outras regulamentações internacionais, como o Regulamento Europeu sobre Inteligência Artificial, o AI act.

  1. Usos prejudiciais da IA

O Artigo 14, IX, X e XI elenca usos da IA ​​que comprovadamente têm mais efeitos negativos do que positivos e são contrários ao direito internacional. Estes referem-se a  estudo analítico de crimes envolvendo pessoas físicas para identificação de padrões e perfis comportamentais; avaliar a credibilidade das evidências; policiamento preditivo; e reconhecimento de emoções.

Isto ocorre principalmente porque tais usos estão associados ao tecnossolucionismo e às teorias lombrosianas, o que reforçaria a discriminação estrutural e a violência histórica contra determinados grupos da sociedade, particularmente a população negra.

Em 2016, ProPublica publicou um estudo mostrando como um sistema de IA usado para gerar um pontuação preditiva da probabilidade de um indivíduo cometer crimes futuros mostrou resultados tendenciosos baseados em raça e gênero que não correspondiam à realidade dos indivíduos que efetivamente cometeram ou reincidiram. Assim, a subseção X do Artigo 14 permitiria potencialmente que a IA fosse usada de maneira semelhante para “prever a ocorrência ou recorrência de um crime real ou potencial com base no perfil de indivíduos”, o que não foi comprovado cientificamente e, pelo contrário, demonstrou aumentar potencialmente as práticas discriminatórias. 

A Subseção XI, sobre identificação e autenticação biométrica para reconhecimento de emoções, também é preocupante, pois não há consenso científico na capacidade de identificar emoções com base apenas em expressões faciais, o que levou, por exemplo, a Microsoft a descontinuar o uso de ferramentas de IA para tais fins.

Nesse sentido, consideramos a necessidade de classificar os usos previstos no artigo 14,  IX, X e XI como riscos inaceitáveis.

Participação da sociedade civil no sistema de governança e supervisão

A versão atual do projeto de lei melhorou a definição do sistema de fiscalização. O texto agora propõe a criação do Sistema Nacional de IA (SIA), composto pela autoridade competente, apontada como a Autoridade Nacional de Proteção de Dados (ANPD), autoridades setoriais, o novo Conselho Regulador Cooperação em IA (CRIA) e o Comitê de Peritos e Cientistas em IA (CECIA). 

Considerado um importante avanço, o Conselho de Cooperação Regulatória, que servirá como fórum permanente de colaboração, inclui agora a participação da sociedade civil. No entanto, é importante garantir que esta participação seja significativa, garantindo à sociedade civil um papel ativo e eficaz na governança e regulamentação de IA.

Outras modificações 

Com o lobby das big techs e indústria, como mencionado anteriormente, houve o enxugamento de importantes obrigações de governança de sistemas de IA, especialmente ligados à transparência, além da redução de direitos de pessoas potencialmente afetadas. Por isso, para que a regulação se mantenha coerente na sua função primordial de proteção de direitos fundamentais (especialmente de grupos vulneráveis), combater discriminações e garantir processos de desenvolvimento, uso e implantação de sistemas mais responsáveis, é essencial a volta dos artigos 6º, 8º e 17 da versão do projeto de lei publicada no dia 18 de junho de 2024.

Pela aprovação do Projeto de Lei 2338/2023 com inclusão das melhorias

Com tudo dito, as entidades subscritoras manifestam apoio ao avanço do processo legislativo do Projeto de Lei 2338/2023 na Comissão de IA (CTIA) e no plenário do Senado rumo à sua aprovação, desde que as seguintes melhorias sejam feitas:

  1. Alteração do artigo 13, I, para excluir a expressão “com o propósito de” para os usos proibidos, para abranger todas as tecnologias prejudiciais e seus efeitos, independentemente da verificação da intenção dos agentes de IA em serem propositalmente prejudiciais ou não;
  2. Alteração do Artigo 13, I (a) e (b) para excluir o nexo causal de “de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros” para as proibições de uso de técnicas que induzam comportamentos e de exploração de vulnerabilidades;
  3. Alteração do Artigo 13, VII para excluir as exceções ao uso de dados biométricos de identificação por sistemas remotamente, em tempo real e em espaços acessíveis ao público, portanto proibindo o uso destes sistemas para a segurança pública e a persecução penal. Ou, no mínimo, pedimos um moratória que autorize usos nas exceções listadas somente após aprovação de lei federal que especifique as finalidades de uso e garanta o cumprimento de medidas de salvaguarda suficientes (pelo menos aquelas garantidas para sistemas de IA de alto risco);
  4. Retorno do pontuação de crédito ou outros sistemas de IA destinados a serem usados ​​para avaliar a qualidade de crédito de pessoas físicas para o alto risco listada no artigo 14.º, com a possibilidade de criar uma exceção para sistemas de IA utilizados para detectar fraudes financeiras;
  5. A mudança de classificações dos sistemas mencionados no Artigo 14, IX, X e XI para a categoria de riscos inaceitáveis; 
  6. Garantir a participação da sociedade civil no Sistema Nacional de Governança e Regulação de Inteligência Artificial (SIA), por meio da composição do Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA), é eficaz e significativo;
  7. A volta dos artigos 6º, 8º e 17 da versão do projeto de lei publicada no dia 18 de junho de 2024.

Se você quiser aderir a esta carta em defesa (crítica) do PL 2338/2023 e pela clara necessidade de regulação protetiva de direitos fundamentais no Brasil, preencha o formulário abaixo.

Organizações que assinam esta carta:

  1. ABRA – Associação Brasileira de Autores Roteiristas
  2. Access Now
  3. AFROYA TECH HUB
  4. Amarc Brasil
  5. ANTE- Articulação Nacional das Trabalhadoras e dos Trabalhadores em Eventos
  6. AQC – ESP
  7. Assimetrias/UFJF
  8. Associação Brasileira de Imprensa
  9. BlackPapers
  10. Câmara dos Deputados- Liderança do PT
  11. Câmara Municipal do Recife
  12. Centro de Direitos Humanos de Jaraguá do Sul – SC
  13. Centro de Estudos de Segurança e Cidadania (CESeC)
  14. Centro de Pesquisa em Comunicação e Trabalho
  15. Coalizão Direitos na Rede
  16. Coding Rights
  17. Coletivo artistico – Guilda dos Quadrinhos
  18. Complexos – Advocacy de Favelas
  19. data_labe
  20. Data Privacy Brasil
  21. Digital Action
  22. DiraCom – Direito à Comunicação e Democracia
  23. FaleRio- Frente Ampla pela Liberdade de Expressão do Rio de Janeiro
  24. Fizencadeando
  25. FNDC – Fórum Nacional pela Democratização da Comunicação
  26. FONSANPOTMA SP
  27. Fotógrafas e Fotógrafos pela Democracia
  28. FURG
  29. GNet (Grupo de Estudos Internacionais em Propriedade Intelectual, Internet & Inovação)
  30. Grupo de Pesquisa Economia Política da Comunicação da PUC-Rio/CNPq
  31. Grupo de Pesquisa e Estudos das Poéticas do Codiano – EPCO/UEMG
  32. Idec – Instituto de Defesa de Consumidores 
  33. IFSertãoPE – Campus Salgueiro
  34. Iniciativa Direito a Memória e Justiça Racial
  35. INSTITUTO AARON Swartz
  36. Instituto Bem Estar Brasil
  37. Instituto Lidas
  38. Instituto Minas Programam
  39. Instituto de Pesquisa em Internet e Sociedade (IRIS)
  40. Instituto Sumaúma
  41. Instituto Soma Brasil
  42. Instituto Telecom
  43. IP.rec – Instituto de pesquisa em direito e tecnologia do Recife 
  44. Intervozes – Coletivo Brasil de Comunicação Social 
  45. Irmandade SIOBÁ/Ba
  46. Laboratório de Políticas Públicas e Internet – LAPIN
  47. MediaLab.UFRJ
  48. Movimento Dublagem Viva
  49. MST
  50. Niutechnology
  51. OBSCOM-UFS (Observatório de Economia e Comunicação da Universidade Federal de Sergipe)
  52. Open Knowledge Brasil
  53. PAVIC – Pesquisadores de Audiovisual, Iconografia e Conteúdo
  54. Rebrip – Rede Brasileira pela Integração dos Povos
  55. Rede Justiça Criminal
  56. Rede LAVITS
  57. SATED- SÃO PAULO
  58. sintespb
  59. Transparência Brasil
  60. Voz da Terra
  61. UFRN
  62. ULEPICC-Brasil (União Latina de Economia Política da Informação, da Comunicação e da Cultura, Capítulo Brasil)
  63. UNIDAD

Indivíduos que assinam esta carta:

  1. Admirosn Medeiros Ferro Júnior
  2. Alê Capone
  3. Aliete Silva Mendes
  4. Alvaro Bastoni Junior
  5. Ana Carolina Sousa Dias
  6. Ana Gretel Echazú Böschemeier, PhD
  7. Andreza Rocha
  8. Angela Couto
  9. Aurora Violeta
  10. Bianca Soares Monteiro
  11. Breno Augusto Silva de Moura
  12. Camila Silva Lima
  13. César Ricardo Siqueira Bolaño
  14. César Saraiva Lafetá Júnior
  15. Delmo de Oliveira Torres Arguelhes
  16. Diego Rabatone Oliveira
  17. Dirce Zan
  18. Emanuella Ribeiro
  19. Erika Gushiken
  20. Flávia da Silva Fernandes
  21. Fran Raposo
  22. Francisco S Costa
  23. Fransergio Goulart
  24. Frido Claudino
  25. Giovanna Mara de Aguiar Borges
  26. Haydée Svab
  27. Huan Pablo da Silva dos Santos
  28. Inaê Batistoni
  29. Ivan Moraes
  30. Jane Caraça Schneider
  31. Janaina Souto Barros
  32. Janaina VIsibeli Barros
  33. Jolúzia Batista
  34. Jonas Cardoso Borges
  35. José Eduardo De Lucca
  36. José Maria Rodrigues Nunes
  37. Juliana Vieira
  38. Lais Azeredo Rodrigues
  39. Larissa de Medeiros
  40. Larissa Vieira
  41. Lauro Accioly
  42. León Fenzl
  43. Livia Maria Santos Silva
  44. Louise Karczeski
  45. Luciano Félix Ferreira
  46. Luis Gonçalves
  47. Luís Gustavo de Souza Azevedo
  48. Luiza Vieira
  49. Luli Hata
  50. Maíra Vilela Francisco
  51. Marcelo Rodrigues Saldanha da Silva
  52. Marcelo de Freitas Rigon
  53. Maria José Braga
  54. Mariana Alves Araújo Lopes
  55. Mateus Mendes
  56. Melissa Cipriano Vanini Tupinambá
  57. Mônica Martins
  58. Mônica Zarattini
  59. Naiara Lopes
  60. Nilo Sergio Silva Gomes
  61. Olga Teixeira de Almeida
  62. Ogan Valdo Lumumba
  63. Paula Guedes Fernandes da Silva
  64. Paulo Rená da Silva Santarém
  65. Pedro Silva Neto
  66. Poema Portela
  67. Raíssa Trevisan
  68. Raquel de Moraes Alfonsin
  69. Ricardo Calmona Souza
  70. Rodrigo da Silva Guerra
  71. Rosana Moreira da Rocha
  72. Samuel Consentino de Medeiros
  73. Sérgio Luiz Homrich dos Santos
  74. Taís Oliveira
  75. Tânia Regina Homrich dos Santos
  76. Terezinha de Fátima dos Santos
  77. Thamires Orefice
  78. Vera Lucia Freitas
  79. Victor Sousa Barros Marcial e Fraga
  80. Wagner Moreira Da Silva
  81. Wallace de Oliveira de Souza
  82. Ydara de Almeida, Advogada

Assine a nossa Carta Aberta:

Assinaturas de Organizações:

Assinaturas de Indivíduos: