Andamento e calendário da Comissão Temporária Interna sobre Inteligência Artificial no Brasil – CTIA

A Coalizão Direitos na Rede (CDR), que há anos colabora com o Congresso Nacional na construção de um Marco Legal da Inteligência Artificial no Brasil que promova a inovação responsável – desde as discussões do PL 21/2020 na Câmara dos Deputados, passando pelas audiências e contribuições públicas na Comissão de Juristas (CJSUBIA) e nos atuais processos no âmbito do PL 2338 no Senado Federal, por meio desta, solicita a retomada dos trabalhos junto à Comissão Temporária de IA (CTIA).  

Consideramos que as entidades integrantes da Coalizão, em especial aquelas engajadas no grupo de trabalho sobre Inteligência Artificial (GT-IA), podem contribuir de maneira significativa com a consolidação do texto legislativo que pretende regular o desenvolvimento e uso da IA no país, já que contamos com especialistas, pesquisadoras e pesquisadores, diversos e multidisciplinares, altamente qualificados sobre o tema.

Assim, para continuar somando esforços junto à CTIA, levando em consideração a urgência da regulação da IA em um ano marcado por eleições, manifestamos interesse para dialogar com esta Casa e esta Comissão para contribuir na construção de um marco legal que seja representativo, promotor de direitos e que abarque de maneira uniforme princípios e diretrizes para a Inteligência Artificial no Brasil.

Por fim, através da presente, também (i) encaminhamos algumas reflexões sobre as propostas de emenda apresentadas pelos Senhores Senadores Marcos Pontes e Carlos Viana em dezembro de 2023; e (ii) solicitamos uma reunião com a presidência da CTIA sobre a agenda de trabalho da Comissão para 2024 e formas de colaboração.

REFLEXÕES SOBRE AS PROPOSTAS DE EMENDAS DOS SENADORES MARCOS PONTES E CARLOS VIANA [1] e [2]

  1. Proposta de 27/11/2023 – Sen. Astronauta Marcos Pontes

Apesar de a proposta trazer aspectos importantes ao fomento do desenvolvimento e uso da IA, há diversas preocupações que devem ser discutidas e revistas, tais como:

  • Não prevê hipóteses de riscos excessivos ou inaceitáveis – o que é essencial para a proteção de direitos fundamentais, democracia e o Estado Democrático de Direito;
  • Não considera a preservação de patrimônios materiais e imateriais;
  • Não determina condições nem procedimentos mínimos necessários para garantia da transparência, explicabilidade, inteligibilidade e auditabilidade em sistemas de inteligência artificial;
  • Exclui a garantia expressa de direito à contestação e revisão de decisões automatizadas de sistemas de IA, inclusive revisão humana;
  • Exclui procedimentos para a condução de avaliação de impacto algorítmico, instrumento previsto no PL 2338/2023 para boa governança, a transparência algorítmica e prestação de contas;
  • Considera responsabilidade civil e penal sob a mesma lógica, propondo que a responsabilidade por danos, civis ou penais, advindos do uso de sistemas de IA, seja direcionada conforme o risco (baixo, médio ou alto), variando entre a imputação exclusiva ao operador ou usuário e ao desenvolvedor, o que pode representar incongruência com nossas regras já existentes de responsabilidade;
  • Indica a criação do Conselho Nacional sobre Inteligência Artificial (CNIA), a ser coordenado pela autoridade competente, para orientar e supervisionar o desenvolvimento e aplicação da IA no Brasil, o que seria muito positivo. Porém, sua composição inclui representantes do Governo Federal, agências reguladoras, iniciativa privada e academia, mas exclui a sociedade civil;
  • Em comparação ao modelo que temos hoje no texto original do PL 2338, o texto proposto, com base em tabela anexa de probabilidade e impacto, tornaria a futura legislação sujeita ao decurso do tempo, tornando-se logo obsoleta frente aos avanços tecnológicos, o que é indesejável tanto para proteção de direitos fundamentais como para o estímulo à inovação;
    • Para definição da probabilidade, há criação de uma definição limitada de conceitos, como “qualidade do conjunto de dados”. Ao definir o conceito como “representação completa, sem tendências ou distorções do fenômeno” ignora que a maior parte dos conjuntos de dados produzidos sobre pessoas possui um hiato entre representação e realidade de fato, devido a limitações institucionais e estruturais, gerando distorções do fenômeno. Um exemplo pode ser ligado a dados ligados ao sistema penal. Pesquisas sobre políticas de segurança pública já demonstram que alguns tipos penais são sobrerepresentados enquanto outros são subrepresentados. Considerando o histórico de violações de direitos humanos mapeados quanto à implementação de sistemas de IA considerados de alto risco ou risco inaceitável, essa abordagem seria uma simplificação inadequada da abordagem de risco.
  • É recomendável, como faz o texto proposto, a determinação de que haverá uma eventual autoridade competente por orientar e supervisionar o desenvolvimento e aplicação da IA no país, mas é fundamental que ela leve em conta a participação social múltipla em especial da sociedade civil que represente a sociedade, o que falta na proposta do Senador;
  • Considerando o potencial da IA em todas áreas de conhecimento, recomenda-se rever a noção de quais áreas são relevantes para o tema. A ausência de pastas como Cultura, Igualdade Racial e Direitos Humanos faz-se sentida, devido tanto ao potencial econômico da indústria criativa nacional quanto ao risco que a IA pode gerar a direitos, emprego e acirramento das desigualdades.
  1. Proposta de 12/12/2023 – Sen. Carlos Viana

A proposta do Sen. Carlos Viana não apresenta um novo texto substitutivo, mas traz pedidos de alteração ao texto original do PL 2338/2023. Nossas críticas em relação às sugestões são:

  • Ao propor a supressão do art. 18 do PL 2338/2023, que prevê a possibilidade de a autoridade competente atualizar a lista dos sistemas de inteligência artificial de risco excessivo ou de alto risco, ao contrário do que é argumentado na justificativa, sua ausência prejudica a segurança jurídica, já que o dispositivo permite que os potenciais afetados por sistemas de IA tenham a garantia de que a legislação irá acompanhar o caráter veloz de aprimoramento e desenvolvimento da inovação tecnológica. Desta forma, caso haja supressão do art. 18,  é possível que o futuro marco legal para sistemas de IA no Brasil fique rapidamente obsoleto, não sendo adaptável à dinamicidade da evolução das capacidades de sistemas de IA, a exemplo do que ocorreu com a criação das IAs de propósito geral ou generativas;
  • As modificações sugeridas ao art. 17 do PL 2338/2023 também são inadequadas, pois retiram proteção a direitos fundamentais, especialmente de grupos e indivíduos vulneráveis: (i) ao alterar o inciso que trata de sistemas biométricos de identificação, sugerindo que somente sejam considerados de alto risco (e não de risco excessivo) quando utilizados pelo Poder Público para investigação criminal e segurança pública, o texto proposto vai em direção oposta a diferentes estudos que afirmam o caráter discriminatório desta tecnologia, que acaba por reforçar discriminações estruturais; (ii) a sugestão de supressão total do inciso V que trata da  avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito também é inadequada, por diferentes motivos, mas, especialmente em razão da essencialidade do crédito como condição de acesso a serviços e bens essenciais, como saúde, além do histórico de vazamento de dados pela multidimensionalidade de dados de input nos modelos de crédito e os riscos derivados.

Após trazidas nossas considerações acerca das propostas de texto substitutivo ao PL 2338/2023,  agradecemos a atenção e reforçamos o pedido de realização da reunião junto à assessoria da CTIA, assim como o retorno a este ofício. 

Print Friendly, PDF & Email