NOTA TÉCNICA sobre a proposta de novo texto do Marco Legal da IA

Em 6 de dezembro de 2022, a Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial (IA) no Brasil (CJSUBIA), criada pelo Presidente do Senado Federal, Rodrigo Pacheco, publicou parecer em que apresenta proposta de novo texto ao Projeto de Lei n. 21/2020, também chamado de Marco Legal da Inteligência Artificial. 

O texto original do projeto, de iniciativa da Câmara dos Deputados, apresentava disposições meramente principiológicas e foi aprovado em regime de urgência por esta Casa antes de chegar ao Senado. Seu conteúdo foi amplamente criticado por diversos setores da sociedade, inclusive pela Coalizão Direitos na Rede, pela falta de aplicabilidade prática e por fragilizar direitos previstos em outras leis. 

De modo a endereçar essas questões, a Presidência do Senado criou uma Comissão de Juristas para propor um substitutivo ao texto. O relatório dessa Comissão resume os principais elementos apresentados em uma série de audiências públicas com representantes do setor privado, governo, academia e sociedade civil, e apresenta nova redação ao PL. 

O novo texto é um avanço em relação à redação anterior. Ainda que necessite de melhorias que serão brevemente descritas ao longo deste texto, as disposições que traz são mais consistentes e próximas de balancear, por um lado, a proteção de direitos durante o ciclo de vida de sistemas de inteligência artificial, e, por outro, a capacidade de inovação tecnológica de forma responsável. Nesta nota, apresentamos alguns de seus pontos positivos e negativos, ao mesmo tempo em que reconhecemos que o novo texto, e não o original do PL 21/2020, deve ser a base para futuras discussões a respeito da regulação de IA no Brasil. É fundamental, a partir de agora, que a nova redação seja amplamente divulgada e profundamente debatida com a sociedade por meio de um debate participativo e plural.

NO QUE O NOVO TEXTO AVANÇA

O novo texto contribui ao concretizar a noção de que uma mera carta de princípios, que não só não regula, mas na realidade impede a regulação de sistemas de IA no Brasil, não é suficiente para endereçar esse tema. Isso é indispensável face aos desafios postos por tecnologias com impactos sociais tão significativos quanto sistemas de IA para concessão de benefícios sociais que discriminam imigrantes, que apresentam de forma personalizada conteúdo desinformativo, ou que, por meio do reconhecimento facial, identificam indivíduos que podem vir a ser presos.

Nesse sentido, o novo projeto avança ao buscar a conciliação entre uma abordagem baseada em riscos e uma modelagem regulatória baseada em direitos, elencando proposições de gestão de risco e de avaliação de impacto, além de princípios relevantes para uma adequada compreensão e desenvolvimento da inteligência artificial. 

A inserção de disposições específicas sobre a avaliação de impacto algorítmico, assim como a necessidade de análise e acompanhamento, é um ponto positivo. Ela propõe que entidades que desenvolvam e apliquem esses sistemas busquem antever possíveis efeitos negativos para as populações que serão afetadas por determinada tecnologia de inteligência artificial.

O texto também avança ao superar normativamente a ideia de neutralidade dessas tecnologias pela retirada do princípio de busca pela neutralidade e inserção de disposições específicas sobre discriminação, inclusive indireta, o que é um ponto positivo para desmistificar a ideia de que sistemas de IA são neutros ou que não podem reproduzir vieses discriminatórios.

É salutar, ainda, a adição do artigo 42 sobre direitos autorais e mineração de textos e dados. O dispositivo atende às obrigações dos tratados internacionais vigentes e alinha o Brasil aos ordenamentos com melhor equilíbrio no sistema de direitos intelectuais, inclusive para fins de estímulo do desenvolvimento tecnológico. Apesar de ser legítimo o argumento em defesa de  por permissões mais amplas para privilegiar o desenvolvimento de IAs, é também elogiável o cuidado com objeções razoáveis dos titulares de direitos, principalmente por meio da parte final do caput do artigo 42, seus incisos e o primeiro parágrafo.

A nova redação também avança ao apresentar obrigações para ampliação da transparência e capacidade de contestação desses sistemas, ao expressar a necessidade de fornecimento de informações e apresentação de explicações de forma acessível a potenciais afetados por tecnologias baseadas em inteligência artificial.

As obrigações criadas ao poder público, que incluem mecanismos de consulta popular antes do uso de sistemas de IA, bem como de disposições de transparência específicas, também são positivas em relação às propostas do texto inicial.

Do ponto de vista institucional, também é adequada a criação de mecanismos de governança interna às empresas e de uma autoridade federal que faça o controle conjunto com as agências setoriais para garantir a efetivação da lei, ainda que seu funcionamento seja passível de aprimoramento, como será descrito à frente.

NO QUE O NOVO TEXTO DEVE SER APRIMORADO

Talvez a mais chamativa falha do novo texto é a que envolve o uso de sistemas de identificação biométrica. Por um lado, é um avanço haver em seu escopo uma obrigação de que o uso desses sistemas, o que inclui reconhecimento facial, deve ser precedido de lei federal sobre o tema. 

No entanto, a ausência de uma proibição geral de aplicações de reconhecimento facial, em especial para fins de segurança pública, mostra que o novo PL vai na contramão de campanhas a nível nacional (como a Tire Meu Rosto da Sua Mira) e internacional (como a Reclaim your Face), que pedem pelo banimento do uso dessa ferramenta para esse fim. Todas se baseiam nas inúmeras pesquisas que demonstram a imensa capacidade de automatização, por essas tecnologias, do racismo estrutural e da seletividade do sistema penal no Brasil. 

No que tange à gradação de riscos apresentada, embora de modo geral seja um ponto positivo, a nova redação do projeto utiliza apenas termos que recomendam que determinados sistemas sejam evitados ou utilizados com maior cautela, sem prever proibições específicas. Isso pode abrir margem para o desenvolvimento e adoção de tecnologias perigosas à integridade física de indivíduos ou ao exercício de direitos, sem elementos jurídicos suficientes para sua proibição. Isso se torna ainda mais grave quando se trata de sistemas para policiamento preditivo, prisões em flagrante, armas letais e reconhecimento de emoções. 

Apesar disso, é positivo o artigo 18, que prevê critérios para que a autoridade competente atualize a lista de sistemas de excessivo ou alto risco, apesar de que, mais uma vez, a ausência no texto de previsão de proibições é gritante e extremamente problemática.

Também não há no projeto de lei qualquer proposta expressa de reparação a vítimas reconhecidas de sistemas de inteligência artificial. A obrigação de reparação integral de danos causados é mencionada ao longo do texto, mas não são especificadas formas de fazê-la e que podem ir além da mera compensação monetária. Documentos da ONU apontam que o direito à reparação passa também por outras esferas, como, por exemplo, a garantia de não recorrência daquela determinada violência. 

Outros pontos que merecem atenção são a independência da autoridade competente para a fiscalização e a participação multissetorial no panorama regulatório – questões que precisam de robustez suficiente para assegurar uma participação democrática na governança dessas tecnologias. 

Já no que tange ao regime de responsabilidade civil, ao estabelecer a categoria subjetiva para danos causados por esses sistemas como regra geral, sendo a modalidade objetiva relegada apenas aos sistemas de alto ou excessivo risco, é necessário avaliar de que forma o novo texto não cairá no mesmo comando da redação predecessora do PL 21/2020. Como já havíamos expressado em notas anteriores, esse tipo de configuração dificulta que indivíduos sejam reparados por impactos negativos sofridos a partir do uso de sistemas de IA, o que cria barreira expressiva ao acesso à justiça. 

No que tange a mecanismos de transparência, é negativo que o caput do artigo 7º restrinja o exercício do direito à informação a casos em que o próprio indivíduo contrata ou utiliza determinado sistema. Com isso, deixa de fora inúmeros casos nos quais indivíduos são sujeitos, de forma passiva, aos resultados da aplicação desses sistemas, como ocorre com sistemas de reconhecimento facial utilizados em espaços públicos ou na avaliação do perfil de crédito de uma pessoa por um banco. Em ambos os casos, não é a pessoa que contrata ou utiliza o serviço, mas mesmo assim é diretamente impactada por seu uso. Falta no dispositivo, portanto, menção a casos em que o sujeito é impactado por esses sistemas, de forma similar ao que diz o §2º do mesmo artigo ao referir-se a sistemas biométricos. 

A definição das responsabilidades em termos de transparência também é vaga no texto, na medida que propõe disposições que incidam simultaneamente sobre o uso de IA pelo poder público e pelo setor privado. Destacamos que nos casos de desenvolvimento, aquisição e emprego de IA pelo poder público, é essencial que a transparência esteja embasada na Lei de Acesso a Informação, que um rol de informações mínimas seja garantido em transparência ativa e não somente ao usuário ou “pessoa diretamente afetada” mediante requisição, como o artigo 7º propõe. 

Cabe destacar a necessidade de inclusão no texto de instrumentos legais que garantam a transparência sobre os sistemas de IA como um todo, especialmente quando empregados pelo poder público. Isso engloba a abertura das bases de dados utilizadas para treinamento e validação, com anonimização quando necessária; a transparência dos códigos dos algoritmos desenvolvidos ou contratados, que no caso do poder público devem ser prioritariamente soluções de código aberto; e a transparência sobre os processos de aquisição ou desenvolvimento e seus responsáveis. Para casos que envolvam a contratação de sistemas protegidos por sigilo comercial, o poder público deve informar pelo menos as variáveis de entrada e saída do modelo, bem como o tipo de algoritmo utilizado, e promover auditorias periódicas sobre eles com especialistas externos ao órgão responsável, publicando o relatório resultante em transparência ativa.

Ademais, sugere-se a inclusão de definições mais precisas a respeito de qual a diferença entre fornecimento de informações e explicações, bem como mecanismos para que especialistas independentes, de fora da estrutura estatal, e entidades da sociedade civil também possam realizar auditorias e requisitar informações para defender interesses coletivos. É o que já propõe, por exemplo, o Digital Services Act, norma aprovada pela União Europeia que prevê a participação desses atores na investigação de sistemas de IA utilizados por grandes plataformas digitais.

Chama atenção ainda a falta de obrigações específicas para realização de auditorias desses sistemas, aspecto que é mencionado de forma vaga no artigo 3º, VI, enquanto princípio, mas que não é melhor descrito ao longo do texto. Pouco vale a existência de mecanismos de aumento de transparência ao indivíduo – o que pode lhe gerar uma sobrecarga informacional a depender do caso – se não há a possibilidade de o poder público ou especialistas independentes auditarem o sistema para avaliar se as informações prestadas por quem controla o sistema de IA não puderem ter sua veracidade comprovada de forma autônoma. 

Sobre o tema definições e conceitos é de se notar que a estrutura construída na discussão sobre discriminação direta e indireta pode e deve ser aprimorada, para dialogar com as normas internacionais sobre o tema. No mesmo tema, em vista da boa aplicabilidade futura, é preciso revisitar as ideias postas de fornecimento e agentes – o texto apresentado ignora um dos pontos chave que é a responsabilidade (ou não) da pessoa física desenvolvedora de sistemas de inteligência artificial. Ainda, nessa seara, há incompatibilidade com o artigo que aponta conceitos de trabalho da legislação e o uso indevido de sinônimos imperfeitos ao longo do texto. 

Por fim, no que tange à autoridade competente, faltam mecanismos de maior participação de especialistas independentes e da sociedade civil nas políticas regulatórias a serem realizadas pelo futuro regulador. A ausência de menção a esses entes em um dispositivo como o artigo 34, por exemplo, pode impedir que esses atores contribuam com novas descobertas científicas aos trabalhos da autoridade. É fundamental, portanto, mecanismos de participação similares ao que propõe, por exemplo, a Lei Geral de Proteção de Dados Pessoais, com a previsão de audiências públicas antes da elaboração de regulamentos e a criação de um Conselho multissetorial sobre o tema. 

PRÓXIMOS PASSOS

Como afirmado anteriormente, o novo texto apresentado pela Comissão de Juristas é um avanço importante para a proteção de direitos face à redação aprovada na Câmara dos Deputados no PL 21/2020. É ele que deve ser tomado como base para futuros debates, e não a redação anterior.

Entretanto, é fundamental que, consideradas as lacunas, imprecisões e precariedades apontadas ao longo deste texto, seja agora dado lugar a um extenso debate com a sociedade para aprimoramento de seu conteúdo, inclusive por meio da chamada de novas audiências públicas para diálogo com parlamentares. É através deste debate amplo que teremos uma legislação adequada e conforme as boas práticas legislativas já construídas nas experiências do Marco Civil da Internet e da Lei Geral de Proteção de Dados Pessoais.

Nesse sentido, reforçamos a postura de que é possível sim garantir o desenvolvimento tecnológico no campo da inteligência artificial no Brasil de uma forma que ao mesmo tempo impeça abusos e proteja direitos. É fundamental que não sigamos com a falácia de que regulação impede inovação. Pelo contrário, é por meio deste debate regulatório que a sociedade brasileira tem uma grande oportunidade de fazer valer um avanço tecnológico sustentável, ético e que respeite suas particularidades históricas e culturais.

Brasília, 19 de Dezembro de 2022

Coalizão Direitos na Rede