Regular para promover uma IA responsável e protetiva de direitos: alertas sobre retrocessos, ameaças e garantias de direitos no PL nº 2.338/23

Nota de posição de organizações da sociedade civil

ASSINE A NOTA AQUI

29 de novembro de 2024

A aprovação do Projeto de Lei nº 2338/23 (PL 2338/23) na Comissão Temporária sobre Inteligência Artificial (CTIA) e no Plenário do Senado Federal é urgente. Mas retrocessos e novas ameaças ao texto podem tornar a lei inócua e limitada a poucos tipos de sistemas de IA. 

Foi apresentado na CTIA, no dia 28 de novembro, um novo relatório para o PL 2338/23, com a expectativa de que o projeto seja votado na Comissão no próximo dia 03 e no Plenário do Senado ainda em dezembro. Diante deste cenário, os signatários abaixo listados vêm pontuar que o texto do dia 28 é o mínimo necessário e, ainda, alertar para os riscos de retrocessos, ameaças e insuficiências no texto, indicando caminhos para seu aprimoramento. 

É essencial que os sistemas de inteligência artificial sejam regulados para promover uma IA responsável, que proteja direitos e mitigue riscos à sociedade e a grupos minorizados. O PL 2338/23 traz dispositivos muito importantes que nos colocam em diálogo internacional do ponto de vista regulatório e tecnológico, como o estabelecimento de uma regulação baseada em riscos (com hipóteses exemplificativas de risco excessivo e alto) e correspondentes obrigações e medidas de governança; a instituição de direitos a pessoas afetadas pela tecnologia; a garantia de compromisso de tolerância zero contra IAs que criem ou disseminem conteúdo de abuso e exploração sexual infantojuvenil; a responsabilização dos agentes da cadeia; e a criação de uma estrutura fiscalizatória. 

Todavia, os avanços podem ser seriamente comprometidos diante de recuos e ameaças ao texto. Entre os retrocessos, a última versão do relator Eduardo Gomes (PL-TO) abre exceções e flexibilizações à aplicação da Lei que podem fazer com que esta se torne inócua ou extremamente limitada, podendo ser aplicada apenas a um pequeno grupo de sistemas de IA. O novo relatório, em seu art. 1°, §1°, usa redações genéricas dos sistemas que não estariam sujeitos às obrigações da Lei, reduzindo significativamente o alcance das medidas listadas no projeto de lei. 

Outra involução estrutural no novo texto (art. 12) foi tornar opcionais e não mais obrigatórias as avaliações preliminares para atribuição do grau de risco antes de um sistema entrar no mercado ou ser disponibilizado como serviço. As medidas de governança de sistemas de alto risco também foram flexibilizadas, como a adoção de medidas de mitigação e prevenção de vieses discriminatórios somente quando o risco à discriminação decorrer da aplicação do sistema de IA. Medidas de governança precisam ser obrigatórias, de acordo com o grau de risco.

A versão de 28 de novembro também trouxe retrocessos significativos em relação à participação social, tanto nos processos de prestação de contas dos agentes de IA como nas avaliações de impacto (art. 25, §8º) e no próprio funcionamento do Sistema Nacional de Governança e Regulação de IA (SIA). Para garantir sistemas de IA responsáveis e protetivos de direitos, é essencial o escrutínio público dos regulados e dos reguladores, por meio de participação pública.

Um retrocesso grave também foi notado no artigo sobre proteção aos trabalhadores. Foram retirados quatro incisos que tratam de temas fundamentais. Especialmente, foram excluídas regras que garantiam a “supervisão humana em decisões automatizadas de punições disciplinares e dispensa” e coibiam a “demissão em massa ou substituição extensiva da força de trabalho”. As mudanças acabam com mecanismos fundamentais para proteger trabalhadores dos efeitos negativos da introdução de sistemas de IA.

Um ponto central mantido pelo relatório do Senador Eduardo Gomes, mas que vem sendo objeto de ameaças diante dos fortes questionamentos por parte de empresas de tecnologia, plataformas digitais e de associações da indústria, é a possibilidade de atualização dos sistemas de alto risco, atualmente prevista, acertadamente, em  hipóteses  exemplificativas (art. 14 e 15). Esta possibilidade é fundamental para que a lei não nasça desatualizada, considerando o dinamismo do setor de IA. A explosão da IA generativa em menos de dois anos é apenas um dos exemplos de como este setor evolui rapidamente. Se a lista de sistemas de alto risco for taxativa e restrita àquela elencada hoje no texto, a sociedade brasileira ficará refém de riscos postos por quaisquer novos sistemas de IA não contemplados ali. A legislação precisa ser viva.

Outra ameaça diz respeito às regras sobre sistemas de IA utilizados por plataformas digitais para curadoria, difusão, recomendação e distribuição de conteúdos. Atualmente, estes modelos algorítmicos estão classificados como de alto risco, justamente pelo reconhecido impacto que podem ter sobre o comportamento humano, sobre o debate público e para a democracia, o que é importante para que as plataformas sejam obrigadas a adotar medidas de governança mais rígidas, especialmente ligadas à transparência e mitigação de riscos de violação de direitos. O inciso XIII do art. 14 precisa ser mantido

Na mira do lobby empresarial estão também as regras para assegurar a proteção e compensação de titulares de direitos autorais cujos conteúdos são utilizados no treinamento de sistemas de IA. É fundamental manter os artigos que tratam dos conteúdos protegidos por direitos autorais e conexos, garantindo que os titulares desses direitos tenham conhecimento dos usos de suas obras para o treinamento de sistemas de inteligência artificial, por meio da transparência dos conteúdos utilizados, e também possam restringir este uso e tenham direito à expressa remuneração adequada por eventuais usos de suas obras. 

Ainda, há uma vontade de flexibilização do compromisso irrestrito contra IAs que facilitem a circulação e produção de material de abuso e exploração sexual de crianças e adolescentes, atualmente consideradas como de risco excessivo (art. 13, inciso IV), buscando retroceder no texto e proibir, apenas, as ferramentas criadas com este propósito. A alteração significaria grande retrocesso, pois quaisquer ferramentas de geração de imagens por IA, para estarem disponíveis no mercado, devem contar com salvaguardas para impedir a produção de material abusivo por quaisquer usuários. 

Para que o Projeto de Lei 2338/23 garanta a proteção de direitos e o estímulo à uma inovação de IA responsável, as organizações signatárias desta nota defendem os seguintes pontos:

Manutenções necessáriasPontos de melhoria
Rol de alto risco e risco excessivo como exemplificativos com a definição de critérios e procedimentos de atualização (art. 15)Redução das exceções ao escopo de aplicação (art. 1º, §1º).
Rol de direitos (Capítulo II)Direito à revisão como aplicável a todo sistema de IA (art. 6º, III)
Sistemas de curadoria e recomendação de conteúdo no rol de alto risco (Art. 14, inciso XIII)Avaliação preliminar como obrigatória (art. 12)
Remuneração por uso de conteúdos protegidos por direitos autorais (Capítulo X, Seção IV)Desvinculação das alíneas do inciso I do art. 13 a um propósito (art. 13, I)
Medidas de governança obrigatórias (Capítulo IV)Definir contornos precisos quanto ao risco relevante à integridade das pessoas (art. 14, VIII) e em relação ao conjunto de dados que podem ser acessados para identificação de padrões e perfis comportamentais (art. 14, IX)
Garantia de participação social nas avaliações de impacto e no SIA (arts. 25, §8º) e de consulta pública prévia a normas infralegais (art. 49, versão anterior)
Aumento das garantias trabalhistas (art. 58)
Retomada dos direitos de informação prévia e de determinação e participação humana (art. 5º, incisos I e III).

Para novas assinaturas, institucionais e individuais, acesse AQUI.

SIGNATÁRIOS:

Coalizão Direitos na Rede (CDR) 

Associação de Jornalismo Digital (AJOR) 

Data Privacy Brasil

Fórum Nacional pela Democratização da Comunicação (FNDC)

Repórteres Sem Fronteiras (RSF)

União Democrática dos Artistas Digitais (UNIDAD)

Laboratório de Políticas Públicas e Internet – LAPIN

Laboratório de Políticas de Comunicação da UnB 

Instituto Nupef

Intervozes – Coletivo Brasil de Comunicação Social

IP.rec – Instituto de Pesquisa em Direito e Tecnologia do Recife

Idec – Instituto de Defesa de Consumidores

Alexandre Boava – Integrante do Núcleo de Tecnologia do MTST e do CNPD

Instituto de Referência em Internet e Sociedade – IRIS

Sleeping Giants Brasil

Helena Martins – Professora da UFC, editora da Revista Eptic, integrante do DiraCom – Direito à Comunicação e Democracia 

FAOR Fórum da Amazônia Oriental 

Aláfia Lab

Conectas Direitos Humanos

Centro de Estudos de Segurança e Cidadania – CESeC

Campanha Nacional pelo Direito à Educaç ão

Instituto Telecom  

Iniciativa Direito a Memória e Justiça Racial

Complexos – Advocacy de Favelas

Creative Commons Brasil

Instituto de Defesa do Direito de Defesa – IDDD

DiraCom – Direito à Comunicação e Democracia

Central Única dos Trabalhadores – CUT Brasil

Agenda Pública 

Pão com Ovo-mídia ativista e Independente 

Preto – diretor de comunicação (CPERS Sindicato RS)

Transparência Eleitoral Brasil

Coletivo Digital

Comitê em Defesa da Democracia e do Estado Democrático de Direito

Prof Dra Gabrielle Bezerra Sales Sarlet ( GDIA- PPGD PUC-RS ) 

Cristianne Ly – Garotas do Motion®

Bianca Berti – Transparência Brasil

Ana Carolina Lima – Aqualtune Lab – Instituto de Estudos sobre Tecnologias e Direito

Roberta Viegas

Edson Prestes

Ana Carolina Sousa Dias – LAPIN