CARTA ABERTA: em defesa de uma legislação brasileira de inteligência artificial que proteja direitos

12:24 | 11 de julho de 2024

Como foi informado em nosso site, nos dias 5 e 6 de julho, aconteceu a 8ª edição do Encontro Nacional de Comunicadores e Ativistas Digitais. O evento teve a participação da FASUBRA, representada pela Coordenadora de Comunicação Sindical, Lucimara da Silva da Cruz e pelo Coordenador de Estaduais e Municipais, João Daniel de Moura.

Diversos especialistas debateram os temas mais importantes da atualidade, como o fortalecimento das mídias alternativas e da comunicação pública, a relação da juventude com a comunicação, os desafios colocados pela inteligência artificial e a regulação das plataformas.

Sobre a temática referente aos desafios da inteligência artificial, houve um painel com os expositores Ana Mielke, Julie Ricard e Ergon Cugler.

Durante o evento, a Coordenadora do Coletivo Intervozes, Ana Mielke, fez a apresentação de uma CARTA ABERTA em defesa de uma legislação brasileira de inteligência artificial que proteja direitos. E a FASUBRA foi convidada a assinar o documento.

Importante ressaltar que no Senado Federal, na Comissão Temporária Interna sobre Inteligência Artificial no Brasil, há uma análise de um projeto de lei para regular a Inteligência Artificial no Brasil (PL 2.338 de 2023). Este PL seria votado nesta semana, (09/07), mas foi adiado.

Há uma disputa em torno do PL: de um lado, organizações da sociedade lutando por uma regulação que proteja direitos, por outro, empresas de vários setores e a extrema-direita tentando bloquear o PL ou descaraterizá-lo. A CARTA ABERTA, mencionada aqui, é mais um esforço de pressão sobre os senadores.

No dia 8 de julho, dia anterior em que se daria a votação do PL no Senado, a Coalizão e cerca de 30 entidades veicularam esta CARTA ABERTA, em que pedem a votação e a aprovação do PL 2338/2023. Ao longo de nove páginas, o documento destrincha uma série de aspectos. Em primeiro plano, o grupo argumenta que, a IA pode “proporcionar inúmeros benefícios à sociedade, nomeadamente na promoção dos 17 Objetivos de Desenvolvimento Sustentável (ODS) da ONU”, mas carece de normas para a sua utilização porque também traz riscos potenciais. “A IA, de um lado, já facilita algumas atividades e, de outro, também gera danos e violações concretos, ao reforçar práticas discriminatórias, excluir grupos historicamente marginalizados do acesso a bens e serviços essenciais, apoiar a desinformação, minar processos democráticos, incrementar a vigilância, exacerbar as alterações climáticas, acelerar o epistemicídio de indígenas, línguas e culturas locais, e intensificar a insegurança no emprego. Para garantir que os sistemas de IA promovam inovação baseada em direitos humanos, na ética e na responsabilidade, é fundamental estabelecer regras mínimas para salvaguardar os direitos dos indivíduos afetados, as obrigações dos agentes de IA, as medidas de governança e a definição de um quadro regulamentar de supervisão e transparência.” O segmento rebate ainda o argumento de que o PL pode prejudicar o desenvolvimento e a busca pelas práticas de inovação no país. “Pelo contrário, uma regulamentação eficaz que proteja os direitos é uma condição indispensável para o florescimento de produtos e serviços de IA responsáveis que melhorem o potencial humano e o Estado de direito democrático”, finaliza o documento.

Confira a íntegra da CARTA ABERTA:

No Brasil, é urgente uma abordagem embasada em direitos humanos para a regulamentação dos Sistemas de Inteligência Artificial.

É inegável que os sistemas de inteligência artificial (IA) podem proporcionar inúmeros benefícios à sociedade, nomeadamente na promoção dos 17 Objetivos de Desenvolvimento Sustentável (ODS) da ONU.

No entanto, a falta de regras vinculativas para regular o desenvolvimento, a implementação e a utilização da IA ​​tem um enorme potencial para exacerbar riscos conhecidos e evitáveis. A IA, de um lado,  já facilita algumas atividades e, de outro, também gera danos e violações concretos, ao reforçar práticas discriminatórias, excluir grupos historicamente marginalizados do acesso a bens e serviços essenciais, apoiar a desinformação, minar processos democráticos, incrementar a vigilância, exacerbar as alterações climáticas, acelerar o epistemicídio de indígenas e línguas e culturas locais, e intensificando a insegurança no emprego.

Para garantir que os sistemas de IA promovam inovação baseada em direitos humanos, na ética e na responsabilidade, é fundamental estabelecer regras mínimas para salvaguardar os direitos dos indivíduos afetados, as obrigações dos agentes de IA, as medidas de governança e a definição de um quadro regulamentar de supervisão e transparência. Isto não impede o desenvolvimento e a inovação; pelo contrário, uma regulamentação eficaz que proteja os direitos é uma condição indispensável para o florescimento de produtos e serviços de IA responsáveis ​​que melhorem o potencial humano e o Estado de direito democrático.

O Projeto de Lei 2338/2023, que se centra nos riscos e nos direitos, é um bom guia para a regulação da IA, tendo em conta o cenário internacional. Embora ainda haja espaço para melhorias, como mostramos a seguir, esta abordagem facilitaria o diálogo entre as legislações dos diferentes países (interoperabilidade/convergência regulatória), reduzindo o esforço das organizações para se adaptarem ao contexto brasileiro. Além disso, a regulamentação da IA ​​baseada em direitos e atenta aos seus riscos ajudaria a posicionar o Brasil como pioneiro no fornecimento e adoção de tecnologias responsáveis.

Desmascarando mitos e falsas soluções: a regulamentação como motor da inovação responsável e do desenvolvimento económico inclusivo

Os atores que se opõem à regulamentação abrangente da IA ​​no Brasil são precisamente aqueles que se beneficiam desta situação não regulamentada, criando argumentos e narrativas que não se sustentam na prática.

  1. Regulamentação vs. Inovação → Não há conflito entre regulação e inovação; ambos podem e devem coexistir, como se vê no Código Brasileiro de Defesa do Consumidor e na Lei Geral de Proteção de Dados. Além disso, a regulação dos sistemas de IA baseada em riscos/direitos permite a promoção da inovação responsável, fomentando o desenvolvimento econômico, tecnológico e social que dá prioridade ao bem-estar e à promoção dos direitos fundamentais. Nesse sentido, a Academia Brasileira de Ciências publicou um relatório sobre a regulamentação da IA, confirmando que estimular a indústria nacional de IA e proteger os direitos fundamentais são agendas perfeitamente compatíveis.
  2. “Aumento da necessidade de diálogo” → A sociedade civil tem defendido um diálogo mais inclusivo e sistemático. Contudo, aqueles que são contrários a uma regulamentação prescritiva utilizam o mesmo argumento para prejudicar e abrandar o processo legislativo. Atrasar a adoção de uma regulamentação responsável permite o desenvolvimento e a implementação contínuos de tecnologias de risco.
  3. Tecnologia desconhecida → O argumento de que a IA é inerentemente perturbadora e incontrolável para fins regulatórios não se sustenta porque (a) os estudos sobre o tema, tanto na academia quanto no setor privado, acumulam oito décadas de experimentação e análise de impactos sociais; (b) Os agentes de IA, especialmente os desenvolvedores, têm agência na tomada de decisões sobre a concepção, desenvolvimento e implementação de tecnologia, incluindo a opção de não implementá-la se mecanismos de transparência, controle de qualidade e responsabilidade são considerados inadequados.

Além de argumentos e narrativas falaciosas, há uma forte mobilização dos setores produtivos e das empresas de tecnologia para impedir a votação do Projeto de Lei, seja por meio da imposição de uma enxurrada de emendas de última hora, de pedidos de audiências públicas, ou de lobby direto junto aos parlamentares. O lobby da indústria é enorme, incluindo  viagens internacionais e eventos privados organizados por big techs para os senadores mais envolvidos no debate.

Após um lobby bem-sucedido para adiar a votação do projeto, uma nova rodada de audiências públicas foi convocada. O primeiro pedido de indicação de nomes para as audiências incluía apenas indivíduos do setor privado, composto basicamente por homens brancos do sudeste do país, desconsiderando outros setores, especialmente a sociedade civil, bem como marcadores sociais de raça, gênero e território. Coube à sociedade civil lutar pela inclusão de alguns dos seus representantes.

Nestas últimas audiências, representantes do setor privado insistiram no argumento (falacioso) de que a regulamentação da IA ​​no Brasil impediria a inovação no país, sendo um custo enorme para startups e pequenas e médias empresas, em favor da inovação a qualquer custo (inclusive em detrimento de direitos fundamentais básicos) – posição esta que desconsidera o capítulo específico sobre estímulo à inovação e ao crescimento dessas empresas, inclusive com obrigações mais brandas e proporcionais. Houve também a utilização de argumentos sem base lógica ou jurídica relacionados à censura, como a comparação da avaliação preliminar dos sistemas de IA (cujo objetivo é apenas verificar o grau de risco de um determinado sistema de IA) com uma potencial censura prévia dos desenvolvedores.

Com a aproximação da votação do projeto pela CTIA (que já foi impedida pelo lobby privado em mais de um momento), observou-se a intensificação da utilização das redes, especialmente a plataforma X, para disseminação de conteúdo inverídico sobre o PL 2338, classificando-o como “PL da censura” e associando a classificação de risco ou medidas de governança à estratégias políticas do governo. Esta estratégia de relacionar projetos de lei que conferem obrigações legítimas de governança à plataformas com  censura já foi observado em outros momentos, como no curso do processo legislativo do PL 2630/2020.

Cenário Regulatório Brasileiro: Junho–Julho de 2024

Como trabalho final da Comissão Temporária de Inteligência Artificial (CTIA) do Senado Federal, foi publicado em 7 de junho de 2024 um relatório contendo uma nova proposta de Projeto de Lei 2338, que foi novamente atualizado em 18 de junho e 4 de julho de 2024. É importante destacar que esta última proposta inclui elementos considerados essencial para a adequada regulamentação dos sistemas de IA no Brasil, a saber:

  • Garante direitos básicos para indivíduos potencialmente afetados pela IA;
  • Define usos inaceitáveis ​​de IA, que representam riscos significativos para direitos fundamentais;
  • Cria orientações gerais e obrigações de governança, com requisitos específicos para sistemas de alto risco e para o setor público;
  • Mantém avaliações de impacto algorítmico para identificar e mitigar riscos, bem como avaliar oportunidades;
  • Dá especial atenção ao contexto brasileiro de racismo estrutural, incorporando ao longo do texto medidas para prevenir e combater diferentes formas de racismo discriminação direta e indireta, bem como para proteger grupos vulneráveis;
  • Estabelece um quadro de supervisão onde a autoridade competente trabalha em conjunto com os reguladores setoriais.

Além disso, gostaríamos de destacar melhorias importantes que foram acrescentadas ao texto original do Projeto de Lei 2.338 pela última proposta:

  • Proibição explícita de sistemas de armas autônomas;
  • Criação de medidas de governança específicas para IA de uso geral e generativa, o que é fundamental porque tais sistemas podem não se enquadrar perfeitamente nas categorizações de nível de risco;
  • Acrescenta a participação social nos processos de governança;
  • Definição do regime de responsabilidade civil para operadoras, fornecedores e distribuidores de sistemas de inteligência artificial conforme previsto no Código de Defesa do Consumidor (responsabilidade objetiva) para as relações de consumo e no Código Civil para os demais casos. Ao mesmo tempo, garante também o dever de inversão do ônus da prova em caso de vulnerabilidade; falta de compreensão e recursos da vítima; ou quando as características do sistema de IA tornam excessivamente oneroso para a vítima provar os requisitos de responsabilidade civil;
  • Designação direta da Autoridade Brasileira de Proteção de Dados como autoridade competente para harmonizar o sistema de supervisão, em colaboração com outros intervenientes.

Apesar dos avanços descritos acima, a última versão mantém ou agrava questões críticas que contradizem o objetivo central de regulamentar a IA para proteger direitos e prever inovação responsável. 

O que pode ser feito para melhorar a regulamentação brasileira?

→ Sistemas de IA de risco excessivo

Inicialmente,  é importante destacar que os usos proibidos de sistemas de IA não devem estar vinculados à intenção do agente. Assim, a expressão ‘com o propósito de’ para os usos proibidos (art. 13, I) deve ser excluída para abranger todas as tecnologias nocivas e seus efeitos, independentemente da verificação da intenção dos agentes de IA em serem propositalmente prejudiciais ou não.

Além disso, as proibições também não poderiam estar ligadas à causalidade, como ocorre com a expressão “de maneira que cause danos”. Assim, é necessário alterar o art. 13, I (a) e (b), para excluir o nexo de causalidade de “de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros” para as proibições de técnicas para induzir comportamentos e explorar vulnerabilidades.

Além disso, o uso de tecnologias de reconhecimento facial para segurança pública e justiça criminal devem ser banidas, considerando que estas são áreas altamente sensíveis devido ao potencial de restringir direitos fundamentais, como a liberdade de expressão e de reunião, além de reverter a presunção de inocência. Esses usos também acabam por reafirmar o potencial discriminatório destas tecnologias, que muitas vezes conduzem a erros – conhecidos como falsos positivos – levando a situações inaceitáveis, como a prisão injusta de homem em Sergipe, o tratamento agressivo de um jovem após uma identificação equivocada em Salvador, e a prisão injusta de uma mulher no Rio de Janeiro. Casos como esses são graves e recorrentes.

A vigilância constante, massiva e indiscriminada constitui uma violação dos direitos e liberdades das pessoas e limita o espaço cívico e público. O que se sabe sobre os sistemas de reconhecimento facial é que eles são ineficientes e geram custos desnecessários para a administração pública devido às suas altas taxas de erro. Um estudo recente indicou um custo médio para recursos públicos de 440 mil reais por cada prisão realizada por meio de reconhecimento facial. Além da sua ineficiência, tais sistemas têm sido consistentemente denunciados pelo seu impacto discriminatório, afetando desproporcionalmente as populações negras e, em maior medida, as mulheres.

Consideramos a autorização para uso de sistemas de reconhecimento facial como uma violação dos direitos fundamentais garantidos ao povo brasileiro. Além disso, a forma como a sua utilização é permitida, sem salvaguardas e proteções específicas, dada a natureza destes sistemas, agrava problemas já reconhecidos. Igualmente preocupante é a falta de legislação específica de proteção de dados para atividades de segurança pública.

→ Sistemas de IA de alto risco

Além disso, há necessidade de mudança nas disposições da categoria de alto risco, principalmente no que diz respeito (a) à avaliação da capacidade de endividamento e ao estabelecimento de pontuações de crédito e (b) usos prejudiciais da IA. 

  1. Avaliação da capacidade de endividamento e estabelecimento de pontuações de crédito 

pontuação de crédito é uma ferramenta utilizada por bancos e instituições financeiras para avaliar se um indivíduo é um tomador confiável com base no seu risco de inadimplência, por exemplo, ao tomar decisões sobre o acesso ao crédito nessas instituições.

O acesso ao crédito financeiro é fundamental como pré-requisito para o exercício de uma série de direitos garantidos constitucionalmente, o que sublinha a importância de salvaguardas robustas na pontuação de crédito definida pela IA. Isto é especialmente crucial devido ao seu comprovado potencial de discriminação, como evidenciado pela investigação, incluindo estudos realizados no contexto brasileiro.  É importante notar que, além da importância crítica do crédito como pré-requisito para o acesso a bens e serviços essenciais, como cuidados de saúde e habitação, os modelos de crédito são alimentados com uma grande quantidade de dados pessoais, o que por si só exige uma maior proteção de segurança. 

Considerar esta aplicação na classificação de alto risco é consistente com outras regulamentações internacionais, como o Regulamento Europeu sobre Inteligência Artificial, o AI act.

  1. Usos prejudiciais da IA

O Artigo 14, IX, X e XI elenca usos da IA ​​que comprovadamente têm mais efeitos negativos do que positivos e são contrários ao direito internacional. Estes referem-se a  estudo analítico de crimes envolvendo pessoas físicas para identificação de padrões e perfis comportamentais; avaliar a credibilidade das evidências; policiamento preditivo; e reconhecimento de emoções.

Isto ocorre principalmente porque tais usos estão associados ao tecnossolucionismo e às teorias lombrosianas, o que reforçaria a discriminação estrutural e a violência histórica contra determinados grupos da sociedade, particularmente a população negra.

Em 2016, ProPublica publicou um estudo mostrando como um sistema de IA usado para gerar um pontuação preditiva da probabilidade de um indivíduo cometer crimes futuros mostrou resultados tendenciosos baseados em raça e gênero que não correspondiam à realidade dos indivíduos que efetivamente cometeram ou reincidiram. Assim, a subseção X do Artigo 14 permitiria potencialmente que a IA fosse usada de maneira semelhante para “prever a ocorrência ou recorrência de um crime real ou potencial com base no perfil de indivíduos”, o que não foi comprovado cientificamente e, pelo contrário, demonstrou aumentar potencialmente as práticas discriminatórias. 

A Subseção XI, sobre identificação e autenticação biométrica para reconhecimento de emoções, também é preocupante, pois não há consenso científico na capacidade de identificar emoções com base apenas em expressões faciais, o que levou, por exemplo, a Microsoft a descontinuar o uso de ferramentas de IA para tais fins.

Nesse sentido, consideramos a necessidade de classificar os usos previstos no artigo 14,  IX, X e XI como riscos inaceitáveis.

→ Participação da sociedade civil no sistema de governança e supervisão

A versão atual do projeto de lei melhorou a definição do sistema de fiscalização. O texto agora propõe a criação do Sistema Nacional de IA (SIA), composto pela autoridade competente, apontada como a Autoridade Nacional de Proteção de Dados (ANPD), autoridades setoriais, o novo Conselho Regulador Cooperação em IA (CRIA) e o Comitê de Peritos e Cientistas em IA (CECIA). 

Considerado um importante avanço, o Conselho de Cooperação Regulatória, que servirá como fórum permanente de colaboração, inclui agora a participação da sociedade civil. No entanto, é importante garantir que esta participação seja significativa, garantindo à sociedade civil um papel ativo e eficaz na governança e regulamentação de IA.

→ Outras modificações 

Com o lobby das big techs e indústria, como mencionado anteriormente, houve o enxugamento de importantes obrigações de governança de sistemas de IA, especialmente ligados à transparência, além da redução de direitos de pessoas potencialmente afetadas. Por isso, para que a regulação se mantenha coerente na sua função primordial de proteção de direitos fundamentais (especialmente de grupos vulneráveis), combater discriminações e garantir processos de desenvolvimento, uso e implantação de sistemas mais responsáveis, é essencial a volta dos artigos 6º, 8º e 17 da versão do projeto de lei publicada no dia 18 de junho de 2024.

Pela aprovação do Projeto de Lei 2338/2023 com inclusão das melhorias

Com tudo dito, as entidades subscritoras manifestam apoio ao avanço do processo legislativo do Projeto de Lei 2338/2023 na Comissão de IA (CTIA) e no plenário do Senado rumo à sua aprovação, desde que as seguintes melhorias sejam feitas:

  1. Alteração do artigo 13, I, para excluir a expressão “com o propósito de” para os usos proibidos, para abranger todas as tecnologias prejudiciais e seus efeitos, independentemente da verificação da intenção dos agentes de IA em serem propositalmente prejudiciais ou não;
  2. Alteração do Artigo 13, I (a) e (b) para excluir o nexo causal de “de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros” para as proibições de uso de técnicas que induzam comportamentos e de exploração de vulnerabilidades;
  3. Alteração do Artigo 13, VII para excluir as exceções ao uso de dados biométricos de identificação por sistemas remotamente, em tempo real e em espaços acessíveis ao público, portanto proibindo o uso destes sistemas para a segurança pública e a persecução penal. Ou, no mínimo, pedimos um moratória que autorize usos nas exceções listadas somente após aprovação de lei federal que especifique as finalidades de uso e garanta o cumprimento de medidas de salvaguarda suficientes (pelo menos aquelas garantidas para sistemas de IA de alto risco);
  4. Retorno do pontuação de crédito ou outros sistemas de IA destinados a serem usados ​​para avaliar a qualidade de crédito de pessoas físicas para o alto risco listada no artigo 14.º, com a possibilidade de criar uma exceção para sistemas de IA utilizados para detectar fraudes financeiras;
  5. A mudança de classificações dos sistemas mencionados no Artigo 14, IX, X e XI para a categoria de riscos inaceitáveis; 
  6. Garantir a participação da sociedade civil no Sistema Nacional de Governança e Regulação de Inteligência Artificial (SIA), por meio da composição do Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA), é eficaz e significativo;
  7. A volta dos artigos 6º, 8º e 17 da versão do projeto de lei publicada no dia 18 de junho de 2024.

Se você quiser aderir a esta carta em defesa (crítica) do PL 2338/2023 e pela clara necessidade de regulação protetiva de direitos fundamentais no Brasil, preencha o formulário abaixo.

Categorizados em: