Brasília – O Projeto de Lei que pretende regulamentar o uso da inteligência artificial (IA) no Brasil ainda não foi à votação no plenário do Senado, mas já conseguiu um feito raro em tempos de extremismos e polarização partidária. Depois de uma série de ajustes feitos nos últimos meses, o PL 2.338/2023, também chamado de Marco Legal da IA, dá sinais de que chegou a uma versão capaz de passar pelo crivo de todo espectro político.

O texto tem apoio e origem em uma proposta do presidente do Senado, Rodrigo Pacheco, do PSD, uma legenda de centro. A relatoria está nas mãos do senador Eduardo Gomes (PL-TO), partido de direita puxado por Jair Bolsonaro e Valdemar Costa Neto. O governo Lula e o PT também saem em defesa da proposta, com o Ministério das Comunicações atuando para que o projeto, finalmente, avance no Congresso.

O relator do projeto de lei, senador Eduardo Gomes (PL-TO), disse ao NeoFeed que acredita na possibilidade de o texto ser votado pela comissão especial até a primeira quinzena de setembro, mas que sua ida ao plenário deverá ficar para depois das eleições municipais de outubro.

“O texto melhorou muito. Conseguimos condensar o debate e as propostas. A retomada do tema neste começo de setembro será de melhor qualidade. Então, estou otimista, para avançar em alguns consensos”, afirmou Gomes. “O ambiente está bem mais favorável, porque houve mais tempo de discussão e entendimento interno. Se não votarmos em plenário antes das eleições, acredito que podemos definir isso nos próximos dois meses.”

A proposta que está na mesa da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) é um texto substitutivo, que passou a integrar propostas contidas em outros sete projetos de lei que tramitam na casa, para regular o uso de IA no Brasil. O que se pretende é estabelecer um quadro legal abrangente sobre o uso e o desenvolvimento de IA no país.

Entre os líderes partidários, há o entendimento de que uma das principais polêmicas do assunto está bem encaminhada: a definição do órgão que vai coordenar o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Essa missão ficará com a Autoridade Nacional de Proteção de Dados (ANPD), uma autarquia vinculada ao Ministério da Justiça.

Com autonomia técnica e decisória, além de patrimônio próprio, a ANPD já responde hoje pela fiscalização e cumprimento da Lei Geral de Proteção de Dados (LGPD) no país. Pelo projeto, esse mesmo tipo de atribuição passará a ser aplicado sobre o novo sistema de regulação da IA.

Abaixo da ANDP ficarão os órgãos setoriais, como as agências reguladoras de cada setor econômico do país e demais órgãos reguladores. Na prática, cada um desses órgãos terá, em uma área tecnológica, uma divisão interna capacitada em recursos de IA, para fazerem uma ponte com o órgão centralizador, a ANPD.

“Definitivamente, o texto que temos hoje em análise já é resultado de várias críticas construtivas e resolve um grande desafio, uma das grandes questões que foram debatidas de um ano para cá, que era decidir como regular a inteligência artificial de forma concentrada, se ela é transversal. Não fazia sentido você ter uma maneira somente centralizada de fazer isso”, diz Bruno Bioni, diretor do Data Privacy Brasil e sócio fundador da Bioni Consultoria.

De acordo com ele, haverá uma maneira híbrida de fazer a fiscalização das regras do jogo, com uma autoridade que será coordenadora desse sistema, mas que dará espaço e prioridade para as agências setoriais regularem seus respectivos setores, como uma Anvisa na Saúde; o Banco Central no setor financeiro, e assim por diante.

Se a coordenação da regulação está bem encaminhada, ainda há questionamentos sobre como essas regras serão aplicadas, sobre quem e com qual intensidade.

Para definir que será alvo das regulações, o projeto estabelece diferentes “graus de risco” atrelados ao uso dos sistemas de inteligência artificial. A ideia é que, quanto mais sensíveis sejam os dados manipulados, mais exigências sejam impostas às empresas que usam e administram esses sistemas. É aqui que mora o receio das big techs, que temem algum tipo de controle sobre os recursos que colocam no mercado.

Pelas regras, qualquer desenvolvedor de sistemas de inteligência artificial terá que realizar uma avaliação preliminar sobre sua tecnologia, etapa que determinará seu grau de risco. Um novo programa que automatize a identificação de spams enviados por e-mail, por exemplo, é considerado de “baixo risco” ao usuário. Isso significa que seu desenvolvedor terá um volume menor de imposições regulatórias.

Por outro lado, um sistema desenhado para fazer a triagem automática de milhares de beneficiários de um serviço, por exemplo, como a concessão de crédito ou emprego, seja na esfera pública ou privada, é considerado de “alto risco”, uma vez que pode conter regras que prejudiquem determinadas pessoas, sem oferecer transparência nos filtros que são aplicados.

Seja qual for o grau de risco, o texto prevê que os provedores de inteligência artificial terão de manter registro e documentação de todas as aplicações preliminares nos últimos cinco anos, para eventual responsabilização e prestação de contas.

O texto proíbe o uso de sistemas de “risco excessivo”, como aquelas que permitam avaliar, classificar ou ranquear pessoas com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação, para o acesso a bens e serviços e políticas públicas.

“O que a gente percebe é que tem bastante desinformação sobre o próprio texto, querendo atribuir que haveria algum espaço para censura ou algo do tipo. Pelo contrário. O texto não vai regular a tecnologia ou o algoritmo, mas a aplicação da inteligência artificial. Eu espero que, enfim, isso permita que essas narrativas possam ser desmontadas”, diz Bruno Bioni.

O governo federal apoia o projeto de lei. Ao NeoFeed, Samara Castro, diretora do Departamento de Promoção da Liberdade de Expressão da Secretaria de Comunicação do governo Lula, avalia que o projeto está pronto para ser aprovado no Senado e, então, enviado para a Câmara.

“A proposta foi construída a partir de uma estrutura governamental, com a inteligência artificial envolvida. Assim, os órgãos setoriais, ou seja, aqueles que já estão regulados, têm a competência de seguir com a regulação e monitoramento, e você também tem um órgão central, que tem o papel de harmonizar e coordenar as ações dos demais órgãos”, afirma Castro. “Adicionalmente, esse órgão central garante que os setores ainda não regulados possam ser regulados conforme o projeto de lei. Acreditamos que é importante votar e estabelecer um marco para o sistema de maneira adequada e respeitosa.”

Dentro do governo, há 19 ministérios envolvidos no assunto, com o apoio da Casa Civil e de uma equipe técnica do Ministério das Comunicações. “Estamos coordenando essa ação do governo há alguns meses e temos bastante confiança de que estamos no caminho certo e que o projeto precisa avançar. Isso é necessário para iniciar a etapa da Câmara com temas já pactuados, amadurecidos e resolvidos”, afirma Castro.

Na avaliação do governo, a classificação de “alto risco” ainda continua a ser criticada pelas big techs, mas o tema deve ser vencido em audiências e nas votações.

“Existe uma resistência significativa das plataformas e das big techs em serem classificadas como serviços de alto risco. O que significa ser um serviço de alto risco? Significa ter mecanismos de compliance e governança mais rigorosos. O ponto mais debatido atualmente é esse. Críticas ao projeto apontam que o texto seria muito prescritivo, mas a realidade é que a inovação está garantida”, diz Castro.

A diretora do Departamento de Promoção da Liberdade de Expressão da Secretaria de Comunicação do governo chama a atenção, ainda, para a abertura de novos negócios e aplicações que as regras tendem a gerar, uma vez que passará a haver clareza sobre a aplicação desses recursos no país.

“Há um sentimento geral de necessidade de inovação, e todos querem novos recursos, que são atraídos pela segurança jurídica. A previsibilidade no mercado brasileiro é importante para atrair investimentos. Assim, há uma expectativa de que, com mais regulação, o mercado se torne mais atraente, especialmente para grandes empresas”, afirma Castro.

Para Bruno Bioni, do Data Privacy Brasil, é preciso reconhecer que setores que já utilizam recursos de inteligência artificial e que são regulados, como instituições financeiras, têm uma infraestrutura regulatória mais robusta. No entanto, outros setores econômicos que também utilizam IA e têm impacto significativo na vida da população não estão sujeitos a uma regulação semelhante.

“O projeto de lei pretende reduzir essa assimetria, para garantir um nível mínimo de governança para as IAs com impacto significativo na sociedade. O texto não busca uma solução única, mas calibra a regulação conforme o nível de risco, com padrões de governança mais rigorosos para sistemas de alto risco”, explica o especialista. “Atualmente, muitos sistemas de IA têm impactos elevados na sociedade, mas não enfrentam o mesmo nível de escrutínio que setores já regulados.”

No Senado, o texto apresentado pelo relator Eduardo Gomes já ganhou 145 emendas, entre novembro de 2023 e julho deste ano. Se passar pelo Senado, o texto segue para apreciação da Câmara e, se aprovado sem grandes mudanças, é enviado para sanção presidencial.

Bioni lembra que a implementação efetiva da lei vai depender não só de arranjo político, mas de investimentos públicos pesados. Órgãos como a ANPD e demais agências reguladoras e autarquias terão de criar núcleos especializados e capacitar pessoal, o que atualmente não existe.

“Esse é um desafio significativo e a capacitação será necessária para a máquina pública como um todo. Essa discussão acontece em paralelo com o Plano Nacional de Inteligência Artificial, que está na reta final e prevê um investimento significativo para que o Estado utilize e regule a inteligência artificial”, comenta Bioni.

No mês passado, o governo apresentou a proposta de Plano Brasileiro de Inteligência Artificial (PBIA) 2024-2028, o qual prevê investimento de até R$ 23 bilhões em quatro anos.