Como nos primórdios da internet, em que o campo virtual era visto como “terra de ninguém”, a ebulição da inteligência artificial apresenta uma série de oportunidades acompanhadas de desafios. O mais importante deles é a regulação, e o Brasil tenta encontrar um caminho próprio para definir regras que não atrapalhem a inovação, visto que o avanço nessa seara pode redefinir as potências globais.

Em entrevista ao Revolução IA, programa do NeoFeed que tem o apoio do Magalu Cloud, a advogada Patrícia Peck, especialista em Direito Digital e integrante da Comissão Nacional de Segurança Cibernética, afirmou que o País tem a chance de construir um modelo aproveitando a diversidade populacional e a miscigenação para treinar sistemas mais inclusivos.

Essa vantagem competitiva, no entanto, depende, de avanços em cibersegurança, proteção de dados e definição de responsabilidades. “Não é só o legislador, não é só o mercado, nem só a sociedade civil, mas sim o grupo que precisa conversar para que a gente possa encontrar a melhor forma de regulamentação da tecnologia”, afirma Peck.

Nos Estados Unidos, a inteligência artificial avança sob uma lógica liberal, com regras mínimas e fiscalização setorial para não travar a inovação. No sentido oposto, a União Europeia aposta em normas detalhadas, como o AI Act, inspirado no Regulamento Geral sobre a Proteção de Dados, mas que já enfrenta críticas por excesso de burocracia. E a China, em um caminho único, acelera a adoção ao centralizar dados no Estado e impor parcerias diretas com empresas privadas.

Nesse tabuleiro global, o Brasil aprovou o Plano Brasileiro de Inteligência Artificial (PBIA), que traça diretrizes estratégicas e discute no Congresso o marco legal da IA (PL 2338/2023), atualmente em análise na Câmara dos Deputados.

Diante da rapidez com a qual a tecnologia avança, Peck acredita que as leis relacionadas ao tema “já nascem com prazo de validade”. Por isso, ela sugere que, além de normas horizontais estabelecidas pelo marco regulatório, é fundamental que as empresas desenvolvam seus próprios códigos de conduta para orientar o treinamento de modelos de IA. “Assim como uma equipe humana precisa seguir missão, visão e valores, a equipe de IA também deve seguir”, diz.

Os riscos da adoção da IA sem criar padrões éticos mínimos envolvem desde alucinações e vieses discriminatórios até falhas de segurança e vazamento de dados. A maioria das licenças de uso, segundo a advogada, transfere toda a responsabilidade ao usuário em seus termos de uso.

Em vez de esperar apenas pela aprovação do marco legal, Peck sugere que o mercado brasileiro se antecipe, criando guias setoriais, comitês de ética e melhores práticas de uso da tecnologia. “Um bom trabalho de ética feito por grandes organizações acaba repercutindo nos fornecedores e ajuda a organizar o ecossistema”, diz Peck.