Em novembro de 2019, durante a 40ª sessão da Conferência Geral da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO), teve início um processo de dois anos para elaborar o primeiro instrumento mundial de definição de padrões sobre a ética da inteligência artificial (IA).

Desde então, a entidade realiza uma série de consultas em comunidades acadêmicas, científicas e técnicas para reunir diversas e plurais interpretações sobre a temática, já que sua regulamentação é um ponto crucial para o debate sobre inovação mundial.

Até o momento a organização conta com a participação de mais de 155 países e profissionais experts multifacetados. Google, Facebook, Microsoft e os melhores acadêmicos de universidades como Stanford e Academia Chinesa de Ciências colaboram com o documento, que deve ser apresentado no final de 2021.

Recentemente foi divulgado o projeto de recomendação resultante, que destaca desde as aplicações durante a pandemia da Covid-19 até o temor de que as máquinas tomem as decisões das mãos humanas.

Com isso, foram estabelecidos alguns conceitos que pressupõem a supervisão e determinação humana (humanos são ética e legalmente responsáveis por todas as fases do ciclo de vida dos sistemas de IA), tais como da proporcionalidade (as tecnologias não devem exceder o necessário para atingir metas ou objetivos legítimos e devem ser adequadas ao contexto), administração do meio ambiente e da paz (os sistemas de IA devem contribuir para a interconexão pacífica de todas as criaturas vivas) e inclusão de gênero (não devem reproduzir as desigualdades de gênero encontradas no mundo real). São aspectos primordiais para avançarmos rumo ao futuro da IA, e nada melhor que transparência e regras claras neste caminho.

Diante da transformação tecnológica ocorrida nos últimos anos, a gestão das informações se tornou diferencial estratégico de mercado, seja ela coletada por aplicações da web, pelos novos dispositivos de Internet das Coisas (IoT) ou usados no aprendizado de máquina (machine learning).

Mas claro que é mudança acompanhada de questões relacionadas às regras concorrenciais e de livre acesso à informação (direito ao conhecimento), que trazem a necessidade atualizar a proteção jurídica sobre as bases de dados.

É preciso estudar, analisar e elaborar as melhores respostas para tratar adequadamente este ativo tão valioso que envolve não apenas as bases de dados chamadas de primárias, mas também o quanto esta nova camada robotizada será capaz de criar a partir do machine learning. Dessa maneira, padrões e transparência contribuem para que o mercado atue com ética sempre em prol da sociedade, mas que não impeça ou dificulte o desenvolvimento da tecnologia.

Um material bastante interessante para consulta é o State of AI Report 2020, conteúdo elaborado pelos investidores Nathan Benaich and Ian Hogarth, e que já está na sua terceira edição. Por meio de uma elaborada seleção de informações, que teve a participação de empresas e grupos de pesquisa bem conhecidos e promissores, os autores pretendem favorecer a troca de ideias e experiências sobre o desenvolvimento da IA ​​e suas implicações para o futuro.

Vale destacar também a iniciativa realizada em Cingapura, por um grupo formado por mais de 42 mil profissionais da indústria. Com o objetivo de auxiliar na implantação de IA de forma responsável, ética e centrada no ser humano, o Singapore Computer Society (SCS) lançou o guia AI Ethics & Governance Body of Knowledge (BoK), um documento que pretende ser referência de orientação no uso das ferramentas e tomadas de decisão para alcançar vantagens competitivas, realizar treinamento e certificação de profissionais.

Já nos Estados Unidos, a Casa Branca está cada vez mais próxima de estabelecer novas regras de IA. A partir de diretrizes regulatórias que visam a equilibrar a promoção do crescimento e o controle da indústria, o governo afirma que está perto de concluir as orientações para as agências sobre como regular o uso de acordo com as particularidades de cada setor, conforme avaliações dos custos e riscos associados à tecnologia.

No Brasil, é possível citar a criação da Frente Parlamentar Mista de Inteligência Artificial em março de 2020, coordenada pelo deputado Eduardo Bismarck (PDT/CE). O lançamento da Frente ainda não foi realizado e a previsão é que acontece no ano que vem. Enquanto isso, é possível acompanhar as atividades e informações sobre o tema no perfil do grupo no Instagram.

Pontos críticos

O receio de entraves no desenvolvimento da área é tanto que especialistas já declararam ser contra uma lei geral de IA no Brasil, pela falta de maturidade a respeito do assunto e da inconsistência dos projetos de lei que tramitam no legislativo. Assim, disseram ser indispensável uma discussão prévia que inclua a definição sobre o próprio conceito de inteligência artificial.

Os desafios são muitos, inclusive para o varejo, que busca tirar proveito das vantagens da tecnologia. Abrange vislumbrar quais as melhores estratégias para realizar os investimentos e quais metodologias seguir para obter os resultados mais eficazes. Isso acarreta em reunir uma comissão de ética dos envolvidos no projeto para definir padrões, modelos que vão nortear as referências na modelagem do algoritmo, além de outros dois pilares para permitir a efetividade do plano, que envolvem aspectos técnicos (viabilidade tecnológica) e jurídicos (legalidade). Aplicar a auditabilidade e perecibilidade no desenvolvimento de algoritmos e big data.

Um debate fundamental e ainda em aberto é sobre de quem é a responsabilidade quando há um dano causado pela IA? Nos Estados Unidos, uma motorista de segurança ao volante de um veículo de teste autônomo do Uber que atingiu e matou uma mulher em Tempe, Arizona, em 2018, foi acusada de homicídio negligente. O julgamento foi marcado para 2021 e a condutora se declarou inocente. A polícia disse que o acidente era totalmente evitável. Porém, a questão não é tão simples como parece.

A primeira morte registrada envolvendo um veículo autônomo gerou preocupações de segurança sobre a nascente indústria de veículos autônomos. O motorista de um carro tem a responsabilidade sob o veículo. E quando o condutor é um sistema? Este é mais um caso que exige uma profunda discussão sobre dilemas éticos e jurídicos da Inteligência Artificial. É preciso refletir – e pontuar - a responsabilidade jurídica de robôs.

É inevitável ter uma estratégia de IA para orientar a utilização. As iniciativas não devem ser feitas pelo modismo, mas com objetivos bem claros para resolução de problemas de negócio. Os projetos precisam garantir que as demandas de segurança, privacidade e ética estejam sendo adequadamente endereçadas, e que os dados não embutam vieses que podem gerar mais dano que valor.

Não por acaso a maioria das regulamentações atuais, inclusive a proposta internacional da UNESCO, prevê a supervisão humana. No caso do Brasil, o PL 21/20, que cria o marco legal do desenvolvimento e uso da IA, determina a figura dos agentes de inteligência artificial, que devem demonstrar o cumprimento das normas e da adoção de medidas eficazes para o bom funcionamento dos sistemas, inclusive que os dados utilizados observem a Lei 13.709, de 2018 – Lei Geral de Proteção de Dados.

Assim, a IA desenvolve autonomia de decisão, mas sempre com algum responsável humano (supervisor). Os paradigmas éticos não ficam somente no julgamento jurídico. Ainda veremos muito debate pela frente, que deve ser o mais inclusivo e plural possível, além de levar em conta a consciência pública para que todos estejam cientes de seus direitos digitais, a partir de uma base robusta de princípios para garantir que a inteligência artificial sirva ao bem comum.

*Patricia Peck Pinheiro é sócia e sócia e Head de Direito Digital do escritório PG Advogados. Advogada especialista em Direito Digital, doutora pela Universidade de São Paulo, com PhD em Propriedade Intelectual e Direito Internacional, pesquisadora convidada pelo Instituto Max Planck e pela Universidade de Columbia, professora convidada pela Universidade de Coimbra e pela Universidade Central do Chile. Árbitra do Conselho Arbitral do Estado de São Paulo – CAESP, Vice-Presidente Jurídica da ASEGI, Conselheira de Ética da ABED, Presidente do Instituto iStart de Ética Digital. Autora de 22 livros de Direito Digital.