Uma tecnologia que abre incontáveis possibilidades de criações. Esse é um dos trunfos da Inteligência Artificial Generativa, já considerada como a grande revolução tecnológica dos últimos anos. Um recurso de fácil uso, cada vez mais intuitivo, que favorece a inovação e a otimização de processos, e que vem transformando inclusive o modo como produzimos conteúdo.
Desde o surgimento do Direito Digital, há mais de 20 anos, destaco a necessidade de atualização constante dos profissionais da área e da revisão de princípios basilares que naturalmente ficam ultrapassados diante de tantas mudanças na sociedade. Por isso é urgente que as leis de privacidade sejam revistas.
É impossível uma Inteligência Artificial Generativa (IAG) não violar, em alguma medida, algum requisito previsto nas regulamentações de proteção de dados atuais, pois elas não foram pensadas para atender a realidade da IAG.
Um bom exemplo, que é de ordem técnica, ocorre no conflito entre o princípio da minimização (artigo 5 da General Data Protection Regulation e art. 6 da Lei Geral de Proteção de Dados Pessoais) e o princípio da exaustão do Big Data - que significa tratar o máximo de dados possíveis para obter resultados.
Parte de um modelo de aprendizagem de máquina, que para garantir eficiência e qualidade, de modo que o algoritmo alcance estabilidade e reduza viés, precisa de um grande volume, variedade e velocidade (3V) de dados para extrair inteligência.
Exatamente o oposto do previsto nas leis de privacidade, que determinam o "princípio da minimização", que seria tratar os dados mínimos necessários para atender a finalidade específica informada ao titular.
Quando a sociedade muda e evolui, transformada pela tecnologia criada pelo próprio ser humano, o Direito deve acompanhar essas modificações, até para continuar a atender os anseios e expectativas sociais, sob pena de ficar obsoleto.
O Direito Digital é técnico e dinâmico e precisa acompanhar a inovação. Sua missão é buscar soluções que possam conciliar, de maneira sustentável, progresso social e econômico, com a proteção dos direitos humanos.
Esse descompasso já começa a gerar consequências. Vimos casos em que uma IA generativa foi utilizada para criar malwares, o que representa um grande risco à segurança cibernética e ao próprio princípio da segurança disposto na LGPD, e precisou passar por modificações e atualizações para não alucinar dessa forma novamente.
Após um trabalho de investigação iniciado em março de 2023, a Autoridade de Proteção de Dados italiana (GPDP) notificou a empresa OpenAI (responsável pelo ChatGPT) no fim de janeiro passado ao concluir que os métodos utilizados para coletar dados dos usuários violam as leis de privacidade da União Europeia (UE). A empresa teve 30 dias para apresentar defesa.
Outro fato recente que chama a atenção é a união de rivais históricos para tentar garantir que a evolução da tecnologia seja acompanhada de medidas éticas e de proteção das relações. Isso porque, em prol do aprimoramento da segurança dos sistemas de IA, Estados Unidos e China anunciaram que vão trabalhar juntos para evitar o aumento dos ataques cibernéticos e da disseminação de fake news.
Estamos diante de um boom na criação de IAs influencers, que já provaram ter um grande poder de alcance, influência e rentabilidade. Isso impacta uma série de esferas sociais e econômicas, que interferem na opinião pública e podem ter consequências inclusive em eleições. Já vimos isso acontecer com as fake news, deep fake e ainda não temos legislação para coibir essas práticas.
Precisamos de regras claras e atuais, transparência, ética e segurança para convivência pacífica e sustentável de humanos e IAs. Definições e limites de responsabilidade, não só no país, mas em nível internacional.
* Patricia Peck é CEO e sócia-fundadora do Peck Advogados. Com 46 livros publicados, é professora de Direito Digital da ESPM. Conselheira nomeada para o CnCiber (mandato de três anos). Foi Conselheira Titular do Conselho Nacional de Proteção de Dados (CNPD).