Mesmo que este texto leve o meu crédito, você saberia diferenciar se ele foi mesmo escrito por mim ou por uma máquina? Essa é a nova fronteira que estamos atravessando com a popularização de ferramentas avançadas que criam textos por meio da inteligência artificial.

Depois do frenesi com o lançamento do ChatGPT, que passou a ser visto com grande entusiasmo pela qualidade das suas criações, interações e pelo potencial transformador que representa, começaram a surgir reações contrárias ao uso da ferramenta, que pedem cautela e buscam frear os avanços no desenvolvimento de modelos semelhantes.

Como a iniciativa de cientistas, empresários de tecnologia e representantes do meio acadêmico que assinaram uma carta aberta pedindo uma pausa de seis meses nas pesquisas de inteligência artificial generativa que desenvolvam sistemas mais avançados do que o ChatGPT-4.

O documento inclui nomes como o empresário Elon Musk, o historiador Yuval Noah Harari, além de empresas como Google e Microsoft. O argumento é que a tecnologia pode gerar consequências negativas que ainda não foram mapeadas.

O que é possível interpretar a partir dessa postura? Que a indústria lançou a ferramenta antes de estar em dia com as medidas de segurança e as garantias de direitos. O que provocou uma reação em cadeia entre os concorrentes que também lançaram suas versões antes de terminarem inclusive de testar. Isso sempre gera risco para consumidor. Só que aqui são riscos que podem sair do controle numa corrida desenfreada pelo primeiro lugar na corrida da IA.

A questão é: os players não confiam um nos outros e o mercado não acredita que a pausa será verdadeira. O que coloca a perder não só a qualidade dos recursos, mas também a própria humanidade. Com certeza sem regras claras e limites para serem seguidos, as consequências podem ser destrutivas e muito prejudiciais.

ChatGPT

Desenvolvido pelo OpenAI, um dos laboratórios de inteligência artificial mais importantes do mundo, o ChatGPT foi baseado numa arquitetura de redes neurais, e treinado com grandes volumes de textos. Essa combinação que permite a realização de tarefas complexas, como escrever notícias e elaborar petições.

Em apenas cinco dias, o recurso alcançou um milhão de usuários. Estamos diante do que parece um novo marco no uso da IA na sociedade. Mas além das dezenas vantagens e facilidades, e grandes oportunidades que devem surgir, a regulação necessária para garantir direiros e evitar abusos não acompanha essa dinâmica na mesma velocidade.

Em apenas cinco dias, o ChatGPT alcançou um milhão de usuários. Estamos diante do que parece um novo marco no uso da IA na sociedade

O OpenAI possui um Código de Ética para o ChatGPT? Como mitigar riscos em escala global com um tratamento apenas por contrato ou melhor prática? A discussão sobre limites éticos da IA e questões de propriedade intelectual também começa a aparecer em relação ao uso do novo recurso, principalmente no ambiente educacional.

Professores universitários dos Estados Unidos tiveram que reformular aulas e passaram a aplicar provas orais, trabalho em grupo e trabalhos escritos à mão no lugar dos digitados. Aqui no Brasil, educadores estudam como adaptar planos de ensino e também qual a melhor forma de avaliar os alunos, de forma a tratar a nova ferramenta como aliada, não como inimigo.

São mudanças e discussões imediatas, sem tempo para mensurar quais desdobramentos e conquências podem surgir. Faz parte de uma onda tecnológica conhecida como IA generativa, onde sistemas geram conteúdo a partir de comandos de texto. Além de parecer que estamos nos aproximando cada vez mais de um futuro imaginado somente em obras de ficção científica, o temor da superação das máquinas e de tomarem as decisões das mãos humanas, também volta à tona.

Não por acaso, normas e regulamentações buscam estabelecer padrões que garantam a ética da inteligência artificial (IA), como a necessidade de criar mecanismos de supervisão e determinação humana (humanos são ética e legalmente responsáveis por todas as fases do ciclo de vida dos sistemas de IA), a proporcionalidade (as tecnologias não devem exceder o necessário para atingir metas ou objetivos legítimos e devem ser adequadas ao contexto), administração do meio ambiente e da paz (os sistemas de IA devem contribuir para a interconexão pacífica de todas as criaturas vivas). Nada melhor que transparência e regras claras neste caminho.

Os desafios são muitos, para todos os setores econômicos que serão impactados pelos avanços da inteligência artificial, seja na educação, no varejo, no transporte, na saúde, na indústria de forma geral e até no serviço público. Abrange vislumbrar quais as melhores estratégias para realizar os investimentos, como mitigar riscos e quais metodologias seguir para obter os resultados mais eficazes.

A Unesco publicou recentemente uma recomendação aos seus países-membros para que desenvolvam um quadro ético para sistemas de inteligência artificial (IA), a partir de quatro princípios-chaves: respeitar a autonomia e a dignidade humana, prevenir danos, garantir a equidade e a explicabilidade.

Como fazer

Um dos primeiros passos necessários é estabelecer um Comitê de Ética Algorítmica que deve ficar incumbido de definir conceitos, modelos que vão nortear as referências na modelagem do algoritmo, além de outros três pilares para permitir a efetividade do plano, que envolvem aspectos técnicos (viabilidade tecnológica), de governança (legalidade) e culturais (comportamentais).

Algumas questões que chegarão ao comitê envolverão alinhamentos sobre legitimidade e origem da base de dados que treina o algoritmo

Algumas questões que chegarão ao comitê envolverão alinhamentos sobre legitimidade e origem da base de dados que treina o algoritmo, se a tomada de decisão deve seguir a teoria utilitarista (salvar maior número de vidas) ou sempre salvar o usuário, como definir regras para identificação e tratamento de viés discriminatório, como adotar um padrão para explicabilidade (auditabilidade), modelo de relatório de impacto da IA, análise de efeitos sobre empregabilidade, necessidade ou não de um seguro, entre outros.

Afinal, acompanhado de toda inovação anda junto risco e responsabilidade. Por isso, o início da proteção começa nos contratos, alcança códigos de conduta e melhores práticas, as regulamentações setorizadas e até podendo chegar a um marco legal regulatório geral.

Respondendo à provocação inicial, estamos evoluindo a um ponto em que será difícil diferenciar quando se está diante de uma interação com uma inteligência artificial ou um humano. O que lembra muito o clássico filme “Blade Runner” e o famoso “Teste de Turing”. Por isso, deve haver leis específicas que determinem que a IA sempre deve se apresentar como tal, não podendo agir de forma enganosa, o que já foi previsto na Califórnia desde 2018.

Além disso, a própria tecnologia busca resolver os problemas que ela mesma provoca, e por isso, a OpenAI lançou uma ferramenta justamente para ajudar a diferenciar textos humanos dos criados pelo ChatGPT.

É inevitável ter estratégia de IA para orientar sua utilização. As iniciativas não devem ser feitas pelo modismo, mas com objetivos bem claros para resolução de problemas de negócio e bem estar social. Os projetos precisam garantir que as demandas de segurança, privacidade e ética estejam sendo adequadamente endereçadas, e que os dados não embutam vieses que podem gerar efeitos colaterais danosos incalculáveis para a sociedade do futuro.

Patricia Peck é CEO e sócia do Peck Advogados, Conselheira Titular do Conselho Nacional de Proteção de Dados (CNPD) e Professora da ESPM.