Newsletter

Receba notícias do NeoFeed no seu e-mail

 
Li, compreendi e concordo com os Termos de Uso e Política de Privacidade
do site.
 
 

EXPERTSMENTE PROGRAMADA

O lado obscuro da inteligência artificial

Como a energia nuclear pode ser uma arma de destruição ou fornecer luz e vida para uma cidade, a inteligência artificial tem dois lados. Depende de nós escolher o lado certo

 

Há alguns meses li um relatório de extrema importância, “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, que em suas 100 páginas aborda os potenciais riscos de se utilizar de forma inadequada as tecnologias de IA. Por sua importância, resolvi escrever este post, inspirado no seu conteúdo.

Sabemos, por experiência que o treinamento de algoritmos influencia o processo de decisão das redes neurais. Um estudo do MIT, “Facial recognition software is biased towards white men, researcher finds” mostrou que baseado no aprendizado fornecido pelas imagens que foram apresentadas, alguns algoritmos de reconhecimento facial reconheciam com mais precisão rostos de homens brancos. O algoritmo não era machista ou racista, mas simplesmente aprendeu a reconhecer com mais precisão este rostos pois mais imagens de homens brancos lhes foi fornecido.

Uma outra experiência do MIT, Norman, criou o primeiro algoritmo de IA com viés psicopata. A proposta é mostrar que um treinamento inadequado pode gerar respostas completamente absurdas e provavelmente o culpado não é o algoritmo, mas a base de dados com que ele foi treinado.

O crescente uso da IA nos obriga a prestar atenção aos resultados que os algoritmos nos darão, pois mais e mais eles estarão afetando nossas vidas. Além disso, mecanismos extremamente seguros de segurança devem ser colocados em prática para que sistemas de IA não sejam afetados por ataques cibernéticos.

Hoje, os sistemas de IA executam apenas uma parte relativamente pequena das tarefas que os seres humanos são capazes de fazer. No entanto, mesmo essa pequena parte tem impactos significativos na vida das pessoas. Por exemplo, na área médica, onde pouco a pouco tarefas repetitivas feitas por humanos passam a ser feitas por algoritmos, como no Reino Unido, como vemos em “London hospitals to replace doctors and nurses with AI for some tasks”. No futuro, espera-se que os sistemas de IA excedam o desempenho dos seres humanos mais talentosos, em tarefas bem específicas.

Todas novas tecnologias nos ajudam a resolver problemas existentes, mas também gera novos desafios. A IA cria espaço para riscos de segurança que não eram possíveis antes. Os sistemas de IA podem imitar as vozes das pessoas de forma realista, criando arquivos de áudio que se assemelham a gravações de discursos humanos. Assim, ficaria bem difícil para um humano conseguir identificar se o que ele está ouvindo veio de alguma pessoa ou foi gerado artificialmente por sistemas de IA.

As consequências podem ser bastante dramáticas. Portanto, não é à toa que diversos estudos começam a se debruçar sobre o assunto. Um artigo interessante é “How Will Artificial Intelligence Affect the Risk of Nuclear War?”. O artigo levanta algumas questões sobre o uso de IA nas forças armadas. Se um algoritmo de aprendizado de máquina que examina os céus para lançamentos nucleares pode ser enganado, ele poderia alimentar os humanos que estão no controle com informações incorretas.

Embora muitas vezes o erro humano possa ser o maior risco, confiar excessivamente em sistemas automatizados pode ser catastrófico

Embora muitas vezes o erro humano possa ser o maior risco, confiar excessivamente em sistemas automatizados e algoritmos pode ser catastrófico. O estudo da Rand “How Artificial Intelligence Could Increase the Risk of Nuclear War” aprofunda o tema. O assunto é de extrema importância e uma análise bem detalhada pode ser encontrada em “Artificial Intelligence and National Security”, produzida pela Harvard Kennedy School. A conclusão do estudo é que os avanços na IA afetarão a segurança nacional dos EUA (e de todos os países) ao impulsionar a mudança três áreas: superioridade militar, superioridade da informação e superioridade econômica.

Ainda estamos no início da evolução da IA. E o que devemos esperar daqui para frente? Antes de mais nada, não pensemos linearmente. A evolução das tecnologias digitais e da IA é exponencial, e avanços significativos serão sentidos em pouco tempo. Não tenho dúvidas que o forte impacto da IA na sociedade, empresas e nas profissões é um assunto de extrema importância.

Já em 2016, o Fórum Econômico Mundial publicou um relatório instigante, intitulado “The Future of Jobs: Employment, Skills and Workforce Strategy for the Fourth Industrial Revolution”, analisando os impactos da evolução tecnológica, onde a IA tem papel fundamental no cenário futuro. O relatório lembra que provavelmente 65% das crianças que estão nas escolas primárias hoje estarão trabalhando em funções completamente novas, que simplesmente ainda não existem.

Sobre o Brasil, o relatório aponta algumas barreiras desafiadoras como a ainda grande incompreensão das disrupções que já estão surgindo (55% dos entrevistados), a falta de alinhamento da estratégia da força de trabalho das empresas (e, claro dos órgãos públicos) com as inovações disruptivas (48%), e devido à crise econômica, a pressão dos acionistas pela rentabilidade de curto prazo (48%).

Os algoritmos e as máquinas substituirão os humanos? Em muitas funções sim

Os algoritmos e as máquinas substituirão os humanos? Em muitas funções sim. Muitas profissões existentes hoje deixarão de existir. A profissão de motorista, por exemplo, não será uma que sobreviverá muito mais que uma ou duas décadas. Comumente se diz que a IA destruirá empregos, mas criará outros. É verdade, mas os empregos gerados não serão necessariamente ocupados pelas pessoas que perderam os seus trabalhos.

No final, teremos uma mudança significativa na relação pessoas-máquinas e isso vai se refletir nas funções, academia e relações trabalhistas. Recomendo a leitura de um estudo, “The Future of Work: Jobs and skills in 2030”, feito no Reino Unido, que é um contexto diferente do brasileiro, mas que pode nos indicar alguns caminhos.

Outro estudo, este da McKinsey, mostra claramente que o uso da IA vai demandar a ênfase em skills por parte de nós, humanos, que deixamos de lado com a sociedade industrial. Ficamos muito focados em especializações operacionais e menosprezamos habilidades cognitivas como empatia, sociabilidade, criação e emocional. Vale a pena ler “Skill shift: Automation and the future of the workforce”.

Vamos analisar funções que são tipicamente humanas, como as que demandam capacidade de julgamento. As limitações atuais da IA nos levam a crer que o julgamento humano não será automatizado tão cedo e mesmo, se um dia o será. Entretanto, algoritmos podem melhorar o julgamento humano, buscando e reunindo fragmentos de informações que estejam espalhados por inúmeras fontes, agregando-as de forma que sejam úteis.

Na área jurídica, por exemplo, onde muitas informações sobre casos similares e jurisprudências, leis e regulamentos diversos, que demandam exaustivas e quase sempre incompletas buscas por dezenas de advogados, podem ser agregadas em poucos minutos, por algoritmos de IA.

Já na década de 50 do século passado, alguns estudos mostraram que algoritmos computacionais conseguiam superar os subjetivos julgamentos humanos. O psicólogo americano Paul Meehl, documentou 20 estudos que compararam as previsões de especialistas humanos com algoritmos preditivos simples. Lembrem-se, estamos falando de computadores de 60 anos atrás!

Os estudos variaram desde a previsão de como um paciente esquizofrênico responderia à terapia de eletrochoque até a probabilidade de um aluno ter sucesso na faculdade. O estudo de Meehl mostrou que em cada um dos 20 casos analisados, os peritos humanos foram sobrepujados por algoritmos simples.

Pesquisas posteriores confirmaram as descobertas de Meehl. Mais de 200 estudos compararam a previsão de algoritmos e de especialistas, com algoritmos estatísticos quase sempre superando o julgamento humano. Nos poucos casos em que os algoritmos não superaram os especialistas, os resultados eram geralmente um empate.

A razão, segundo os estudos, é que os humanos tendem a simplificar suas tomadas de decisão, baseando-se fortemente na intuição e experiências passadas. Funciona muito bem quando temos que tomar decisões rápidas, como geralmente acontece às centenas durante o dia. Mas, quando a decisão envolve uma análise mais criteriosa e demorada, isenta, com dados mais abrangentes, como a contratação de um funcionário, a decisão enviesada pela intuição, experiência pessoal e pré-conceitos, acaba sendo prejudicada.

Esses resultados mostram que os humanos são dispensáveis? Não creio, pelo menos em um horizonte previsível, a não ser em tarefas tão robotizadas, que na verdade os robôs farão trabalhos que humanos não deveriam estar fazendo. Embora algoritmos possam superar o julgamento de especialistas, eles são direcionados a domínios de conhecimento muito restritos.

Um algoritmo treinado para traduzir textos de uma língua para outra não é capaz de reconhecer imagens em uma fotografia e muito menos dirigir um veículo. Além disso, o treinamento dos algoritmos depende da alimentação de dados gerados pelos próprios especialistas, que acabam selecionando, pela sua intuição o que parece ser mais relevante. Isso, por si, já cria um viés para o algoritmo.

Entretanto, no curto prazo, será mais realista usarmos de forma colaborativa a IA para eliminar pré-conceitos embutidos nas intuições e melhorar os julgamentos humanos. Quando os dados são abundantes e os aspectos relevantes do mundo não estão mudando rapidamente, é adequado nos apoiarmos em métodos estatísticos.

Mas, quando pouco ou nenhum dado está disponível, a inteligência coletiva pode ser usada para tirar o máximo proveito do julgamento de especialistas. Por exemplo, o Google, uma típica empresa de IA, usa em conjunto a “sabedoria da multidão” de humanos e métodos estatísticos baseados em IA para melhorar as decisões de contratação, onde a filosofia é “complementar os tomadores de decisão humanos e não substitui-los”.

A IA não envolve uma equação de soma zero, humanos versus IA, mas humanos mais IA gerando mais inteligência. Claro, que para isso temos que nos preparar. A academia formando profissionais para novas funções nas profissões existentes e para as novas profissões. As empresas e a sociedade discutindo os efeitos da IA nos seus negócios.

A crescente dependência que temos de IA e seus algoritmos nos obriga a prestar muita atenção ao seu uso e a qualidade do seu treinamento

E isso nos leva de volta ao início do texto. A crescente dependência que temos de IA e seus algoritmos nos obriga a prestar muita atenção ao seu uso e a qualidade do seu treinamento. Um sistema de IA é um conjunto de motores (algoritmos) e combustível (dados). Se a qualidade do combustível for ruim, o motor não vai funcionar adequadamente. É isso que a Harvard Business Review afirma em “If Your Data Is Bad, Your Machine Learning Tools Are Useless”. E complemento, um sistema de IA mal protegido também pode ser uma ameaça que só vamos descobrir quando algo acontecer.

IA é uma tecnologia bem poderosa. Mas devemos saber usá-la. Como a energia nuclear pode ser uma arma de destruição ou fornecer luz e vida para uma cidade, a IA tem dois lados. Depende de nós escolher o lado certo.

*Cezar Taurion é Partner e Head of Digital Transformation da Kick Corporate Ventures e presidente do i2a2 (Instituto de Inteligência Artificial Aplicada). É autor de nove livros que abordam assuntos como Transformação Digital, Inovação, Big Data e Tecnologias Emergentes. Professor convidado da Fundação Dom Cabral. Antes, foi professor do MBA em Gestão Estratégica da TI pela FGV-RJ e da cadeira de Empreendedorismo na Internet pelo MBI da NCE/UFRJ.

Leia também

VÍDEOS

Assista aos programas CAFÉ COM INVESTIDOR e CONEXÃO CEO

ESPECIAL

Apoio: