Toda onda tecnológica começa engolfada por muito hype e expectativas grandiosas. É comum termos a tendência de supervalorizarmos o seu impacto no curto prazo e subestimarmos seu poder de transformação no médio e longo prazo. É o que está acontecendo com a inteligência artificial (IA) no momento. Está no pico de sua popularidade e com isso fica cercada de hype e oportunismo.

IA não é novidade. O termo foi cunhado na década de 50, passou por altos e baixos e, agora, graças à capacidade computacional disponível e uma inundação de dados em formato digital, começa a tomar forma. Temos hoje condições de desenvolver algoritmos bastante sofisticados e uma forma específica de IA, a deep learning (DL), tem sido a grande aposta de sua evolução.

Para muitos, DL é o atual estado da arte em IA. É verdade que algoritmos sofisticados de DL, obtendo desempenho superiores a de humanos em tarefas bem específicas faz com que consideremos a IA como super humana em todos os sentidos. Não é verdade. O que ainda temos é uma “narrow AI”, que consegue fazer uma coisa específica muito bem, mas, não tem a mínima ideia do que está fazendo. Não tem consciência e, portanto, à luz, do que consideramos inteligência humana, está ainda muito, mas muito distante de ser inteligente.

É indiscutível que DL tem potencial de criar valor para muitas e muitas aplicações, permitindo a criação de soluções que não pensávamos ser possível alguns anos atrás. Por outro lado, apesar da potencialidade dos algoritmos de DL temos que entender suas limitações, para não imaginarmos que conseguiremos agora, resolver todos os problemas do mundo.

Bem, mas, o que é DL? É um subconjunto do aprendizado de máquina (Machine Learning ou ML) baseado em um modelo conceitual do cérebro humano chamado "redes neurais". É chamado de DL porque as redes neurais têm várias camadas que se interconectam: uma camada de entrada que recebe dados, camadas intermediárias que calculam os dados e uma camada de saída que fornece a análise.

Em síntese, “deep” significa profundidade dos níveis de redes neurais. As técnicas de DL são especialmente úteis para analisar dados complexos, ricos e multidimensionais, como voz, imagens e vídeo. Novas tecnologias e algoritmos estão facilitando o lançamento de projetos de DL pelas empresas e a sua adoção está aumentando. Em resumo, todo DL é ML, mas nem todo aprendizado de máquina é DL.

Recentemente, vimos um verdadeiro frenesi com o anúncio pela Open AI do GPT3, que está sendo considerado o estado da arte em DL. Tem um artigo publicado site The Verge, “Open AI´s latest breakthrough is astoninshingly powerful, but still fighting its flaws”, que detalha um pouco mais o que ele é e lembra que os avanços conseguidos por ele, além de algoritmos mais sofisticados, estão sendo principalmente por causa de mais e mais capacidade computacional e mais e mais dados.

É indiscutível que o GPT-3 é um marco na evolução da IA, como foram o Watson e o AlphaGo. Mas é preciso evitar o hype excessivo

É indiscutível que o GPT-3 é um marco na evolução da IA, como foram o Watson e o AlphaGo. Mas é preciso evitar o hype excessivo que é prejudicial, pois cria uma expetativa extremamente irrealista do potencial da IA. Tem um artigo muito interessante sobre isso, “GPT-3 and A Typology of Hype”, que deve ser lido. OK, e querem tirar suas próprias conclusões? Melhor ler o texto dos criadores do GPT-3 no link do arxiv (spoiler: são 75 páginas!) acessível em https://arxiv.org/pdf/2005.14165.pdf.

Para entendermos o que é IA e mais precisamente DL, precisamos primeiro desmitificar IA. As máquinas não são inteligentes e nem são mágicas. Na verdade, o termo Inteligência Artificial, criado por John McCarthy, em 1956, talvez não seja o mais apropriado. Não sabemos bem como definir o conceito de inteligência, e, ainda por cima, colocarmos o adjetivo artificial ao lado, só torna as coisas mais confusas e gera um certo misticismo. Um quê de mágica.

Mas IA é apenas um conjunto de técnicas e algoritmos matemáticos que apenas exibem comportamento que nos parece ser inteligente. Em resumo, a IA não é inteligente. Apenas exibe comportamento que parece ser inteligente. Ponto. Por exemplo, na leitura de textos, nós, como humanos, analisamos a sentença, a descontruímos em substantivos, verbos e adjetivos, mas com a compreensão do todo. Conectamos a sentença com o que nós sabemos sobre o mundo à nossa volta, juntamos gírias e ironias com as ideias e intenções, até mesmo não explícitas, que entendemos fazer sentido.

As máquinas não entendem o significado das palavras. Elas conseguem interagir com as sentenças pois usam modelos matemáticos que definem estatisticamente que após cada palavra vem uma outra e escolhe por probabilidade qual será a escolhida. Para uma máquina, encontrar a palavra câncer em uma frase tem tanto significado quanto a palavra caneta. Não é afetada emocionalmente.

Claro, isso não a impede de simular inteligência e permitir que haja interação com uma pessoa através de um chatbot, parecendo mesmo que ela está entendendo o que a pessoa está dizendo. Mas, para isso, algoritmos de DL precisam ser treinados com um massivo e específico volume de dados.

Um chatbot que entenda uma pessoa em uma interação com um banco precisa ser treinado com milhões de interações de pessoas com os atendentes deste banco, para absorver a estrutura da interação. Mas, como DL é uma “narrow AI”, ou seja, precisa ser treinado para algo bem específico, não conseguimos pegar diretamente este chatbot de banco e colocá-lo para interagir com um usuário de um plano de saúde. Embora muitos diálogos sejam similares, aparecerão termos específicos do setor que o chatbot nunca viu e, portanto, não pôde ser treinado em como reagir adequadamente a eles.

Um chatbot que entenda uma pessoa em uma interação com um banco precisa ser treinado com milhões de interações de pessoas

A mesma coisa acontece se treinarmos algoritmos de tradução para traduzir documentos jurídicos. Eles não conseguirão traduzir documentos médicos, pois os termos serão completamente diferentes. Portanto, não temos como pegar um algoritmo treinado para fazer algo e pedir para ele fazer outra coisa. Um algoritmo treinado para interagir com um cliente de banco não conseguirá de imediato atender adequadamente um cliente de uma empresa aérea. Precisa ser retreinado com os dados das interações dos clientes com a empresa aérea. DL não sabe reagir a situações insólitas.

As máquinas também não têm consciência. Quando o Watson venceu o “Jeopardy!” ele não saiu para comemorar com os amigos. Quando AlphaGo venceu Lee Sedol no Go, ele não teve a mínima compreensão do que fez. Cumpriu o que seus algoritmos tinham que fazer e pronto. AlphaGo não sabe fazer outra coisa a não ser jogar Go. Não sabe jogar xadrez.

Isso impede que usemos IA para atividades que demandam senso comum, empatia e criatividade.  Por exemplo na saúde, a máquina pode fazer bem a análise de imagens, mas como na verdade não veem, mas simplesmente enxergam pixels, não podem substituir o médico nas interações, onde os cuidados médicos demandam personalização e humanidade. Tem uma frase atribuída a Einstein que vale a pena citar aqui: “Any fool can know. The point is to understand”.

Por outro lado, aplicando IA de forma adequada, com o humano, no caso o médico, no loop, a tecnologia pode tirar o robô de dentro do médico e tornar a medicina mais humanizada. Aliás, este foi o tema de uma série de artigos que debateram a aplicação de IA na saúde, “Inteligência artificial vai restaurar humanismo da medicina”, que enfatiza que a IA é a oportunidade de restaurar uma das coisas mais valiosas da medicina, que é a conexão humana, a empatia na relação médico-paciente. A aplicação da IA vai reduzir o tempo desperdiçado em atividades robóticas que os médicos exercem, abrindo tempo livre para a atenção ao paciente.

Uma outra limitação do DL é sua opacidade. Como não existem regras específicas e bem compreendidas, como em uma árvore de decisão, temos uma situação onde o mesmo algoritmo diante de dados diferentes toma atitudes diferentes. E não sabemos explicar o porquê! Em determinadas situações isso pode ser complicado. Imagine um algoritmo que acerta 95% das vezes e quando erra, em 5%, não sabemos o por que errou.

Para determinadas aplicações precisamos ter total confiança na máquina, o que faz com que tenhamos sempre que pensar onde e se devemos usar DL como solução. Como DL não consegue explicar o porquê de suas decisões e nem garantir resultados (lembrem-se que IA é probabilístico e não determinístico) não poderá ser aplicado a tudo. Você deixaria um robô cuidar de seu avô quando ele faria o atendimento correto 95% das vezes, mas o jogaria no chão ou pela janela nas outros 5%?

Além disso, como a máquina não tem senso comum, esses erros podem ser absurdos. Em muitas situações, quando confrontado com o mesmo objeto, mas em posições diferentes das bases de dados onde foi treinado, o algoritmo pode produzir resultados estapafúrdios.

O que tudo isso significa? Vamos desistir de IA por que existem algumas limitações? Absolutamente não! Entender estas limitações nos ajudará a vencer os obstáculos e adotar IA de forma mais assertiva, sem criar falsas expectativas. Existe muita desinformação sobre IA e para que projetos adequados sejam desenvolvidos, não podemos superestimar suas funcionalidades.

Entender as limitações nos ajudará a vencer os obstáculos e adotar IA de forma mais assertiva, sem criar falsas expectativas

O realismo é essencial para que os projetos sejam desenhados como soluções reais para problemas de negócio. Por outro lado, não podemos subestimar seu potencial no longo prazo. Seu impacto nos próximos anos será equivalente ao de um tsunami chegando ao litoral. Basta ver que os smartphones surgiram em 2007, quando do anúncio do iPhone, e embora subestimados no início, mudou nossas vidas hoje.

Hoje podemos considerar que o estado da arte em IA está como a internet em 1995. Lembram? A Amazon tinha sido recém-criada e era apenas uma livraria online e o Google não existia (apareceu em 1998). Alguém, naquela época, imaginaria a internet de hoje?

IA e DL tem imenso potencial. A evolução da IA continua acelerada. Novos modelos de repensar os algoritmos de DL começam a aparecer, para resolver ou pelo menos minimizar as atuais limitações. O texto “Deep Learning Networks Can’t Generalize—But They’re Learning From the Brain” é um exemplo das pesquisas em andamento.

Os processos de treinamento de algoritmos e sua evolução também tem sido alvo de muitas pesquisas. Olhem a compilação de artigos “Top AI Research Advances for Machine Learning Infrastructure” e  “Top AI & Machine Learning Research Papers from 2019” para termos uma visão melhor de alguns dos avanços na área.

Mas, precisamos ter plena consciência de quando e onde aplicar essas soluções. Existem muitas questões éticas e legais, existem desafios de criar soluções que sejam realmente adequadas e permitam que IA e humanos interajam de forma equilibrada e sinérgica. O artigo “Why We Should Be Careful When Developing AI” resume bem os desafios e cuidados que devemos ter com IA.

Creio que esteja bem claro que IA é muito mais que uma simples tecnologia para ficar restrita a um setor específico dentro de uma empresa, como o de TI. Como a prensa, o motor a combustão interna e eletricidade mudaram e moldaram a nossa atual sociedade, a IA mudará e moldará uma nova sociedade. Por isso países como a China criaram uma estratégia de Estado para IA. O estudo “Future in the balance? How countries are pursuing an AI advantage” mostra alguns exemplos de países que estão bem avançados nas suas estratégias de IA.

IA não é algo para ficar a cargo de gestores de nível médio nas empresas. Os países e as empresas (e nós como humanos e profissionais) devemos ter uma estratégia de IA. Nossas carreiras e profissões serão redesenhadas. Empresas serão criadas e outras extintas. Novos modelos de negócio e operação serão criadas pelo uso da IA. O poder geopolítico e econômico será modificado substancialmente.

Ainda não temos máquinas que pensam. Mas talvez sejamos capazes de um dia fabricarmos essas máquinas

Ainda não temos máquinas que pensam. Mas talvez sejamos capazes de um dia fabricarmos essas máquinas. Talvez consigamos evoluir do DL para o deep understanding (DU). Neste processo, precisamos fazer com que estas máquinas saibam distinguir o bem do mal. O que é e o que não é ético. Distinguir o certo do errado. O que é legal, mas errado, do que é ilegal. Nuances que nós humanos sabemos distinguir, mas as atuais máquinas não.

Por isso é que a IA é importante demais para ser deixada apenas nas mãos dos engenheiros de ML e cientistas de dados. Precisamos de diversidade de ideias e percepções para que realmente venhamos a ter uma verdadeira IA. Quando isso acontecer, não usaremos mais o termo IA. Já estará tão entranhada e invisível nas nossas vidas que não precisaremos mais chamá-la de nada. Ela já estará lá.

*Cezar Taurion é VP de Inovação da CiaTécnica Consulting, e Partner/Head de Digital Transformation da Kick Corporate Ventures. Membro do conselho de inovação de diversas empresas e mentor e investidor em startups de IA. É autor de nove livros que abordam assuntos como Transformação Digital, Inovação, Big Data e Tecnologias Emergentes. Professor convidado da Fundação Dom Cabral, PUC-RJ e PUC-RS.