O impacto da inteligência artificial (IA) para as próximas décadas será tão grande quanto foram a eletricidade, o motor a combustão, o microprocessador e a internet para o século 20.

A revolução conduzida pela IA está chegando tão rápido que temos dificuldade em imaginar como ela evoluirá. Até onde poderemos chegar? Ray Kurzweil, do Google, afirma: “Na década de 2030, poderemos inserir nanorobôs no cérebro (através de capilares) que permitirão uma imersão total dentro do nosso sistema nervoso, conectando nosso neocórtex à nuvem. Assim, expandindo nosso neocortex na nuvem, poderemos expandir 10.000 vezes o poder de nossos smartphones."

Recentemente, Elon Musk, com sua empresa Neuralink, fez uma previsão bem otimista que em cerca de um ano poderia começar testes com chips inseridos em seres humanos. Vejam o artigo “Elon Musk's Neuralink could transition from implanting chips in monkeys to humans within the year” e um vídeo com a experimentação em um macaco aqui.

O imaginário de ficção científica ainda predomina. A IA está hoje em um ponto similar ao da computação no início da década de 1950, quando os pioneiros estabeleceram as ideias básicas dos computadores. Mas, menos de 20 anos depois, os computadores tornaram possíveis sistemas de reservas de companhias aéreas e ATMs bancários e ajudaram a NASA a colocar o homem na lua, resultados que ninguém poderia ter previsto nos anos 1950.

Adivinhar o impacto da IA e dos robôs em uma década ou duas está se tornando ainda muito mais difícil. O que sabemos é que a IA já é realidade, e, tanto pode ser muito benéfica como pode embutir muitos riscos. Afeta empresas, empregos, sociedade e a economia. Obriga a revisão da atual formação educacional e demanda fortes ações por parte de governos e empresas.

Provavelmente, a questão econômica mais importante da economia nas próximas décadas, pode ser o que fazer com as pessoas que perderão seu trabalho porque suas funções passaram a ser feitas por IA. O que nós, humanos, faremos quando tivermos, em larga escala, algoritmos não conscientes e inteligentes fazendo muito do que fazemos hoje, mas bem melhor?

O que sabemos é que a IA já é realidade e tanto pode ser muito benéfica como pode embutir muitos riscos. Afeta empresas, empregos, sociedade e a economia

E um debate intrigante e controverso é se um dia chegaremos a ter máquinas realmente inteligentes. Os sistemas de IA que temos hoje são chamados de “narrow AI”, pois fazem basicamente uma única coisa. Um sistema de IA que joga xadrez não dirige um carro e nem analisa imagens de câncer de mama.

Por outro lado, um ser humano pode fazer tudo isso. Nas máquinas, um sistema abrangente que fizesse isso é chamado comumente de AGI, de Artificial General Intelligence. O termo AGI está popular há pouco mais de uma década, mas as ideias que ele encapsula existem desde o início dos computadores.

Com a recente série de sucessos que estamos vendo com a IA, do campeão de jogos de xadrez AlphaZero ao convincente gerador de textos GPT-3, aumentaram muito as conversas sobre AGI. Mesmo que essas ferramentas ainda estejam muito longe de representar a inteligência "geral" - AlphaZero não pode escrever histórias e GPT-3 não pode jogar xadrez, muito menos entender por que histórias e xadrez são importantes para as pessoas - o objetivo de construir um AGI, antes considerado ficção, está se tornando aceitável novamente.

Alguns dos maiores e mais respeitados laboratórios de IA do mundo levam esse objetivo muito a sério. A OpenAI disse que quer ser o primeiro a criar uma máquina com habilidades de raciocínio semelhantes às humanas. A declaração de missão não oficial, mas amplamente repetida da DeepMind, é "resolver a inteligência".

A evolução da IA está em um ritmo muito acelerado e cada dia vemos mais um avanço que pode significar um passo nessa direção. Por exemplo, pesquisadores do National Institute of Standards and Technology estão propondo um novo modelo de computadores, que pode espelhar mais precisamente o funcionamento do nosso cérebro. Vale a pena ler “Advancing AI With a Supercomputer: A Blueprint for an Optoelectronic ‘Brain’”.

Já existe uma vasta literatura debatendo o assunto. Um instigante e polêmico livro foi “Superintelligence: paths, dangers, strategies”, de Nick Bostrom, diretor do Future of Humanity Institute, da Universidade de Oxford, no Reino Unido. Apesar do tema aparentemente ser inóspito, ele chegou a ser um dos best sellers do The New York Times. Hoje, inclusive, tem uma edição traduzida para o português.

Bostrom debate a possibilidade, real, do advento de máquinas com superinteligência, e os benefícios e riscos associados. Ele pondera que os cientistas consideram que houve cinco eventos de extinções em massa na história de nosso planeta, quando um grande número de espécimes desapareceu. O fim dos dinossauros, por exemplo, foi um deles e que hoje estaríamos vivendo uma sexta, essa causada pela atividade humana. Ele pergunta: será que nós não estaremos nessa lista?

Claro que existem razões exógenas como a chegada de um meteoro, mas ele se concentra em uma possibilidade que parece saída de filme de ficção científica, como o “Exterminador do Futuro”. O livro, claro, desperta polêmica e parece meio alarmista, mas suas suposições podem se tornar realidade.

Alguns cientistas se posicionam a favor deste alerta, como o falecido Stephen Hawking, que disse textualmente: “O desenvolvimento da inteligência artificial completa pode significar o fim da raça humana”. Também Elon Musk, que é o fundador e CEO da Tesla Motors, tuitou: “Vale a pena ler “Superinteligência” de Bostrom. Precisamos ter muito cuidado com a IA. Potencialmente mais perigoso do que armas nucleares”.

Pelo lado positivo, Bostrom aponta que a criação destas máquinas pode acelerar exponencialmente o processo de descobertas científicas, abrindo novas possibilidades para a vida humana. Uma questão em aberto é quando tal capacidade de inteligência seria possível. Uma pesquisa feita com pesquisadores de IA, apontam que uma máquina superinteligente - Human Level Machine Intelligence (HLMI) – tem 10% de chance de aparecer logo após 2020 e 50% em torno de 2050. Para 2100, a probabilidade é de 90%!

Outro livro, “Homo Deus”, de Yuval Noah Harari, também provoca um debate interessante e lembra que a diferença fundamental entre seres humanos e máquinas é a diferença entre as relações para conhecimento. Para as máquinas a fórmula é conhecimento = dados empíricos x matemática. Se quisermos saber a resposta para uma questão, reunimos dados empíricos e depois usamos ferramentas matemáticas para analisá-los.

A fórmula científica do conhecimento leva a descobertas impressionantes na física, medicina e outras áreas. Mas há um enorme senão: essa fórmula não pode lidar com questões de valor e significado. Aí que entra a fórmula do conhecimento humano, que nos diferencia das máquinas: conhecimento =  experiências x sensibilidade.

Experiências são fenômenos subjetivos como sensações (calor, prazer, tensão), emoções (amor, medo, ódio) e pensamentos. A sensibilidade é a atenção às experiências e como elas influenciam a pessoa em suas atitudes e comportamentos. Entretanto, alerta para o fato que, embora sem dispor de consciência, emoções e sensações, robôs e sistemas de IA estão assumindo o papel que era predominantemente humano.

O que ele propõe é que a inteligência está se desacoplando da consciência. Isso significa que sistemas não conscientes podem ser capazes de realizar tarefas muito melhor que humanos, como dirigir automóveis. A razão é simples: tais tarefas baseiam-se em padrões de reconhecimento e algoritmos não conscientes.

Um taxista humano, por exemplo, ao dirigir seu veículo pode recordar de sua filha na escola e se emocionar, ou admirar a paisagem. Mas estes sentimentos não importam para a tarefa de levar um passageiro do ponto A ao ponto B. Os veículos autônomos podem fazer isso melhor que humanos, sem sentir emoções.

Mas, mesmo sem sistemas de AGI, o uso intensivo de IA, já tomando decisões por nós, pode trazer impactos significativos na nossa sociedade. O artigo “Hackers Used to Be Humans. Soon, AIs Will Hack Humanity” explora esse tema. O autor lembra que a IA acabará encontrando vulnerabilidades em todos os tipos de sistemas sociais, econômicos e políticos e, em seguida, poderá explorá-las em velocidade, escala e escopo sem precedentes.

O uso intensivo de IA, já tomando decisões por nós, pode trazer impactos significativos na nossa sociedade

Depois de hackear a humanidade, os sistemas de IA então hackearão outros sistemas de IA, e os humanos serão então apenas um pouco mais do que danos colaterais. A razão é simples: como os sistemas de IAs não resolvem problemas da mesma forma que as pessoas, eles invariavelmente encontrarão soluções que nós, humanos, poderíamos nunca ter previsto - e alguns subverterão a intenção do sistema.

Isso porque os sistemas de IAs não pensam em termos de implicações, contexto, normas e valores que nós, humanos, compartilhamos e tomamos como garantidos. Essa recompensa do sistema de IA envolve atingir um objetivo, mas de uma forma que os projetistas da IA ​​não queriam nem pretendiam.

Como se comportarão as tais máquinas “inteligentes”? De imediato, e até mesmo incentivado pelos filmes que vemos, podemos imaginar robôs inteligentes, mas sem capacidade de interação social. Serão lógicos, mas não criativos e intuitivos. Esse seria o grande diferencial do ser humano. Sim, essa é a realidade hoje, quando a IA ainda está na sua infância. No máximo, teríamos uma máquina, se similar a um humano, que seria um humano tipicamente nerd, excelente em matemática e algoritmos, mas ruim em interações sociais.

Mas, se o sistema conseguir evoluir automaticamente, pelo autoaprendizado? Ele não poderia, por si, construir camadas cognitivas que incluíssem simulação de funcionalidades como empatia?

Uma máquina que alcance um QI elevadíssimo, como agiria? Sabemos hoje que uma pessoa com QI de 130 consegue ser muito melhor no aprendizado escolar que uma de 90. Mas, se a máquina chegar a um QI de 7.500? Não temos a mínima ideia do que poderia ser gerado por tal capacidade.

Como seria essa evolução? Primeiramente as nossas futuras pesquisas em IA criarão uma máquina superinteligente primitiva. Essa máquina, entretanto, seria capaz de recursiva e exponencialmente aumentar sua própria inteligência, sem demandar apoio de desenvolvedores humanos.

Suponhamos que as funcionalidades cognitivas criadas por ela mesma possibilitem que a máquina planeje estrategicamente (defina objetivos de longo prazo), desenvolva capacidade de manipulação social (persuasão retórica), obtenha acessos indevidos através de hacking (explorando falhas de segurança em outros sistemas) e desenvolva por si mesmo, novas pesquisas tecnológicas, criando novos componentes que lhe agregarão mais poder computacional ou de criação de novos objetos.

Como o chairman de IA e robótica da Singularity University, Neil Jacobstein, disse: "Não é a inteligência artificial que me preocupa, é a estupidez humana"

Que tal um cenário onde a máquina desenha um plano estratégico e claro, se ela é superinteligente, não será um plano que nós humanos consigamos detectar. Afinal ela saberia de nossas deficiências. Assim, durante um tempo sua evolução seria disfarçada para que não fosse identificada.

Mesmo que confinada a um computador isolado, através da manipulação social (como hackers fazem hoje) convenceria seus administradores humanos a liberarem acesso à internet, e através de hacking conseguiria acessar todos os computadores ligados à rede. Lembrando que esperamos que no futuro teremos não só computadores, mas carros conectados, objetos conectados, redes elétricas conectadas. Tudo estaria conectado.

A sociedade humana estaria inteiramente dependente de computadores e objetos conectados. Feito isso, poderia colocar seu plano em prática. E se nesse plano, os seres humanos fossem um entrave? Para ultrapassar esta barreira ao seu plano, ela poderia construir nanofábricas que produziriam nanorobôs que espalhassem um vírus mortal por todo o planeta.

Parece um roteiro sci-fi de Hollywood, mas o que nos impede de pensar livremente nesses cenários? Afinal, como Bostrom disse: “Diante da perspectiva da IA, somos como crianças brincando com uma bomba”.

Portanto, é essencial que os governos, academia e as corporações de todos os setores de negócio compreendam o potencial e riscos da IA. Pela importância do assunto devemos estudar e compreender mais seus impactos na sociedade global e aqui no Brasil. Como o chairman de IA e robótica da Singularity University, Neil Jacobstein, disse: "Não é a inteligência artificial que me preocupa, é a estupidez humana". Ignorar ou minimizar a importância do assunto é o que deve nos preocupar.

Cezar Taurion é VP de Inovação da CiaTécnica Consulting, e Partner/Head de Digital Transformation da Kick Corporate Ventures. Membro do conselho de inovação de diversas empresas e mentor e investidor em startups de IA. É autor de nove livros que abordam assuntos como Transformação Digital, Inovação, Big Data e Tecnologias Emergentes. Professor convidado da Fundação Dom Cabral, PUC-RJ e PUC-RS.