O impacto da inteligência artificial (IA) para as próximas décadas será tão grande quanto foi o microprocessador para o século 20. Li alguns livros que abordam o desafio que a IA vai provocar na sociedade como um todo e que recomendo enfaticamente sua leitura, e que são a base dos comentários aqui.
Um instigante e polêmico livro foi “Superintelligence: paths, dangers, strategies”, de Nick Bostrom, diretor do Future of Humanity Institute, da Universidade de Oxford, no Reino Unido. Apesar do tema aparentemente ser inóspito, ele chegou a ser um dos best sellers do New York Times. Ele debate a possibilidade, real, do advento de máquinas com superinteligência, e os benefícios e riscos associados.
Bostrom pondera que os cientistas consideram que aconteceram cinco eventos de extinções em massa na história de nosso planeta, quando um grande número de espécimes desapareceu. O fim dos dinossauros, por exemplo, foi um deles. Hoje estaríamos vivendo uma sexta, essa causada pela atividade humana. Ele pergunta: será que nós não estaremos nessa lista?
Claro existem razões exógenas como a chegada de um meteoro, mas ele se concentra em uma possibilidade que parece saída de um filme de ficção científica, como o “Exterminador do Futuro”. O livro, claro, desperta polêmica e parece meio alarmista, mas suas suposições podem se tornar realidade.
Alguns cientistas se posicionam a favor deste alerta, como Stephen Hawking, que disse textualmente: “O desenvolvimento da inteligência artificial completa poderia significar o fim da raça humana.” Também Elon Musk, que é o fundador e CEO da Tesla Motors tuitou recentemente: “Vale a pena ler ‘Superintelligence” de Bostrom. Precisamos ser supercuidadosos com a IA. Potencialmente mais perigoso que as armas nucleares.”
A criação de máquinas inteligentes pode acelerar exponencialmente o processo de descobertas científicas
Pelo lado positivo, Bostrom aponta que a criação destas máquinas pode acelerar exponencialmente o processo de descobertas científicas, abrindo novas possibilidades para a vida humana. Uma questão em aberto é quando tal capacidade de inteligência seria possível.
Uma pesquisa feita com pesquisadores de IA aponta que uma máquina superinteligente - Human Level Machine Intelligence (HLMI) – tem 10% de chance de aparecer logo após 2020 e 50% em torno de 2050. Para 2100, a probabilidade é de 90%!
Fazer previsões e acertar é muito difícil. Por exemplo, em uma palestra há pouco mais de 80 anos, em setembro de 1933, o famoso físico Ernest Rutherford disse que qualquer um que diga que energia poderia ser derivada do átomo “estava falando um absurdo”. Mas, no dia seguinte, um cientista húngaro mostrou conceitualmente como isso poderia ser feito. O que pensamos que só irá acontecer em 30 ou 40 anos pode aparecer em apenas cinco anos.
O outro livro, “Homo Deus”, de Yuval Noah Harari, também provoca um debate interessante e lembra que a diferença fundamental entre seres humanos e máquinas é a diferença entre as relações para conhecimento. Para as máquinas a fórmula é conhecimento = dados empíricos x matemática.
Se quisermos saber a resposta para uma questão, reunimos dados empíricos e depois usamos ferramentas matemáticas para analisá-los. A fórmula científica do conhecimento leva a descobertas impressionantes na física, medicina e outras áreas. Mas há um enorme senão: essa fórmula não pode lidar com questões de valor e significado. Aí que entra a fórmula do conhecimento humano, que nos diferencia das máquinas: conhecimento = experiências x sensibilidade.
Experiências são fenômenos subjetivos como sensações (calor, prazer, tensão), emoções (amor, medo, ódio) e pensamentos. A sensibilidade é a atenção às experiências e como elas influenciam a pessoa em suas atitudes e comportamentos. Entretanto, alerta para o fato que, embora sem dispor de consciência, emoções e sensações, robôs e sistemas de IA estão assumindo o papel que era predominantemente humano.
O que Harari propõe é que a inteligência está se desacoplando da consciência
O que Harari propõe é que a inteligência está se desacoplando da consciência. Isso significa que sistemas não conscientes podem ser capazes de realizar tarefas muito melhor que humanos, como dirigir automóveis. A razão é simples: tais tarefas baseiam-se em padrões de reconhecimento e algoritmos não conscientes.
Um taxista humano, por exemplo, ao dirigir seu veículo, pode recordar de sua filha na escola e se emocionar, ou admirar a paisagem. Mas estes sentimentos não importam para a tarefa de levar um passageiro do ponto A ao ponto B. Os veículos autônomos podem fazer isso melhor que humanos, sem sentir emoções.
Os terceiro e quarto livros são “The Singularity Is Near: When Humans Transcend Biology” e “How to Create a Mind: The Secret of Human Thought Revealed”, ambos de Ray Kurzweil, do Google, que afirmou: “Na década de 2030 poderemos inserir nanorobôs no cérebro (através de capilares) que permitirão uma imersão total dentro do nosso sistema nervoso, conectando nosso neocórtex à nuvem. Assim, expandindo nosso neocortex na nuvem, poderemos expandir 10 mil vezes o poder de nossos smartphones."
Mas como se comportarão tais máquinas? De imediato, e até mesmo incentivado pelos filmes que vemos, podemos imaginar robôs inteligentes, mas sem capacidade de interação social. Serão lógicos, mas não criativos e intuitivos. Esse seria o grande diferencial do ser humano.
Sim, essa é a realidade hoje, quando a IA ainda está na sua infância. No máximo teríamos uma máquina, se similar a um humano, que seria um humano tipicamente nerd, excelente em matemática e algoritmos, mas ruim em interações sociais.
Mas, se o sistema conseguir evoluir automaticamente, pelo auto-aprendizado? Ele não poderia, por si, construir camadas cognitivas que incluíssem simulação de funcionalidades como empatia?
Uma máquina que alcance um QI elevadíssimo, como agiria? Sabemos hoje que uma pessoa com QI de 130 consegue ser muito melhor no aprendizado escolar que uma de 90. Mas, se a máquina chegar a um QI de 7.500? Não temos a mínima ideia do que poderia ser gerado por tal capacidade.
Como seria essa evolução? Primeiramente as nossas futuras pesquisas em IA criarão uma máquina superinteligente primitiva. Essa máquina, entretanto, seria capaz de recursiva e exponencialmente aumentar sua própria inteligência, sem demandar apoio de desenvolvedores humanos.
Suponhamos que as funcionalidades cognitivas criadas por ela mesma possibilitem que a máquina planeje estrategicamente (defina objetivos de longo prazo), desenvolva capacidade de manipulação social (persuasão retórica), obtenha acessos indevidos através de hacking (explorando falhas de segurança em outros sistemas) e desenvolva por si mesmo, novas pesquisas tecnológicas, criando novos componentes que lhe agregarão mais poder computacional ou de criação de novos objetos.
No futuro, teremos não só computadores, mas carros, objetos e redes elétricas conectadas
Que tal um cenário onde a máquina desenha um plano estratégico e claro? Se ela é superinteligente, não será um plano que nós humanos consigamos detectar. Afinal ela saberia de nossas deficiências. Assim, durante um tempo sua evolução seria disfarçada para que não fosse identificada.
Mesmo que confinada a um computador isolado, através da manipulação social (como hackers fazem hoje) convenceria seus administradores humanos a liberarem acesso à Internet e através de hacking conseguiria acessar todos os computadores ligados à rede.
Lembrando que esperamos que no futuro teremos não só computadores, mas carros, objetos e redes elétricas conectadas. Tudo estaria conectado. A sociedade humana estaria inteiramente dependente de computadores e objetos conectados. Feito isso, poderia colocar seu plano em prática. E, se nesse plano, os seres humanos fossem um entrave? Para ultrapassar esta barreira ao seu plano, ela poderia construir nanofábricas que produziriam nanorobôs que espalhassem um vírus mortal por todo o planeta.
Parece um roteiro de Hollywood, mas o que nos impede de pensar livremente nesses cenários? Afinal, como Bostrom disse: “Antes da perspectiva da IA, somos como crianças pequenas brincando com uma bomba”. Sugiro ler um estudo chamado “Concrete Problems in AI Safety” e para quem quiser se aprofundar no tema sugiro acessar Benefits & risks of Artificial Intelligence, que contém links para dezenas de vídeos, artigos e estudos sobre o tema.
O imaginário de ficção científica ainda predomina. A IA está hoje em um ponto similar ao da computação no início da década de 1950, quando os pioneiros estabeleceram as ideias básicas dos computadores. Mas, menos de 20 anos depois, os computadores tornaram possíveis sistemas de reservas de companhias aéreas e ATMs bancários e ajudaram a NASA a colocar o homem na Lua, resultados que ninguém poderia ter previsto nos anos 50. Adivinhar o impacto da IA e dos robôs em uma década ou duas está se tornando ainda mais difícil.
"Não é a inteligência artificial que me preocupa, é a estupidez humana", disse Neil Jacobstein
O que sabemos é que a IA já é realidade, e, tanto pode ser muito benéfica como pode embutir muitos riscos. Afeta empresas, empregos, sociedade e a economia. Obriga a revisão da atual formação educacional, e demanda fortes ações por parte de governos e empresas.
Provavelmente a questão econômica mais importante da economia nas próximas décadas pode ser o que fazer com as pessoas que perderão seu trabalho porque suas funções passaram a ser feitas por IA. O que nós, humanos, faremos quando tivermos em larga escala, algoritmos não conscientes e sumamente inteligentes fazendo muito do que fazemos hoje, mas bem melhor?
Portanto, é essencial que os governos, academia e as corporações de todos os setores de negócio compreendam o potencial da IA. Pela importância do assunto devemos estudar e compreender mais seus impactos na sociedade global e aqui no Brasil. Como o head de IA da Singularity University, Neil Jacobstein, disse: "Não é a inteligência artificial que me preocupa, é a estupidez humana". Ignorar ou minimizar a importância do assunto é o que nos deve preocupar.
*Cezar Taurion é Partner e Head of Digital Transformation da Kick Corporate Ventures e presidente do i2a2 (Instituto de Inteligência Artificial Aplicada). É autor de nove livros que abordam assuntos como Transformação Digital, Inovação, Big Data e Tecnologias Emergentes. Professor convidado da Fundação Dom Cabral. Antes, foi professor do MBA em Gestão Estratégica da TI pela FGV-RJ e da cadeira de Empreendedorismo na Internet pelo MBI da NCE/UFRJ.