EXPERTSMENTE PROGRAMADA

Inteligência artificial mudará a medicina, mas não acabará com o papel do médico

A inteligência artificial pode e deve ser aplicada à medicina. Mas os médicos não serão substituídos por algoritmos. Ao contrário, eles deverão atuar em sinergia e colaboração

 

Este é o segundo artigo de nossa série de aplicações da IA em saúde. Para falar de saúde não basta apenas olhar para o setor. Uma pessoa que é cliente de alguma empresa de varejo ou transporte aéreo também é paciente de um médico ou hospital. Embora os momentos de contato com essas organizações sejam diferentes e, portanto, as demandas sejam diferentes, a pessoa é a mesma.

Uma experiência positiva que ele teve em algum destes contatos, faz com que a experiência que ele demande no setor de saúde também seja elevada. No ano passado, li um artigo interessante, “Disruption Starts with Unhappy Customers, Not Technology”, publicado pela HBR, que me levou a ler o livro do autor, Thales Teixeira, professor da Harvard Business School, “Unlocking the Customer Value Chain: How Decoupling Drives Consumer Disruption”. No livro ele aponta que os dois setores que mais despontam com potencial de disrupção são educação e saúde.

Recentemente, um artigo de Kai-Fu Lee, “Covid-19 Will Accelerate the AI Health Care Revolution”, publicado na Wired, mostra como a inteligência artificial (IA) pode e deverá ser o suporte da disrupção da saúde. Como estes dois sinais, aparentemente desconexos, se conectam?

Comecemos com uma história pessoal. No fim de 2018, meu organismo foi infectado por um vírus que se alojou na minha tireoide. No início, eu não sabia disso. Parecia uma dor de garganta comum em gripes. Começou a incomodar e fui primeiro a um clínico geral que me analisou em tempo recorde e disse para não me preocupar. Passaria rápido.

Mas eu pressentia que algo não estava de acordo com as dores de garganta anteriores, pois tinha um ponto dolorido. Comecei pesquisar na internet e me pareceu que seria uma tireoidite de Quervain. Sim, não sou médico, mas se analisarmos estudos e artigos na web, conseguimos identificar sinais claros que podem até apontar um diagnóstico inicial, a ser, claro, confirmado por um médico.

Fui a um otorrino, pois não tinha certeza do meu diagnóstico de leigo. Ele olhou e disse que não seria nada para me preocupar, mas para me acalmar solicitou um exame de ultra. Bingo, o exame apontou que meu diagnóstico leigo estava correto.

Recorri então a um endócrino que confirmou o diagnóstico e me receitou uma medicação que me pareceu adequada. Entretanto, a tireoidite provocou um hipertireoidismo e com isso meu metabolismo acelerou. Falei com ele e sua resposta foi que era assim mesmo, que em poucos dias o metabolismo se normalizaria. Mas, em janeiro de 2019, por ter algumas placas nas artérias, uma delas se soltou e provocou um dor forte no peito, que me fez correr até um hospital. Infarto e consequente aplicação de um stent. O que aprendi?

Primeiro, erros de diagnóstico acontecem. Segundo, a excessiva especialização faz com que cada médico olhe apenas para um pequeno detalhe da pessoa, deixando de lado todos os outros aspectos. Como um organismo não é uma máquina com peças isoladas, esta excessiva especialização faz com que o todo, não sendo observado, impede muitas vezes que o diagnóstico seja abrangente.

Diagnósticos incorretos são muito mais comuns que imaginamos. Um estudo feito nos EUA, “The frequency of diagnostic errors in outpatient care: estimations from three large observational studies involving US adult populations” fala em cerca de 12 milhões de diagnósticos incorretos por ano.

Estima-se que existam cerca de 10 mil doenças humanas catalogadas e nenhum médico conseguiria recordar de todas elas

A culpa não é do médico, mas do sistema como um todo, que impõe um stress na carga de trabalho do profissional e da complexidade do corpo humano. Estima-se que existam cerca de 10 mil doenças humanas catalogadas e nenhum médico conseguiria recordar de todas elas e de suas características, por mais que se aprofunde nos estudos.

Como então os médicos agem, na prática? Eles identificam sinais mais nítidos e rapidamente seguem uma árvore de decisão com uma curta lista de hipóteses, conjunturas e conclusões, às vezes no processo de tentativas e erros. Na maioria das vezes, essas ações são automáticas e intuitivas, baseadas nas suas experiências anteriores. O mantra é que as doenças mais comuns ocorrem mais comumente. Teorema de Bayes na sua essência.

Assim, as experiências anteriores moldam as experiências futuras. Além disso, nem sempre os médicos têm feedback de seus diagnósticos, pois muitas vezes, os pacientes, insatisfeitos com o resultado, mudam de médico, como eu mesmo fiz. Aquele otorrino jamais soube que eu tinha tireoidite. Ele não teve oportunidade de validar seu diagnóstico e não aprendeu com a experiência.

Neste contexto, a IA tem papel essencial. Entretanto, sua aplicação deve ser feita com cuidado. Muitas vezes, o resultado pode não ser o adequado. Uma aplicação comum, é o cheque de sintomas, útil em situações de crise, como na atual pandemia da Covid-19. Para situações emergenciais estes apps são úteis, mas para identificação de doenças podem ser enganosos, mesmo porque muitas vezes as pessoas respondem de forma subjetiva às perguntas que eles fazem. Quanto mais variáveis subjetivas, menos eficazes são os algoritmos.

Outra área onde a tecnologia de IA pode contribuir é ajudando os médicos a buscar auxílio em diagnósticos. Existem algumas plataformas que fazem isso, como Medscape Consult, que pode ser vista no artigo “From second to hundredth opinion in medicine: A global consultation platform for physicians” e o projeto Human Dx, “Doctors Get Their Own Second Opinions”.

Outra plataforma, a CrowdMed, cria desafios que auxiliem diagnósticos mais complicados, fora do alcance de um único médico, colocando este desafio para uma comunidade que não apenas inclui médicos, mas pesquisadores e até mesmo outros pacientes.

A jornada não é fácil, como alguns exemplos mostram. A própria IBM, alguns anos atrás, começou com muito otimismo e teve que recomeçar muitas vezes. O artigo “IBM pitched its Watson supercomputer as a revolution in cancer care. It’s nowhere close” mostra que não é fácil assumir tarefas cognitivas feitas por humanos. Os resultados foram desapontadores e a ênfase diminuiu nos últimos anos.

Os artigos “IBM’s Watson Health wing left looking poorly after ‘massive’ layoffs” de 2018 e este, agora de maio deste ano, “IBM cuts deep into workforce – even its Watson and AI teams – as it ‘pivots’ to cloud”, indicam que mesmo corporações gigantescas não encontram caminhos fáceis na aplicação de IA em medicina.

Quando a abrangência da aplicação é ampla, como “cura do câncer”, e a subjetividade são predominantes, a IA não tem respostas, pelo menos ainda

Isso indica que IA não será útil? Em absoluto. Indica que não devemos buscar, no momento, aplicação de IA de forma muito abrangente, por uma razão simples. IA não é inteligente. Apenas aparenta ser inteligente. Quando a abrangência da aplicação é ampla, como “cura do câncer”, e a subjetividade são predominantes, a IA não tem respostas, pelo menos ainda.

Mas, se focarmos em coisas muito estreitas, como a que chamamos de “narrow AI”? Os resultados são bem positivos. Por exemplo, a plataforma Face2Gene ajuda a diagnosticar doenças raras analisando sutis características faciais, que passam imperceptíveis aos médicos. O artigo “Diagnosing Disease with a Snapshot” mostra sua aplicabilidade.

Para não criarmos expectativas otimistas demais e nem deixarmos de lado o imenso potencial de aplicação da IA na medicina, vamos relembrar alguns pontos. O mais importante é entender o potencial e limitações de Deep Learning.

Para muitos, DL é o atual estado da arte em IA. É indiscutível que DL tem potencial de criar valor para muitas e muitas aplicações, permitindo a criação de soluções que não pensávamos ser possível alguns anos atrás. Por outro lado, apesar da potencialidade dos algoritmos de DL temos que entender suas limitações, para não imaginarmos que conseguiremos agora, resolver todos os problemas do mundo.

Mas o que é DL? É um subconjunto do aprendizado de máquina (Machine Learning) baseado em um modelo conceitual do cérebro humano chamado “redes neurais”. É chamado de DL porque as redes neurais têm várias camadas que se interconectam: uma camada de entrada que recebe dados, camadas intermediárias que calculam os dados e uma camada de saída que fornece a análise. Em síntese, deep significa profundidade dos níveis de redes neurais.

As técnicas de DL são especialmente úteis para analisar dados complexos, ricos e multidimensionais, como voz, imagens e vídeo. IA é apenas um conjunto de técnicas e algoritmos, que, apenas exibem comportamento que nos parece ser inteligente.

Por exemplo, na leitura de textos, nós como humanos, analisamos a sentença, a desconstruímos em substantivos, verbos e adjetivos, mas com a compreensão do todo. Conectamos a sentença com o que nós sabemos sobre o mundo à nossa volta, juntamos gírias e ironias com as ideias e intenções, até mesmo não explícitas, que entendemos fazer sentido.

As máquinas não entendem o significado das palavras. Elas conseguem interagir com as sentenças pois usam modelos matemáticos que definem estatisticamente que após cada palavra vem uma outra e escolhe por probabilidade qual será a escolhida. Para uma máquina, encontrar a palavra câncer em uma frase tem tanto significado quanto a palavra caneta. Não é afetada emocionalmente.

Claro, isso não a impede de simular inteligência e permitir que haja interação com uma pessoa através de um chatbot, parecendo mesmo que ela está entendendo o que a pessoa está dizendo. Mas, para isso, algoritmos de DL precisam ser treinados com um massivo e específico volume de dados.

Um chatbot que entenda uma pessoa em uma interação com um banco precisa ser treinado com milhões de interações de pessoas com os atendentes deste banco, para absorver a estrutura da interação. Mas, como DL é uma “narrow AI”, ou seja, precisa ser treinado para algo bem específico, não conseguimos pegar diretamente este chatbot de banco e colocá-lo para interagir com um usuário de um plano de saúde.

Embora muitos diálogos sejam similares, aparecerão termos específicos do setor que o chatbot nunca viu e, portanto, não pôde ser treinado em como reagir adequadamente a eles. A mesma coisa acontece se treinarmos algoritmos de tradução para traduzir documentos jurídicos. Eles não conseguirão traduzir documentos médicos, pois os termos serão completamente diferentes. Portanto, não temos como pegar um algoritmo treinado para fazer algo e pedir para ele fazer outra coisa.

Mesmo um algoritmo treinado para interagir com um cliente de banco não conseguirá de imediato atender adequadamente um cliente de uma empresa aérea. Precisa ser retreinado com os dados das interações dos clientes com a empresa aérea. DL não sabe reagir a situações insólitas.

As máquinas também não têm consciência. Quando o Watson venceu o “Jeopardy!”, ele não saiu para comemorar com os amigos. Quando AlphaGo venceu Lee Sedol no Go, ele não teve a mínima ideia do que fez. Cumpriu o que seus algoritmos tinham que fazer e pronto.

AlphaGo não sabe fazer outra coisa a não ser jogar Go. Não sabe jogar xadrez. Isso impede que usemos IA para atividades que demandam empatia.  Por exemplo na saúde, a máquina pode fazer bem a análise de imagens, mas como na verdade não veem, mas simplesmente enxergam pixels, não podem substituir o médico nas interações onde os cuidados médicos demandam personalização e humanidade.

Uma outra limitação do DL é sua opacidade. Como não existem regras específicas e bem compreendidas, como em uma árvore de decisão, temos uma situação onde o mesmo algoritmo diante de dados diferentes toma atitudes diferentes. E não sabemos explicar o porquê!

Imagine um algoritmo que acerta 95% das vezes e quando erra, em 5%, não sabemos por que errou

Em determinadas situações, isso pode ser complicado. Imagine um algoritmo que acerta 95% das vezes e quando erra, em 5%, não sabemos por que errou. Para determinadas aplicações precisamos ter total confiança na máquina. Como DL não consegue explicar o porquê de suas decisões e nem garantir resultados (lembrem-se que IA é probabilístico e não determinístico) não poderá ser aplicado a tudo.

Você deixaria um robô cuidar de seu avô quando ele faria o atendimento correto 95% das vezes, mas o jogaria no chão ou pela janela nas outros 5%?  Entretanto, será que opacidade já não é algo inerente à medicina? Não sabemos como determinados medicamentos agem e muito menos temos determinismos nos diagnósticos. A medicina é probabilística pois não compreendemos com precisão o funcionamento do corpo humano.

O artigo “Deep Learning Is a Black Box, but Health Care Won’t Mind” mostra que a IA pode gerar diagnósticos de imagem com muito mais precisão que médicos especialistas e mesmo sem sabermos exatamente como o algoritmo chegou a determinada conclusão, os médicos humanos também não saberiam dizer exatamente como chegaram a muitos diagnósticos. “Por intuição”, é que o muitos dizem.

O cuidado que devemos tomar com uso de IA em medicina é evitar vieses, garantir privacidade e manter ética como base de qualquer projeto. Quando falamos em ética surge a discussão sempre presente, que começou com veículos autônomos, na questão moral e ética de decisão que ele deverá tomar em caso de iminente acidente ou atropelamento. Quem ele escolherá para morrer?

Agora, vamos levar isso para o campo da medicina. Em situações de crise, como na atual pandemia, com leitos de UTI lotados, sem espaço para todos, algumas decisões difíceis devem ser tomadas por médicos. Quem vai para o leito e quem não vai?

O uso da IA pode contribuir, adicionando informações além do conhecimento do médico, como reação daquela pessoa específica ao tratamento, com uso de dados genômicos e outras análises preditivas, e não apenas baseado em dados superficiais como idade e/ou comorbidades adicionais.

Mas, por outro lado, as preocupações com vieses aumentam. Estamos dando passos iniciais em um mundo cada vez mais recheado de algoritmos, que estarão conosco nos ajudando em decisões e eventualmente tomando decisões autônomas.

Isso nos mostra quão importante é a IA e que sua aplicação, principalmente em áreas sensíveis, não pode ficar apenas restrita e decisões de engenheiros de ML. Deve ser uma implementação com conhecimentos transversais. Vale a pena ler o artigo “Choosing Between Life and Death During COVID-19: The A.I. Trolley Problem”.

Creio que este artigo nos leva a algumas conclusões: IA pode e deve ser aplicada à medicina. Por outro lado, a jornada não é simples e os médicos não serão substituídos por algoritmos de IA. Mas deverão atuar em sinergia e colaboração. Um médico com IA será muito mais eficiente que um médico sem IA. No terceiro artigo, vamos explorar um pouco mais a aplicação da IA em análise de padrões, como imagens, onde a tecnologia tem papel importante.

Leia também:
– A medicina está doente. Mas a inteligência artificial vai salvá-la

*Cezar Taurion é Partner e Head of Digital Transformation da Kick Corporate Ventures e presidente do i2a2 (Instituto de Inteligência Artificial Aplicada). É autor de nove livros que abordam assuntos como Transformação Digital, Inovação, Big Data e Tecnologias Emergentes. Professor convidado da Fundação Dom Cabral. Antes, foi professor do MBA em Gestão Estratégica da TI pela FGV-RJ e da cadeira de Empreendedorismo na Internet pelo MBI da NCE/UFRJ

Leia também

Newsletter

Receba notícias do NeoFeed no seu e-mail

 
Li, compreendi e concordo com os Termos de Uso e Política de Privacidade
do site.

UM CONTEÚDO:

Newsletter

Receba notícias do NeoFeed no seu e-mail

 
Li, compreendi e concordo com os Termos de Uso e Política de Privacidade
do site.

NEOFEED REPORT

Baixe o relatório “O mapa de ataque das grandes empresas”

VÍDEOS

Assista aos programas CAFÉ COM INVESTIDOR e CONEXÃO CEO