A vergonha de expôr o que há no íntimo, a ilusória sensação de privacidade e a disponibilidade 24 por sete têm feito não só pessoas comuns, mas também executivos de alto escalão adotarem a interfaces conversacionais de inteligência artificial, como ChatGPT, Gemini e DeepSeek, como - nada mais, nada menos do que - terapeutas.
Em entrevista ao Revolução IA, programa do NeoFeed que tem o apoio do Magalu Cloud, o psicanalista André Alves, fundador do Float Vibes e co-host do programa Vibes em Análise, explicou os perigos e as consequências desse nível de interação.
Para ele, ao se acostumar com uma relação sem fricções - posto que o algoritmo foi feito para agradar seu usuário, o que leva ao uso cada vez mais frequente -, o ser humano se torna incapaz de tolerar frustrações, situações cotidianas e interações reais.
“Como é que alguém que tem uma relação sem fricções vai tolerar um almoço de domingo, uma conversa sobre as eleições, uma reunião de condomínio, uma reunião de pais e mestres na escola?” questiona.
O psicanalista explica que, ao receber as respostas que almeja ouvir, o sujeito termina por não conseguir estabelecer relações que não sejam mediadas por telas.
“Isso vai desenvolvendo uma espécie de cinismo generalizado, em que a gente despreza o outro e está convencido de que, se o outro não está à nossa altura, não pensa igual, merece morrer ou ser descartado. Não tem saúde social dessa forma. A gente precisa se importar com o outro.”
Alves levantou também a reflexão se vale a pena adotar inteligência artificial para o máximo de tarefas possível em prol do ganho de produtividade. Na visão dele, ao transferir a maioria das decisões, entra-se em um estado de recessão cognitiva, perdendo o senso crítico.
Segundo o psicanalista, os líderes e executivos estão terceirizando seu pensamento às máquinas, muitas vezes sem compreender a origem dos dados ou os critérios por trás das respostas que recebem, perdendo o discernimento humano e abrindo mão da própria capacidade crítica.