À medida que a sociedade se digitaliza, aumentam as oportunidades e as chances de ataques cibernéticos. Com a crescente adoção de código open source, computação em nuvem e algoritmos de IA, o ferramental à disposição dos cibercriminosos aumenta exponencialmente.

Um sintoma é o crescente aparecimento de ataques baseados no que conhecemos como “Deepfakes”, que é o uso de algoritmos de IA para criar simulações falsas de pessoas, como mensagens de áudio e até mesmo vídeos.

Sim, vídeos realistas de pessoas fazendo coisas que nunca aconteceram se tornam surpreendentemente fáceis de criar. Leiam o artigo “Anyone with an iPhone can now make deepfakes. We aren’t ready for what happens next” para uma ideia do que já é possível fazer com um simples smartphone.

Algumas estimativas apontam que o número de vídeos falsos foi multiplicado por dez de 2019 para 2020. E também se estima que o custo para produzir um Deepfake “state-of-the-art” é inferior a US$ 30 mil, facilitando em muito a sua criação.

Isso, obviamente, chama atenção e aumenta a preocupação de que essa tecnologia se torne cada vez mais uma fonte de desinformação, fraude e extorsão. Alguns estudos apontam a gravidade potencial da situação.

Recomendo a leitura do estudo “Deepfakes: A Grounded Threat Assessment”, publicado pelo CSET (Center for Security and Emerging Technology), da Georgetown University, nos EUA. São cerca de 50 páginas que descrevem o que são Deepfakes, como são criados e os riscos potenciais de seu uso criminoso.

Recentemente, veio a público um caso de roubo praticado com técnicas de Deepfake. Um grupo de cibercriminosos nos Emirados Árabes Unidos usou a tecnologia como parte de um roubo a um banco, que transferiu um total de US$ 35 milhões para fora do país, distribuído em diversas contas espalhadas por todo o mundo.

O processo foi simples. Basicamente, usou-se algoritmos de machine learning (ML) para fazer uma versão falsa da voz de um cliente do banco. Nesse caso, os criminosos usaram um algoritmo para recriar a voz de um executivo de uma grande empresa. Em seguida, ligaram para um gerente de banco que era um dos responsáveis pelo relacionamento com o executivo e que, portanto, conhecia sua voz.

Algumas estimativas apontam que o número de vídeos falsos foi multiplicado por dez de 2019 para 2020

Os falsificadores também enviaram e-mails falsos a esse gerente, confirmando os detalhes das transações solicitadas. Entre os e-mails e a voz familiar, quando o executivo pediu ao gerente que autorizasse a transferência de milhões de dólares entre algumas contas, o gerente não viu nenhum problema e seguiu em frente, fazendo o que foi solicitado.

A fraude ocorreu em janeiro de 2020 e as autoridades dos Emirados Árabes Unidos estão agora pedindo ajuda à investigadores nos EUA para rastrear US$ 400 mil do dinheiro roubado que foi para contas bancárias americanas.

Esse assalto não foi o primeiro a usar a tecnologia, mas foi a primeira vez que se conseguiu roubar uma grande quantia de dinheiro usando uma voz falsa. Em 2019, um grupo de criminosos falsificou a voz do CEO de uma empresa de energia sediada no Reino Unido para transferir US$ 243 mil para uma conta bancária na Hungria.

É um exemplo real que talvez prolifere com o tempo, com mais e mais algoritmos sendo disponibilizados. Como acontece com qualquer sistema de aprendizado de máquina, seu resultado melhora com base na quantidade e qualidade de seus dados de entrada.

Uma voz falsa soará mais como a real se houver um volume adequado de gravações para o sistema “aprender”. Por isso, é bem provável que um dos seus maiores usos será falsificar voz e atos de personalidades públicas, como artistas e políticos, que deixam uma pegada digital imensa.

Muitas versões de software Deepfake de áudio já estão disponíveis comercialmente, como o Lyrebird, que precisa de apenas uma gravação de um minuto para criar uma voz sintética, embora ainda reconhecível como falsa.

Claro que esses sistemas não foram criados com objetivos escusos, mas para uso positivo como pessoas com deficiência de fala os usarem para se comunicar com outras as pessoas.

Existem diversos outros usos positivos, como permitir a artistas licenciarem suas vozes para propagandas de produtos ou gravar audiolivros ou podcasts. A Sonantic recentemente criou um clone de voz para Val Kilmer, cuja voz foi danificada na sua batalha contra o câncer na garganta. O vídeo com a voz do ator gerada pelo sistema pode ser visto aqui.

Pesquisadores já mostraram que os algoritmos que detectam Deepfakes também podem ser enganados

Com a possibilidade de usarmos provedores de nuvem para aprimorar os algoritmos com custos de processamento baixos e imaginarmos que a evolução tecnológica avança a passos cada vez mais rápidos, os vídeos que vemos hoje, que ainda são detectáveis como falsos à olho nu, talvez em poucos anos só sejam detectados por outro algoritmo de IA.

Já vemos algumas iniciativas nesse sentido, como o Video Authenticator, da Microsoft. Entretanto, a guerra contra o cibercrime não é fácil. Pesquisadores já mostraram que os algoritmos que detectam Deepfakes também podem ser enganados. O paper “Deepfake detectors can be defeated, computer scientists show for the first time” descreve esse cenário.

Combater a tecnologia com mais ou melhor tecnologia pode ser uma de nossas melhores alternativas, mas também é importante aumentar a conscientização sobre os Deepfakes e incutir na sociedade um amplo senso de análise crítica em relação ao conteúdo que veem online.

Na nossa sociedade cada vez mais digitalizada, onde o que puder ser automatizado, o será, ter fluência digital e conhecimento do que é IA e o que são algoritmos já se torna tão importante quanto saber ler e escrever.

Cezar Taurion é VP de Inovação da CiaTécnica Consulting, e Partner/Head de Digital Transformation da Kick Corporate Ventures. Membro do conselho de inovação de diversas empresas e mentor e investidor em startups de IA. É autor de nove livros que abordam assuntos como Transformação Digital, Inovação, Big Data e Tecnologias Emergentes. Professor convidado da Fundação Dom Cabral, PUC-RJ e PUC-RS