Revista Exame

Os riscos dos deepfakes corporativos

A IA generativa pode trazer novos riscos de segurança para as empresas, que precisam aprender a se defender do cibercrime

Eduardo Felipe Matias
Eduardo Felipe Matias

Advogado e escritor

Publicado em 25 de abril de 2024 às 06h00.

Última atualização em 2 de maio de 2024 às 14h20.

A primeira reação do funcionário do departamento financeiro da filial da empresa em Hong Kong, ao receber o e-mail, foi de suspeita. Por que o CFO da multinacional, com base no Reino Unido, lhe pediria que efetuasse uma transação secreta? A dúvida se dissipou quando, em uma videoconferência, o próprio CFO e outros colegas conhecidos reiteraram a ordem. Obediente, ele realizou múltiplas transferências, totalizando mais de 25 milhões de dólares, para diversas contas em Hong Kong.

Uma semana depois, desconfiado, o funcionário resolveu verificar a legitimidade daquele pedido com a sede. Era um golpe. Ele havia sido ludibriado naquele que foi, possivelmente, o primeiro caso de repercussão internacional de fraude corporativa usando deepfakes.

E-mails de phishing, desconfiança inicial do funcionário, são um problema conhecido desde que a internet surgiu, e a eles se somam as tentativas de vishing, em que o contato malicioso é feito por voz. A chegada dos deepfakes — acrônimo derivado de “aprendizagem profunda” e “falso” (“deep learning” e “fake”, em inglês) que descreve áudios, imagens ou vídeos fictícios gerados ou manipulados digitalmente — torna esses golpes mais requintados, ao criarem representações falsas convincentes de indivíduos reais.

A evolução rápida dessa tecnologia se deve ao uso de redes adversárias generativas (GAN, na sigla em inglês), onde duas redes neurais — uma geradora e outra discriminadora — competem para aprimorar a criação de mídias que imitam a realidade. A rede geradora produz novas mídias tentando enganar a discriminadora, que aprende a diferenciar as imagens sintéticas das reais. A repetição contínua desse ciclo melhora a qualidade dos deepfakes, fazendo-os cada vez mais difíceis de identificar, como no caso de Hong Kong.

Essa tecnologia pode servir a vários tipos de delito. Criminosos poderiam, por exemplo, gerar um vídeo de um CEO fazendo comentários que provocassem reações negativas do mercado — como declarações falsas sobre grandes perdas financeiras —, causando queda nas ações da companhia, enquanto os autores se valeriam da velocidade das finanças atuais para lucrar com vendas a descoberto ou outros movimentos especulativos até que a gravação fosse desmentida.

Além disso, a inteligência artificial (IA) pode agravar ameaças com as quais as empresas vêm sofrendo há algum tempo, melhorando a eficácia dos ciberataques “tradicionais” — como roubo de senhas e ataques de ransomware — e tornando-os mais danosos. Isso se deve às habilidades de programação impressionantes que os grandes modelos de linguagem, como o GPT-4, têm demonstrado. O mesmo sistema capaz de gerar softwares benignos pode gerar malware capaz de detectar vulnerabilidades e contornar medidas de proteção.

Para o Google Cybersecurity Forecast 2024, operações de extorsão seguirão sendo a forma mais impactante de cibercrime no mundo inteiro. Ferramentas de IA generativa de fácil utilização e baixo custo voltadas para a criação de mídias sintéticas devem se disseminar com a mesma velocidade observada nas de texto, como o ­ChatGPT. Com isso, mais e mais pessoas terão acesso a essas tecnologias, aumentando a possibilidade de que alguém tente extorquir uma empresa, ou algum de seus funcionários, ameaçando divulgar conteúdo audiovisual falso que danificaria sua reputação.

Mesmo o phishing e o vishing podem se beneficiar da IA generativa, capaz de produzir um sem-número de mensagens personalizadas que parecem legítimas. Hoje existem ferramentas capazes de clonar uma voz em tempo real depois de gravá-la por apenas 5 segundos, o que permite abordar eficazmente uma grande quantidade de vítimas em um curto espaço de tempo. O desenvolvimento de um modelo de negócios de “crime-como-serviço” (CaaS, na sigla em inglês) no submundo digital, que estende essa capacidade a criminosos sem conhecimento tecnológico, só piora esse quadro.

Além de agirem no mercado financeiro ou diretamente nas empresa, delinquentes podem visar os consumidores. Concorrentes ou outros atores mal-intencionados podem promover campanhas de desinformação audiovisual em massa, procurando difamar um negócio ou simplesmente gerar confusão e perdas.

O que torna os deepfakes tão efetivos é o fato de que os seres humanos acreditam no que seus olhos e ouvidos lhes transmitem. Imagens, vídeos e áudios são recebidos como verdades sobre o mundo ao nosso redor, sendo muito mais difícil desconsiderar seu conteúdo. Imagens, em geral, são processadas pelo cérebro de maneira mais eficiente, provocando mais estímulos e se fixando em nossa memória mais facilmente do que textos.

Isso explica por que as redes sociais estão abarrotadas de conteúdo visual. Infográficos curtidos e compartilhados três vezes mais do que qualquer outro tipo de conteúdo; tuítes com ilustrações são retuitados 150% mais do que os sem, e publicações no Facebook com imagens geram mais do que o dobro de interações. Se os deepfakes dificultam distinguir conteúdo real de sintético, e se tendem a ser mais compartilhados, vistos e lembrados, seu potencial de enganar muita gente é enorme. Se forem polêmicos ou chocantes, esse potencial aumenta ainda mais.

Publicações que apelam para emoções diversas ou que são surpreendentes atraem mais atenção, sendo comprovado que notícias falsas se espalham nas redes sociais de forma mais rápida e ampla do que as verdadeiras. Esse fenômeno pode ser intensificado pela ação dos bots, outros velhos conhecidos da internet que, com a IA generativa, serão aperfeiçoados e mais confundidos com pessoas. Quanto mais engajamento essas publicações obtiverem, mais os algoritmos das redes sociais lhes darão destaque. Deepfakes sensacionalistas podem, portanto, virar uma bomba nuclear de desinformação.

Esse é um perigo imenso em um ano como o atual, com eleições em todo o planeta, já que um deepfake que se alastre pelas redes sociais na véspera da votação pode ser decisivo. Ações desse tipo, além de prejudicar a democracia, trazem instabilidade para a economia e para os negócios. Para mitigar o risco de serem vítimas de crimes cibernéticos, as empresas devem implementar novas tecnologias para detecção e prevenção de fraudes. Padrões de cibersegurança mais elevados devem ser prioridades para as empresas —para qualquer empresa — nesta nova era digital.

Acompanhe tudo sobre:1262

Mais de Revista Exame

Linho, leve e solto: confira itens essenciais para preparar a mala para o verão

Trump de volta: o que o mundo e o Brasil podem esperar do 2º mandato dele?

Ano novo, ciclo novo. Mesmo

Uma meta para 2025