Opinião: Golpes de Deepfake estão explorando o amor e a confiança como nunca antes

Image generated with DALL·E through ChatGPT

Opinião: Golpes de Deepfake estão explorando o amor e a confiança como nunca antes

Tempo de leitura: 7 minuto

Golpes impulsionados pela IA estão em alta, com cibercriminosos utilizando a tecnologia de deepfake para criar vídeos e imagens convincentes que manipulam as vítimas. De uma francesa que acreditava estar ajudando Brad Pitt a uma vítima convencida por um deepfake de alta qualidade, as linhas entre realidade e engano estão se borrando. À medida que as ferramentas de IA evoluem, os riscos também aumentam.

Muitos de nós vimos no noticiário em janeiro: uma francesa perdeu mais de 850 mil dólares para golpistas porque acreditava estar dando o dinheiro a Brad Pitt – o homem com quem ela pensava estar em um relacionamento há mais de um ano.

Os golpistas usaram inteligência artificial generativa avançada para criar “selfies” e fabricar evidências, convencendo sua vítima, Anne – uma designer de 53 anos passando por um divórcio – da trágica história de um falso Pitt com necessidades médicas urgentes. Eles afirmaram que seus fundos estavam congelados devido ao seu divórcio de Angelina Jolie.

Anne tomou a decisão corajosa – e arriscada – de compartilhar sua história publicamente, enfrentando milhões de zombarias, insultos e ataques virtuais. “Como uma tola, eu paguei… Toda vez que eu duvidava dele, ele conseguia dissipar minhas dúvidas”, disse ela em um programa do Youtube em francês, como relatado pela BBC. “Eu fui enganada, admito, e é por isso que vim a público, porque eu não sou a única.”

Ela não está. Alguns meses depois, a polícia espanhola prendeu 5 pessoas que enganaram duas outras mulheres se passando por Pitt também. Alguns dias atrás, um homem chinês também foi enganado a acreditar que sua namorada online precisava de dinheiro para procedimentos médicos e para financiar seu negócio.

As vítimas receberam vídeos personalizados e fotografias—imagens que não estavam disponíveis em nenhum outro lugar online—convencendo-as ainda mais das elaboradas mentiras de seus enganadores.

Um relatório recente da Entrust sugere que tentativas de Deepfake ocorrem a cada 5 minutos. Novos casos de pessoas enganadas com inteligência artificial generativa surgem todos os dias – uma tendência preocupante, especialmente considerando os milhares, ou até milhões, de pessoas soterradas em dívidas e vergonha que não ousam denunciá-lo às autoridades, muito menos torná-lo público.

Scams de DeepFake em Ascensão

Vários estudos e relatórios têm soado alarmes sobre os crescentes fraudes e ciberataques impulsionados por IA. Dados recentes do TrustPair’s 2025 Fraud Trends and Insights mostraram um aumento de 118% ano a ano na fraude impulsionada por IA, conforme relatado pelo CFO

.Oi, a Hiya, uma empresa americana especializada em soluções de segurança de voz e desempenho, compartilhou recentemente os resultados de uma pesquisa, revelando que 31% dos clientes em seis países receberam chamadas deepfake em 2024, e 45% deles foram enganados – 34% desse grupo perderam dinheiro e 32% tiveram informações pessoais roubadas. Em média, as vítimas perdem mais de $500 cada uma para golpes por telefone.

Alguns dias atrás, The Guardian revelou que uma rede organizada na Geórgia – no Leste Europeu – usou anúncios falsos no Facebook e Google para enganar mais de 6.000 pessoas em toda a Europa, Canadá e Reino Unido, arrecadando $35 milhões através de suas operações.

Cerca de 85 golpistas georgianos bem remunerados usaram figuras públicas como o jornalista inglês Martin Lewis, o escritor e aventureiro Ben Fogle, e Elon Musk para seus golpes. Os golpistas promoveram falsas criptomoedas e outros esquemas de investimento, fazendo vítimas transferirem dinheiro através de bancos digitais como Revolut—que recentemente obteve uma licença bancária no Reino Unido.

IA Avançada, Golpes Mais Sofisticados

Os cibercriminosos têm usado IA gerativa nos últimos anos, empregando ferramentas como ChatGPT para criar e traduzir e-mails envolventes e gerar conteúdo textual persuasivo. Agora, à medida que as ferramentas de IA evoluem, o uso de imagens e vídeos gerados por IA tem aumentado.

Algumas semanas atrás, a ByteDance lançou sua mais recente ferramenta de vídeo AI, OmniHuman-1, capaz de gerar uma das deepfakes mais realistas do mercado. Enquanto isso, mais empresas de IA estão desenvolvendo tecnologias semelhantes. Parece ser apenas uma questão de tempo até que essas ferramentas também sejam usadas para golpes.

Embora essas tecnologias possam ser usadas “de boa fé” e até mesmo para combater o aumento de golpes – como a ‘Vovó’ Daisy da O2, projetada para envolver fraudadores em chamadas em tempo real e distraí-los de vítimas reais – as consequências de seu uso malicioso parecem ser inestimáveis.

Na Wizcase, nós recentemente relatamos um aumento de 614% nos “Ataques de Autoengano”, observando como os hackers usam tecnologias de deepfake para fazer com que o conteúdo falso pareça “mais realista”, e como empresas de mídia social como Meta tiveram que intervir em golpes de abate de porcos, já que muitos atores de ameaças usam essas plataformas. Na pesquisa, a Meta observou que muitos golpes começaram em aplicativos de encontros, provando como o amor romântico está entre as iscas mais comuns – agora e historicamente.

Amor: Uma Isca Poderosa

Os cibercriminosos não são apenas habilidosos em entender e utilizar inteligência artificial avançada – eles também têm um profundo entendimento da inteligência humana. Os atores de ameaças sabem como identificar vulnerabilidades, construir confiança e fazer suas solicitações no momento certo.

O estudo Você me ama? Características psicológicas das vítimas de golpes românticos, publicado em 2018 pela PhD Monica T. Whitty, explica como grupos criminosos internacionais têm realizado golpes românticos por muitos anos — mesmo antes da Internet —, e como mulheres de meia-idade, bem educadas, são propensas a cair neste tipo de golpe — assim como Anne.

O que podemos esperar agora, oito anos após este estudo, com tecnologia quase como de ficção científica? Provavelmente, todos nós somos mais vulneráveis do que pensamos.

“As vítimas desse tipo de fraude são frequentemente pessoas em busca de significado, que estão emocionalmente vulneráveis”, escreveu Annie Lecompte, professora associada da Universidade de Quebec em Montreal (UQAM), em um artigo recente publicado em The Conversation. “Embora seja ridicularizada e mal compreendida, a fraude romântica baseia-se em mecanismos psicológicos complexos que exploram a confiança, emoções e vulnerabilidade das vítimas.”

Um Coração Partido, Uma Carteira Vazia

Liu – o sobrenome do homem chinês que recentemente perdeu 200.000 yuans, cerca de $28.000, em um golpe alimentado por IA – acreditava de verdade que sua namorada virtual era real, já que ele via fotos personalizadas e até vídeos. Construindo um vínculo emocional cada vez mais forte… com seus golpistas.

Embora ele não tenha fornecido mais detalhes do contexto nos relatórios, outra vítima, a mulher de 77 anos Nikki MacLeod, o fez. Ela também pensou que estava em um relacionamento real com uma namorada IA e enviou para ela £17.000 – cerca de $22.000 – através de transferências bancárias, PayPal e cartões-presente.

“Eu não sou uma pessoa estúpida, mas ela conseguiu me convencer de que era uma pessoa real e que iríamos passar nossas vidas juntas”, disse MacLeod à BBC.

MacLeod estava se sentindo solitária e triste quando conheceu Alla Morgan em um chat em grupo. Depois de um tempo, MacLeod solicitou um vídeo ao vivo, mas Morgan disse que não era possível, pois trabalhava numa plataforma de petróleo. Quando MacLeod começou a suspeitar, Morgan começou a enviar vídeos realistas. “Ela me enviou um vídeo para dizer ‘Oi Nikki, eu não sou uma golpista, estou na minha plataforma de petróleo’, e eu fiquei totalmente convencida disso”, explicou MacLeod. O conteúdo está disponível no site da BBC, e é fácil ver por que MacLeod acreditou que era real – é um deepfake de alta qualidade.

A BBC pediu a uma especialista em cibersegurança e interação humano-computador da Universidade de Abertay, Dra. Lynsay Shepherd, para analisar as fotos e vídeos que MacLeod recebeu. “À primeira vista parece legítimo, se você não sabe o que procurar, mas se você olhar para os olhos – os movimentos dos olhos não estão bem certos”, disse a Dra. Shepherd.

“Os documentos pareciam reais, os vídeos pareciam reais, o banco parecia real”, disse MacLeod. “Com a introdução da inteligência artificial, cada coisa pode ser falsa.”

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...