
A empresa de cibersegurança Cybertrace emitiu um alerta contundente acerca de um vídeo deepfake extremamente convincente que apresenta o industrial australiano Andrew "Twiggy" Forrest. O vídeo, que circulou recentemente nas redes sociais, mostra Forrest a promover uma plataforma de negociação de criptomoedas falsa, prometendo elevados retornos a investidores incautos.
O vídeo fraudulento, inicialmente divulgado no Facebook e mais tarde propagado noutras plataformas, incentiva o registo numa plataforma enganosa que afirma gerar lucros diários substanciais para "pessoas comuns". As vítimas são direcionadas para um site denominado "Quantum AI", cuja designação, segundo a Cybertrace, está cada vez mais associada a esquemas de burla e fraude financeira em diversas jurisdições. Esta plataforma apresenta-se falsamente como um sistema avançado de negociação suportado por inteligência artificial, alegando prever movimentos de mercado com precisão inédita.
Numa análise detalhada, o CEO da Cybertrace, Dan Halpin, sublinhou que o vídeo deepfake pode facilmente enganar pessoas, já que os burlões envolvidos aparentam possuir competências sofisticadas em vendas e marketing. Halpin destacou ainda a duração significativa do vídeo e a sua estrutura repetitiva, aspetos que reforçam o caráter convincente e o impacto psicológico junto dos espectadores.
"O vídeo é longo e, em muitos aspetos, repetitivo, o que o torna bastante convincente, parecendo ter sido criado por alguém com conhecimentos de vendas e marketing."
O deepfake manipula o comportamento e a linguagem corporal de Forrest com precisão notável, recorrendo a imagens de uma "conversa à lareira" organizada pela Rhodes Trust em outubro do ano anterior. A Cybertrace identificou o vídeo deepfake no final de janeiro, exibindo uma versão de Forrest alterada por IA a recomendar um software fictício de negociação de criptomoedas, com linguagem persuasiva e maneirismos reconhecíveis.
No vídeo manipulado, a versão adulterada de Forrest garante aos espetadores a oportunidade de se juntarem a ele e à sua equipa como parceiros naquele que descreve como o software de negociação de ações e criptomoedas mais inteligente do mundo, assegurando lucros substanciais independentemente das condições de mercado. Esta promessa de retornos consistentes, independentemente da volatilidade do mercado, é um traço típico dos esquemas de fraude de investimento.
Forrest, antigo CEO da empresa mineira australiana Fortescue Metals Group, é um empreendedor de sucesso, com um património líquido de 29,4 mil milhões de dólares, que o torna numa das figuras empresariais mais reconhecidas da Austrália. Os burlões escolheram propositadamente uma personalidade tão proeminente e credível para conferir legitimidade ao esquema fraudulento, explorando a sua reputação de competência e sucesso empresarial.
O vídeo deepfake termina com Forrest a incitar os espetadores a registarem-se na plataforma antes que seja tarde, introduzindo uma sensação de urgência e escassez — uma técnica de manipulação psicológica recorrente para pressionar as vítimas a tomar decisões precipitadas sem a devida verificação.
A Cybertrace advertiu para a necessidade de vigilância redobrada, face ao crescimento recente dos casos de fraude com deepfake que visam figuras de destaque em múltiplos setores. A vulgarização da tecnologia de IA tem facilitado a criação de vídeos falsos convincentes, capazes de iludir até os mais experientes em tecnologia.
Além de Forrest, outras figuras australianas de relevo, como Gina Rinehart, a pessoa mais rica do país, o empresário Dick Smith e a apresentadora Allison Langdon também foram visadas por burlões que recorreram a vídeos deepfake, segundo os mais recentes alertas de segurança da Cybertrace. Estes casos mostram uma tendência preocupante: a escolha sistemática de figuras públicas de confiança para promover esquemas fraudulentos, em especial nos setores das criptomoedas e do investimento.
A problemática não se limita à Austrália. Nos últimos meses, Lee Hsien Loong, primeiro-ministro de Singapura, alertou também os seus seguidores nas redes sociais sobre o uso de vídeos deepfake que exploram a sua voz e imagem para promover esquemas com criptomoedas. Loong chegou mesmo a partilhar um vídeo de exemplo, criado por burlões, em que surge a recomendar um esquema fraudulento de "negociação cripto automatizada", evidenciando o alcance global desta ameaça.
"A utilização de tecnologia deepfake para disseminar desinformação continuará a aumentar," avisou Loong publicamente.
"Devemos manter-nos vigilantes e aprender a proteger-nos, assim como às nossas famílias, contra este tipo de burla."
Desde o surgimento das criptomoedas, os burlões têm recorrido a diversos métodos para enganar pessoas e roubar moeda fiduciária ou tokens digitais. A evolução destas estratégias demonstra o crescente grau de sofisticação dos cibercriminosos e a sua capacidade de adaptação tecnológica.
Em 2020, piratas informáticos comprometeram as contas de figuras de relevo no Twitter, como o ex-presidente dos Estados Unidos Barack Obama e o presidente eleito Joe Biden, para promover uma burla com Bitcoin, provando que nem as contas mais seguras estão imunes a atacantes determinados. Este caso evidenciou a importância de medidas de segurança em múltiplos níveis e da vigilância constante na era digital.
Especialistas em segurança recomendam diversas práticas preventivas: validar oportunidades de investimento através de canais oficiais, desconfiar de promessas de retornos garantidos, confirmar declarações oficiais das figuras alegadamente envolvidas e denunciar conteúdos suspeitos aos administradores das plataformas e às autoridades competentes. Com o avanço e generalização da tecnologia deepfake, a responsabilidade de se manter informado e cauteloso recai cada vez mais sobre os próprios utilizadores e os seus círculos.
Deepfake é conteúdo sintético gerado através de inteligência artificial e algoritmos de deep learning, especialmente redes generativas adversariais (GAN). Esta tecnologia substitui ou manipula rostos em vídeos, criando imagens falsas mas altamente realistas, frequentemente exploradas em burlas e campanhas de desinformação.
Observe atentamente detalhes faciais à procura de movimentos pouco naturais ou incongruências na sincronização labial. Verifique se os movimentos da boca coincidem rigorosamente com o áudio. Esteja atento a olhos a piscar de forma irregular, textura de pele incomum ou anomalias no pestanejar. Recorra a ferramentas de deteção por IA especializadas em deepfakes. Confirme sempre a autenticidade por vias oficiais antes de confiar no conteúdo.
Os burlões recorrem a deepfakes para imitar executivos, criar sensação de urgência na transferência de fundos e explorar relações de confiança. Utilizam IA para gerar vídeos e áudio realistas, fazendo-se passar por CEO ou altos quadros. Criam falsas situações de emergência, visam colaboradores de menor grau hierárquico e contornam procedimentos de verificação para extrair dinheiro antes de serem detetados.
Confirme diretamente nas contas oficiais da personalidade, aceda aos sites das empresas de modo independente, investigue a proposta em várias fontes credíveis e desconfie de recomendações não solicitadas. Dado o grau de sofisticação dos deepfakes, valide sempre através de canais oficiais antes de investir.
Apresente queixa imediata à polícia, munido de provas detalhadas. Contacte as instituições financeiras para bloquear contas. Informe as plataformas de pagamento envolvidas. Colabore integralmente com as autoridades na investigação. Registe todas as comunicações e transações fraudulentas para efeitos legais.
A fraude com deepfake constitui crime grave, punível com elevadas coimas e longas penas de prisão. A legislação proíbe expressamente o uso de tecnologia para fins de engano e perturbação social. Os infratores enfrentam processos judiciais rigorosos e responsabilidade penal.
Confirme identidades por múltiplos meios antes de realizar transações financeiras. Esteja atento a movimentos oculares pouco naturais, feições desfocadas ou incoerências no áudio dos vídeos. Solicite videochamadas em direto com verificações adicionais. Nunca partilhe dados pessoais ou financeiros baseando-se apenas em conteúdos vídeo. Utilize sempre contactos oficiais para confirmar pedidos.
Os vídeos deepfake põem em risco a segurança financeira ao produzirem conteúdos fraudulentos extremamente realistas, capazes de iludir investidores. Esta tecnologia abala a confiança nas transações financeiras e permite a criminalidade baseada em usurpação de identidade, causando perdas monetárias avultadas e instabilidade nos mercados.











