
La société de cybersécurité Cybertrace a lancé une alerte sur une vidéo deepfake particulièrement crédible mettant en scène le magnat australien du secteur minier, Andrew « Twiggy » Forrest. Ce cas constitue une avancée majeure dans la sophistication des fraudes liées aux cryptomonnaies et montre comment l’intelligence artificielle peut être instrumentalisée pour exploiter la confiance accordée aux personnalités publiques.
La vidéo deepfake, diffusée sur les réseaux sociaux, montre Forrest faisant la promotion d’une fausse plateforme de trading de cryptomonnaies promettant des rendements élevés. Cette technologie s’appuie sur des algorithmes avancés de machine learning pour manipuler le son et l’image, produisant des séquences réalistes mais entièrement artificielles, presque impossibles à distinguer d’un enregistrement authentique. Ici, les escrocs capitalisent sur la notoriété et la crédibilité de Forrest afin de donner un vernis de légitimité à leur opération frauduleuse.
La vidéo, apparue initialement sur Facebook, invite les utilisateurs à s’inscrire sur une plateforme frauduleuse censée générer d’importants profits quotidiens pour « les gens ordinaires ». Le message, à la dimension psychologique marquée, cible les personnes en quête d’opportunités financières par des promesses d’enrichissement facile. Les victimes sont orientées vers un site nommé « Quantum AI », un nom que Cybertrace associe à des escroqueries financières. L’utilisation de termes techniques comme « Quantum AI » vise délibérément à bâtir une illusion de légitimité et d’innovation technologique.
Dan Halpin, PDG de Cybertrace, a déclaré que la vidéo deepfake est susceptible de tromper les individus, les escrocs démontrant une véritable expertise en vente. Cette remarque met en lumière une évolution des fraudes en crypto : les auteurs combinent désormais des compétences technologiques avancées et des stratégies de marketing professionnel pour maximiser leur impact.
Halpin a aussi souligné la longueur et la répétitivité de la vidéo, qui contribuent à renforcer sa crédibilité. Il a déclaré :
« La vidéo est longue et, à bien des égards, répétitive, ce qui la rend plutôt convaincante, et semble avoir été réalisée par une personne ayant des connaissances en vente et marketing. »
Cette structure répétitive vise à ancrer les messages clés et à instaurer un climat de familiarité, ce qui tend à abaisser la vigilance des spectateurs. Cette technique, courante dans la publicité légitime, devient d’autant plus dangereuse appliquée à la fraude.
Le deepfake manipule les gestes et le comportement de Forrest en exploitant des images issues d’un « fireside chat » du Rhodes Trust en octobre. En s’appuyant sur un événement crédible, les fraudeurs ont pu construire une base réaliste pour leur contenu artificiel. Le résultat démontre l’utilisation d’outils d’IA avancés, capables de reproduire fidèlement les expressions faciales, les intonations et les gestes les plus subtils.
Cybertrace a détecté la vidéo deepfake le 27 janvier, qui présente une version modifiée par IA de Forrest vantant un logiciel fictif de trading de cryptomonnaies. Dans cette vidéo, Forrest promet aux spectateurs de rejoindre son équipe comme partenaires du logiciel de trading d’actions et de cryptomonnaies le plus intelligent au monde, avec la garantie de profits importants quelles que soient les conditions du marché. Ce genre de promesse est un signal d’alerte classique dans les escroqueries à l’investissement, les opportunités financières sérieuses comportant toujours un risque et ne pouvant garantir un rendement continu.
Forrest, ex-PDG de Fortescue Metals Group, est un entrepreneur à succès dont la fortune s’élève à 29,4 milliards de dollars. Sa notoriété en fait une cible privilégiée pour ceux qui cherchent à exploiter sa crédibilité. Miser sur une personnalité aussi en vue assure également une large diffusion de l’arnaque, la médiatisation du scandale contribuant à sa viralité.
La vidéo deepfake se termine sur un appel pressant de Forrest invitant les spectateurs à s’inscrire avant qu’il ne soit trop tard, instaurant un sentiment d’urgence. Cette stratégie de rareté artificielle vise à pousser les victimes à agir sans prendre le temps de vérifier.
Cybertrace appelle à une vigilance accrue face à la multiplication récente des fraudes par deepfake. L’accès facilité aux outils d’IA et la baisse du coût de production de deepfakes crédibles expliquent l’essor de ce type de criminalité financière. À mesure que la technologie se démocratise, le seuil d’entrée pour les escrocs diminue, ce qui multiplie les tentatives de fraude sophistiquée.
Outre Forrest, d’autres personnalités australiennes comme Gina Rinehart (première fortune nationale), l’entrepreneur Dick Smith et l’animatrice Allison Langdon ont été ciblées par des deepfakes, selon Cybertrace. Ce phénomène révèle des réseaux organisés qui exploitent la confiance accordée à des personnalités de secteurs variés.
Dans le même temps, Lee Hsien Loong, Premier ministre de Singapour, a mis en garde ses abonnés contre des deepfakes utilisant son image et sa voix pour promouvoir des arnaques en cryptomonnaie. L’ampleur internationale du phénomène montre que la fraude par deepfake est un enjeu mondial nécessitant une réponse coordonnée des gouvernements, des plateformes technologiques et des spécialistes de la cybersécurité.
Loong avait d’ailleurs partagé un exemple de vidéo frauduleuse le mettant en scène lors d’une interview, conçue pour promouvoir un faux service de « trading crypto automatisé ». En intervenant publiquement et en exposant ces arnaques, les personnalités publiques participent à la sensibilisation et limitent l’impact de telles attaques.
« L’utilisation de la technologie deepfake pour diffuser de la désinformation continuera de croître », a déclaré Loong.
« Il est essentiel de rester vigilants et d’apprendre à nous protéger, ainsi que nos proches, contre ces escroqueries. »
Cette alerte rappelle combien la maîtrise des outils numériques et l’esprit critique sont devenus indispensables. Plus le contenu généré par IA gagne en réalisme, plus il est crucial de savoir repérer les manipulations et de vérifier toute information avant d’agir.
Depuis l’apparition des cryptomonnaies, les fraudeurs multiplient les moyens pour piéger les particuliers et détourner leur monnaie fiduciaire ou leurs tokens. L’évolution, du phishing basique aux vidéos deepfake sophistiquées, illustre la montée en ingéniosité et en technicité des escrocs.
Ces dernières années, des piratages de comptes de réseaux sociaux très suivis ont montré l’ampleur potentielle des escroqueries crypto. Par exemple, des hackers ont compromis les comptes Twitter de personnalités comme Barack Obama ou Joe Biden pour promouvoir une arnaque au Bitcoin. Ces faits révèlent les failles des plateformes numériques et la nécessité d’une sécurité renforcée.
Pour se protéger des fraudes par deepfake et des arnaques en cryptomonnaies, il convient de :
À mesure que la technologie deepfake progresse, la coopération entre acteurs technologiques, régulateurs et experts en cybersécurité sera essentielle pour concevoir des outils de détection efficaces et des cadres juridiques adaptés à cette menace croissante.
Une vidéo deepfake repose sur l’IA pour créer de fausses images crédibles de personnes réelles. Les escrocs s’en servent pour imiter des célébrités ou des experts financiers et promouvoir des arnaques à l’investissement. Les victimes transfèrent des fonds, pensant suivre des conseils valables, et subissent ainsi des pertes au profit de criminels exploitant la technologie deepfake à des fins d’escroquerie.
Vérifiez toute information auprès des canaux officiels. Surveillez les décalages audio/vidéo, les mouvements du visage inhabituels ou les clignements anormaux. Utilisez la recherche d’images inversée. Consultez des experts en sécurité blockchain. Ne cliquez jamais sur des liens suspects ni ne partagez vos clés privées uniquement sur la foi d’une vidéo.
Des fraudeurs ont créé des deepfakes très convaincants d’un milliardaire australien pour promouvoir de faux placements. Les victimes ont été trompées et ont transféré leurs fonds vers des plateformes frauduleuses, subissant ainsi d’importantes pertes dans le cadre d’une attaque d’ingénierie sociale ciblant les investisseurs crypto.
Signalez la fraude immédiatement aux autorités locales et aux régulateurs financiers. Conservez tous les éléments de preuve, dont la vidéo, les transactions et les échanges. Contactez votre banque pour tenter d’annuler le paiement. Déposez plainte auprès des services de cybercriminalité. Signalez le contenu frauduleux aux plateformes concernées. Consultez un avocat pour explorer les voies de recours. Agissez rapidement, car la réactivité augmente les chances de récupération.
La fraude financière via deepfake expose à des poursuites pénales pour escroquerie, usurpation d’identité ou fraude sur titres, avec des peines pouvant aller jusqu’à 20 ans de prison et de lourdes amendes. Des sanctions civiles, des ordonnances de restitution d’actifs et des amendes infligées par les autorités financières sont également prévues.











