
La empresa de ciberseguridad Cybertrace ha emitido una advertencia urgente sobre un video deepfake extremadamente convincente que presenta al magnate minero y empresario australiano Andrew "Twiggy" Forrest. Este caso marca una escalada notable en el nivel de sofisticación del fraude vinculado a criptomonedas, evidenciando cómo la inteligencia artificial puede aprovecharse para explotar la confianza pública en figuras reconocidas.
El video deepfake, difundido en redes sociales, muestra a Forrest promocionando una falsa plataforma de trading de criptomonedas con promesas de altos rendimientos. Esta tecnología utiliza algoritmos avanzados de aprendizaje automático para manipular contenido audiovisual, generando imágenes realistas pero completamente falsas, prácticamente indistinguibles de grabaciones auténticas. En este caso, los estafadores utilizaron la reputación y credibilidad de Forrest para legitimar su esquema fraudulento.
El video, que apareció inicialmente en Facebook, anima a los usuarios a inscribirse en una plataforma fraudulenta que promete generar importantes beneficios diarios para "personas comunes". El mensaje demuestra una clara manipulación psicológica, dirigido a quienes buscan oportunidades financieras y seducido por la promesa de riqueza accesible. Las víctimas son redirigidas a un sitio web llamado "Quantum AI", nombre que, según Cybertrace, está asociado a estafas y fraudes financieros. El uso de términos técnicos como "Quantum AI" es una táctica calculada para aparentar legitimidad y tecnología avanzada.
En declaraciones, el CEO de Cybertrace, Dan Halpin, afirmó que el video deepfake podría engañar a muchos, ya que quienes lo elaboraron parecen tener habilidades comerciales. Este comentario pone de relieve una evolución clave en el fraude con criptomonedas: los perpetradores combinan ahora la sofisticación tecnológica con técnicas profesionales de marketing para maximizar el alcance y la eficacia de sus acciones.
Halpin agregó que la duración y la naturaleza repetitiva del video refuerzan su capacidad de persuasión. Dijo:
"El video es largo y en muchos aspectos repetitivo, lo que puede resultar muy convincente, y parece haber sido creado por alguien con conocimientos de ventas y marketing."
La estructura repetitiva cumple un propósito psicológico, reforzando mensajes clave y generando familiaridad, lo que reduce las defensas críticas de los espectadores. Esta técnica, habitual en publicidad legítima, resulta especialmente peligrosa cuando se utiliza en esquemas fraudulentos.
El deepfake manipula la conducta y el lenguaje corporal de Forrest, recurriendo a imágenes de una "charla junto al fuego" organizada por Rhodes Trust en octubre. Al tomar material de un evento reputado, los estafadores crearon una base creíble para su contenido falso. La ejecución técnica refleja acceso a herramientas avanzadas de IA capaces de imitar expresiones faciales, patrones de voz y gestos sutiles.
Cybertrace identificó el video deepfake el 27 de enero, mostrando una versión modificada de Forrest respaldando un programa ficticio de trading de criptomonedas. En el video, Forrest promete a los espectadores la oportunidad de asociarse con él y su equipo en el software de trading de acciones y criptomonedas más inteligente del mundo, garantizando beneficios sustanciales en cualquier circunstancia de mercado. Tales garantías son señales inequívocas de fraude de inversión, ya que las oportunidades financieras legítimas siempre implican riesgo y nunca pueden prometer rendimientos constantes.
Forrest, antiguo CEO de la minera australiana Fortescue Metals Group, es un empresario de éxito con un patrimonio neto de 29 400 millones USD. Su notoriedad y reputación lo convierten en objetivo ideal para estafadores que buscan explotar su credibilidad. Elegir una figura tan conocida también garantiza mayor difusión del contenido fraudulento, pues la noticia de la estafa genera publicidad adicional.
El video deepfake finaliza con Forrest instando a los espectadores a registrarse en la plataforma antes de que sea tarde, añadiendo urgencia al fraude. Esta estrategia de escasez artificial pretende presionar a las víctimas potenciales para que actúen precipitadamente sin comprobar la veracidad de la información.
Cybertrace ha advertido sobre la necesidad de extremar la vigilancia ante el fuerte incremento de fraudes con deepfake. La accesibilidad de herramientas de IA y el abaratamiento de los costes para crear deepfakes convincentes han provocado un aumento significativo de este tipo de delitos financieros. A medida que la tecnología se democratiza, la barrera de entrada para los estafadores se reduce, lo que multiplica los intentos de fraude sofisticado.
Además de Forrest, otras figuras australianas como Gina Rinehart (la persona más rica del país), el empresario Dick Smith y la presentadora Allison Langdon también han sido objetivo de estafadores mediante videos deepfake, según Cybertrace. Este patrón revela esfuerzos organizados de redes de fraude para explotar sistemáticamente la confianza en figuras públicas de diferentes sectores y perfiles.
Según lo informado, Lee Hsien Loong, primer ministro de Singapur, ha advertido también a sus seguidores en redes sociales sobre el uso de videos deepfake que emplean su voz e imagen para promocionar estafas con criptomonedas. La dimensión internacional de estos casos demuestra que el fraude con deepfake es un fenómeno global que requiere respuestas coordinadas de gobiernos, plataformas tecnológicas y expertos en ciberseguridad.
En ese contexto, Loong compartió incluso un video de ejemplo en el que aparece siendo entrevistado, creado por estafadores para respaldar un esquema fraudulento de "trading de cripto automatizado". Al reconocer y exponer públicamente estas estafas, las figuras públicas ayudan a educar a sus audiencias y a dificultar la eficacia de estos ataques.
"El uso de la tecnología deepfake para difundir desinformación seguirá creciendo", señaló Loong.
"Debemos mantenernos alerta y aprender a protegernos, y a quienes queremos, frente a estas estafas."
Esta advertencia subraya la importancia de la alfabetización digital y el pensamiento crítico en el entorno informativo actual. Con el avance de los contenidos generados por IA, los individuos deben desarrollar capacidades para detectar manipulaciones y verificar la información antes de tomar decisiones.
Los estafadores han utilizado numerosos métodos para engañar y robar moneda fiduciaria o tokens desde el surgimiento de las criptomonedas. El paso de simples correos de phishing a sofisticados videos deepfake muestra una tendencia preocupante en la creatividad y capacidad técnica de los autores de fraude.
En los últimos años, importantes brechas en redes sociales han evidenciado la magnitud potencial del fraude con criptomonedas. Por ejemplo, hackers comprometieron cuentas de usuarios destacados de Twitter, entre ellos el expresidente de Estados Unidos Barack Obama y el presidente electo Joe Biden, para promover una estafa con Bitcoin. Estos hechos ponen de relieve vulnerabilidades en las plataformas digitales y la necesidad de fortalecer la seguridad.
Para protegerse frente a fraudes con deepfake y estafas con criptomonedas, se recomienda:
Con el avance de la tecnología deepfake, la colaboración entre empresas tecnológicas, reguladores y expertos en ciberseguridad será esencial para crear herramientas de detección y marcos legales efectivos que combatan esta amenaza emergente.
Los videos deepfake emplean IA para crear imágenes falsas convincentes de personas reales. Los estafadores usan este tipo de videos para hacerse pasar por celebridades o expertos financieros y promocionar inversiones fraudulentas. Las víctimas transfieren fondos creyendo que siguen recomendaciones legítimas y acaban perdiendo dinero ante delincuentes que utilizan tecnología deepfake para el fraude financiero.
Compruebe la información directamente por canales oficiales. Busque problemas de sincronización audiovisual, movimientos faciales antinaturales y patrones de parpadeo. Utilice búsqueda inversa de imágenes. Consulte a expertos en seguridad blockchain. Nunca pulse en enlaces sospechosos ni facilite claves privadas por el contenido de un video.
Los estafadores crearon videos deepfake muy convincentes, haciéndose pasar por un multimillonario australiano para promocionar inversiones falsas. Las víctimas fueron engañadas y transfirieron fondos a plataformas fraudulentas, sufriendo grandes pérdidas económicas por este ataque de ingeniería social dirigido a inversores cripto.
Reporte el fraude de inmediato a las autoridades locales y reguladores financieros. Documente todas las pruebas, incluyendo el video, detalles de las operaciones y comunicaciones. Contacte con su banco para intentar revertir la transacción. Presente denuncias ante las unidades de ciberdelitos pertinentes. Informe el contenido fraudulento a las plataformas sociales. Consulte a un abogado para valorar opciones legales de recuperación. Actúe con rapidez, ya que las acciones inmediatas aumentan las posibilidades de recuperar los fondos.
El fraude financiero con deepfake puede conllevar cargos penales como fraude electrónico, robo de identidad y fraude de valores, con penas de prisión de hasta 20 años y multas elevadas. También existen responsabilidades civiles, órdenes de recuperación de activos y sanciones regulatorias por parte de las autoridades financieras.











