Les influenceurs IA utilisent la technologie IA pour falsifier des photos de coucher avec des célébrités, attirant du trafic sur Instagram vers des sites pour adultes afin d’en tirer profit, révélant ainsi le manque de régulation des plateformes et le chaos juridique et éthique autour de la monétisation de la pornographie IA.
(Précédent résumé : Portefeuilles, avertissements et failles : Analyse complète des attaques de sécurité en cryptomonnaie en 2025)
(Complément d’information : Fuite interne chez Bybit ? Expert en sécurité : Les hackers nord-coréens Lazarus suspectés d’avoir infiltré l’ordinateur d’un employé de la plateforme pour obtenir des droits multi-signatures sur le portefeuille)
Table des matières de cet article
Récemment, de nombreux comptes de influenceurs virtuels générés par IA ont émergé sur Instagram. Selon un reportage de 404media, ces comptes utilisent la technologie IA pour créer de fausses « photos après coucher » de célébrités telles que LeBron James, Dwayne Johnson, Mike Tyson… en utilisant des vidéos provocantes pour attirer du trafic, puis orientent les utilisateurs vers la plateforme pour adultes Fanvue (un concurrent d’OnlyFans avec une politique plus souple sur le contenu généré par IA) pour en tirer profit, ce qui suscite de vives critiques sur la gestion des droits à l’image et la responsabilité des plateformes.
Cette tendance, qui a commencé à se répandre fin 2025, suit généralement une formule spécifique : au début de la vidéo, on voit l’influenceur IA avec une célébrité dans une photo intime, avec la légende « How it started » (Comment ça a commencé) ; puis la vidéo bascule sur des images de coucher où les deux sont à moitié nus, en sueur. Ce contenu à fort impact exploite une faille dans l’algorithme, contourne la modération initiale et se propage rapidement.
Bien que Meta ait commencé à appliquer une « Politique de marquage du contenu généré par IA », exigeant que les utilisateurs divulguent tout contenu modifié ou généré par IA, ces comptes de célébrités virtuelles enfreignent manifestement les règles suivantes, avec peu d’efficacité :
Politique sur les images intimes non consenties (NCII) : Meta interdit strictement le partage de contenus intimes ou nus virtuels sans le consentement de la personne concernée.
Règlement sur la fraude par deepfake : Ces comptes dissimulent délibérément leur identité IA et utilisent des images trompeuses pour diriger le trafic commercial.
Droits à l’image et à la personnalité : Sur le plan juridique, cette pratique viole le « droit à l’image » des célébrités. Le joueur NBA LeBron James a déjà envoyé une mise en demeure pour cessation d’atteinte à ses droits, affirmant que son image est utilisée à des fins lucratives sans autorisation.
Ces Reels Instagram atteignent souvent des dizaines de milliers, voire des centaines de milliers de vues. Par le biais d’un modèle « d’attraction externe, monétisation interne », ces comptes volent continuellement des vidéos de créateurs réels pour faire du « face swap » et autres pratiques malveillantes.
Face aux signalements, Meta a supprimé certains contenus illicites, mais n’a pas mis en place de mesures systématiques de bannissement. Selon un expert juridique, avec la baisse des barrières technologiques pour l’IA, si les plateformes ne font pas respecter efficacement leurs politiques de marquage et de vérification des images, ce ne seront pas seulement les célébrités qui en souffriront, mais aussi le grand public, qui pourrait devenir la prochaine victime de ce mode de monétisation pornographique.
Actuellement, des représentants légaux de victimes envisagent de lancer des actions collectives à grande échelle pour contraindre les géants des réseaux sociaux à assumer leur responsabilité dans la modération du contenu.