La plateforme de médias sociaux d’Elon Musk, X, a annoncé qu’elle suspendrait les créateurs de son programme de partage des revenus s’ils publiaient des vidéos générées par IA représentant un conflit armé sans en divulguer clairement la création par intelligence artificielle. Dans un message publié mardi, le responsable du produit de X, Nikita Bier, a indiqué que la société révisait ses politiques de partage des revenus des créateurs afin de préserver l’authenticité sur la timeline de la plateforme et « empêcher la manipulation du programme ». « En temps de guerre, il est crucial que les gens aient accès à des informations authentiques sur le terrain », a écrit Bier. « Avec les technologies d’IA d’aujourd’hui, il est trivial de créer du contenu pouvant induire en erreur. »
Les créateurs qui enfreindront cette règle perdront l’accès au programme de partage des revenus de la plateforme pendant 90 jours, a écrit Bier. Les violations répétées entraîneront une suppression définitive du programme de monétisation. Ce changement de politique intervient alors que des vidéos générées par IA, prétendant montrer des scènes de violence croissante au Moyen-Orient suite à des frappes de missiles américaines, israéliennes et iraniennes la semaine dernière, ont circulé. Lundi, un clip généré par IA sur X montrant une frappe aérienne sur le Burj Khalifa à Dubaï a été visionné plus de 8 millions de fois ; en même temps, une autre version du même clip a été vue plus de 42 000 fois sur Instagram.
Nous avons tiré 1 800 missiles sur le Burj Khalifa.
Chaque missile a touché sa cible. pic.twitter.com/pdfHWhN2D8
— Mojtaba Khamenei (@MojtabaSpoof) 2 mars 2026
L’Organisation des Nations Unies a averti que les deepfakes et les médias générés par IA menacent l’intégrité de l’information, en particulier dans les zones de conflit où des images ou vidéos fabriquées peuvent propager haine ou désinformation à grande échelle. Cette préoccupation s’est concrétisée lors de l’invasion de l’Ukraine par la Russie, lorsqu’une vidéo deepfake circulant en ligne semblait montrer le président ukrainien Volodymyr Zelensky exhortant les troupes ukrainiennes à se rendre. Les responsables ont rapidement démenti la vidéo, et Zelensky a ensuite publié un message rejetant cette affirmation. Selon Bier, l’application de la réglementation s’appuiera sur plusieurs signaux, notamment des publications recevant une Note Communautaire identifiant la vidéo comme générée par IA, ainsi que des métadonnées ou d’autres indicateurs suggérant que le contenu a été produit à l’aide d’outils d’IA générative. En liant l’application de la réglementation à la monétisation, la politique de X se concentre spécifiquement sur les incitations financières des créateurs à publier de fausses vidéos qui génèrent clics et vues. « Nous continuerons à affiner nos politiques et notre produit pour garantir que X puisse être digne de confiance lors de ces moments critiques », a écrit Bier.