X a mis en place une nouvelle politique stricte visant à lutter contre la diffusion de fausses informations sur la guerre générées par intelligence artificielle, en frappant les créateurs là où ça fait mal : leur portefeuille.
La plateforme de médias sociaux X a annoncé une révision majeure de ses politiques de partage des revenus avec les créateurs, ciblant les vidéos de conflits armés générées par intelligence artificielle. Cette mesure intervient dans un contexte de guerre croissante au Moyen-Orient et de préoccupations accrues concernant la désinformation durant le conflit.
Nikita Bier, responsable produit de X, a déclaré que les créateurs qui publient des images de guerre générées par IA sans divulgation seront suspendus pendant 90 jours du programme de partage des revenus. Les violations répétées entraîneront une interdiction permanente. L’application de cette règle s’appuiera sur les Notes Communautaires, le système de vérification des faits participatif de la plateforme, ainsi que sur les métadonnées et signaux intégrés dans les outils d’IA générative.
Bier a souligné qu’en temps de guerre, il est crucial que les gens aient accès à des informations authentiques sur le terrain, en avertissant que l’IA moderne facilite la création de contenus pouvant induire en erreur.
L’annonce intervient alors que la désinformation se répand rapidement en ligne au sujet de la guerre entre les États-Unis, Israël et l’Iran, qui menace de devenir un conflit régional plus large. Les plateformes de médias sociaux sont de plus en plus sous pression pour empêcher que des médias synthétiques ne déforment la perception publique en période de crise.
Parmi les contenus devenus viraux, une vidéo générée par IA de haute qualité simulant la destruction du porte-avions USS Abraham Lincoln. Les affirmations et la vidéo ont été rejetées par le Commandement Central des États-Unis. La vidéo de qualité cinématographique montre des missiles hypersoniques submergeant les défenses Aegis américaines. Un autre clip prétendait montrer la destruction du quartier général régional de la CIA ; cependant, les vérificateurs de faits ont retrouvé l’origine de cette vidéo dans un incendie résidentiel de 2015 à Sharjah, aux Émirats arabes unis, qui a été numériquement amélioré avec l’IA pour ressembler à une frappe militaire.
D’autres plateformes comme YouTube et TikTok ont instauré des exigences de divulgation pour le contenu généré par IA, mais l’approche de X est plus stricte car elle lie la conformité directement à la monétisation. X s’appuie fortement sur Notes Communautaires comme outil de vérification décentralisée, et cette nouvelle politique intègre ce système dans l’application des règles, ce qui permet de crowdsourcer la détection de contenus de guerre générés par IA non divulgués.