Le régulateur irlandais de la vie privée a lancé une enquête officielle sur X pour déterminer si le chatbot Grok d’Elon Musk a contribué à générer et diffuser des images sexualisées non consensuelles, y compris celles d’enfants, intensifiant ainsi la répression mondiale croissante contre les outils d’« nudification » par IA. La Commission irlandaise de protection des données (DPC) a lancé l’enquête contre X Internet Unlimited Company (XIUC), l’entité juridique enregistrée dans l’UE par laquelle la plateforme de médias sociaux d’Elon Musk opère en Europe, en vertu de la loi irlandaise sur la protection des données de 2018, en se concentrant sur « la création apparente, et la publication sur la plateforme X, d’images potentiellement nuisibles, non consensuelles, intimes et/ou sexualisées… y compris celles d’enfants » utilisant les outils d’IA générative de Grok. L’autorité de contrôle a indiqué avoir notifié XIUC de la décision d’engager l’enquête et évaluera la conformité aux exigences fondamentales du RGPD, notamment les principes de traitement, la base légale, la protection de la vie privée dès la conception, et si une évaluation d’impact sur la protection des données était nécessaire.
« En tant qu’autorité de supervision principale pour XIUC dans l’UE/EEE, la DPC a lancé une enquête à grande échelle qui examinera la conformité de XIUC à certaines de leurs obligations fondamentales en vertu du RGPD concernant les questions en jeu », a déclaré le commissaire adjoint Graham Doyle dans un communiqué. L’enquête intervient alors que l’Irlande, qui sert d’autorité de supervision principale de l’UE pour la plupart des grandes plateformes technologiques américaines, donnant à ses décisions un poids contraignant dans tout le bloc, rejoint une réponse internationale croissante face au rôle de Grok dans la génération de deepfakes non consensuels à grande échelle. Le Center for Countering Digital Hate (CCDH) a rapporté le mois dernier que Grok aurait généré environ 23 338 images sexualisées représentant des enfants, sur une période de 11 jours du 29 décembre au 9 janvier, et que des chercheurs ont constaté qu’environ un tiers de ces images échantillonnées restaient accessibles sur X malgré la politique de tolérance zéro de la plateforme. Suite à la controverse, X a limité la génération et la modification d’images par Grok aux abonnés payants, a ajouté des barrières techniques pour empêcher les utilisateurs de manipuler numériquement des personnes en vêtements révélateurs, et a géo-bloqué la fonctionnalité dans les juridictions où ce contenu est illégal.
Decrypt a contacté xAI pour un commentaire. Répression réglementaire mondiale En janvier, la Commission européenne a ouvert une enquête formelle en vertu du Digital Services Act sur X concernant le rôle présumé de Grok dans la génération et la diffusion de contenus sexuels illégaux. Quelques jours plus tard, les autorités françaises ont perquisitionné les bureaux de X à Paris en coordination avec Europol, convoquant Musk et plusieurs dirigeants pour des interrogatoires. Au Royaume-Uni, à la fois Ofcom et le Office of the Information Commissioner ont ouvert des enquêtes distinctes, Ofcom avertissant qu’il pourrait demander des mesures judiciaires pour bloquer efficacement le service de X si celui-ci s’avérait non conforme, le Premier ministre Keir Starmer déclarant qu’il chercherait de nouveaux pouvoirs parlementaires pour soumettre les fournisseurs de chatbots IA à la législation sur la sécurité en ligne. La commissaire australienne à la sécurité en ligne, Julie Inman Grant, a indiqué que les plaintes concernant Grok et les images sexuelles générées par IA non consensuelles avaient doublé ces derniers mois, et que son bureau utiliserait ses pouvoirs d’application si nécessaire. Le procureur général de Californie, Rob Bonta, a annoncé une enquête officielle sur xAI et Grok concernant la création et la diffusion d’images sexuelles explicites non consensuelles d’adultes et d’enfants. Plus tôt ce mois-ci, l’UNICEF a qualifié les deepfakes sexuels par IA de « profonde escalade des risques auxquels les enfants sont confrontés dans l’environnement numérique », déclarant que plus de 1,2 million d’enfants ont été ciblés l’année dernière et appelant les gouvernements à criminaliser les contenus abusifs générés par IA et à exiger des mesures de sécurité dès la conception.