La société d’intelligence artificielle d’Elon Musk, xAI, a déposé une plainte fédérale visant à empêcher le Colorado d’appliquer une nouvelle loi qui réglemente les systèmes d’IA à haut risque. Dans des documents déposés en justice jeudi, le recours de Musk vise le projet de loi du Sénat du Colorado (SB 24-205), prévu pour entrer en vigueur le 30 juin, qui exige des développeurs de systèmes d’IA qu’ils divulguent les risques et prennent des mesures pour prévenir la discrimination algorithmique dans des domaines tels que l’emploi, le logement, la santé, l’éducation et les services financiers. D’après la plainte, la société affirme que cette mesure forcerait les développeurs à modifier la façon dont les systèmes d’IA fonctionnent et pourrait limiter la manière dont les modèles génèrent des réponses.
« SB24-205 n’est manifestement pas une loi anti-discrimination. Il s’agit plutôt d’une tentative d’intégrer les vues préférées de l’État dans la trame même des systèmes d’IA », ont écrit les avocats de xAI. « Ses dispositions interdisent aux développeurs de systèmes d’IA de produire un discours que l’État du Colorado n’aime pas, tout en les obligeant à aligner leur discours sur une orthodoxie imposée par l’État sur des sujets controversés d’une grande importance pour le public. » Le recours demande à un tribunal fédéral de déclarer la loi inconstitutionnelle et de bloquer son application, ce que xAI affirme être une violation du premier amendement en forçant des changements aux sorties de Grok afin de les aligner sur les points de vue de l’État concernant la diversité et l’équité. La plainte soutient également que la SB24-205 réglemente à tort des activités au-delà du Colorado, est trop vague pour être appliquée équitablement et favorise les systèmes d’IA qui promeuvent la « diversité », tout en pénalisant ceux qui ne le font pas. « En imposant aux “développeurs” et aux “déployeurs” de distinguer entre la discrimination que le Colorado désapprouve et celle qu’il approuve, SB24-205 oblige le demandeur xAI — un “développeur” au regard de la loi — à modifier Grok, ce qui oblige la sortie de Grok sur certains sujets choisis par l’État à se conformer à un point de vue controversé, très politisé », indique la plainte. « Mais l’État “ne peut pas contraindre [xAI] à transmettre ses propres messages préférés.” »
Le recours juridique intervient dans un contexte de conflit croissant entre les entreprises technologiques et les responsables gouvernementaux au sujet de la manière dont l’intelligence artificielle devrait être réglementée. Plusieurs États, dont le Colorado, New York et la Californie, ont introduit des règles traitant des risques posés par les outils d’IA générative. Dans le même temps, l’administration de Donald Trump a fait avancer la mise en place d’un cadre national de réglementation de l’IA. La plainte arrive également alors que l’examen du chatbot de xAI, Grok, continue de s’intensifier. Plusieurs poursuites déposées en 2026 accusent la société d’autoriser Grok à générer des images deepfake sans consentement. En mars, une plainte collective déposée par trois mineurs du Tennessee a allégué que Grok avait produit des images explicites les représentant sans leur consentement. La ville de Baltimore a aussi poursuivi, affirmant que Grok avait généré jusqu’à 3 millions d’images sexualisées en l’espace de quelques jours, dont des milliers représentant des mineurs. xAI n’a pas répondu immédiatement à une demande de commentaire de Decrypt.