SpaceX propose de déployer un million de satellites de centres de données solaires en orbite, déclenchant un double débat sur la consommation énergétique de l’IA et la sécurité orbitale.
(Précédent contexte : La déclaration de Wood姐 « L’IA n’est pas une bulle » : le moment de l’explosion de richesse en copiant Internet)
(Complément d’information : Google lance officiellement « Gemini 3 » ! Quelles sont les nouveautés pour atteindre le sommet des modèles d’IA les plus intelligents au monde ?)
Table des matières
Selon le dernier rapport de PCMag, SpaceX, fondée par Elon Musk, a soumis cette semaine le 30 une demande à la Federal Communications Commission (FCC) pour déployer jusqu’à 1 000 000 de satellites de centres de données solaires, dans le but de déplacer le cœur du calcul de l’IA hors du sol, en orbite basse.
Nous savons que l’entraînement et l’inférence des modèles d’IA nécessitent une énorme consommation d’électricité et d’eau de refroidissement, mais la gestion des quotas de terres, d’électricité et d’eau freine actuellement l’expansion des centres de données terrestres.
Selon une analyse du Forum économique mondial, le coût de l’électricité pour les centres de données spatiaux est estimé à seulement 0,005 USD/kWh, soit un quinzième du prix de gros moyen au sol, et l’environnement sous vide élimine directement le besoin d’eau de refroidissement, ce qui constitue une solution majeure pour les centres traditionnels consommant des millions de tonnes d’eau, comme ceux de 40 MW.
Lors de la soumission, SpaceX a souligné :
C’est la première étape vers une civilisation stellaire, pas seulement pour résoudre les goulots d’étranglement actuels, mais pour maîtriser pleinement l’énergie solaire.
Comme Elon Musk l’a souvent fait pour des objectifs extrêmes, cette déclaration lie le bénéfice énergétique à l’avancement civil, orientant les investisseurs vers un avantage à long terme sur le coût marginal.
Ce n’est pas une idée sortie de nulle part. Starlink a déjà déployé plus de 9 600 satellites en orbite et a validé la technologie de communication laser inter-satellite OISL. Selon le magazine Time, à l’avenir, les nœuds Starlink pourront échanger des données et effectuer des calculs en orbite, ne renvoyant que des résumés ou des sauvegardes au sol, réduisant considérablement la dépendance aux fibres optiques pour le retour.
Actuellement, Google avec son projet Suncatcher et Blue Origin avec TeraWave testent également cette voie, mais l’ampleur de la demande de SpaceX a déjà élevé le seuil de compétition d’un ordre de grandeur.
Certains doutent que 1 million de satellites soient réalistes, mais Engadget rappelle qu’en 2022, SpaceX avait demandé à lancer 30 000 satellites Starlink, dont seulement 7 500 ont été approuvés par la FCC.
Aujourd’hui, évoquer un chiffre aussi élevé pourrait être une opération d’« effet d’ancrage » : fixer le point de départ de la négociation à une valeur extrême, pour pouvoir réduire par la suite tout en conservant une masse de plusieurs dizaines de milliers. Bloomberg indique que l’administration Trump était favorable à un assouplissement des contrôles pour les grandes infrastructures, ce qui pourrait augmenter les chances d’approbation, mais la décision finale dépendra des négociations lors des auditions.
Il y a environ 15 000 satellites en service dans le monde. Si 10 % de ces demandes sont finalement acceptées, cela ajoutera instantanément 100 000 nouveaux nœuds de données en orbite, augmentant le risque de collision de débris. La communauté astronomique et les groupes écologistes craignent qu’une fois le phénomène de Kessler déclenché, une réaction en chaîne de collisions ne bloque toute la proche orbite terrestre.
La FCC devra alors arbitrer entre « soutenir l’innovation dans l’infrastructure IA » et « éviter un chaos dans le trafic spatial ». Les auditions porteront notamment sur : la gestion des orbites désactivées, la mise en œuvre des protocoles d’évitement actif, et l’efficacité des mécanismes de nettoyage des débris.
Malgré l’attrait du projet SpaceX, plusieurs défis techniques et économiques doivent être surmontés entre la demande et la réalisation.
Premier, le conflit entre coûts de lancement et échelle de déploiement. Même si le Falcon 9 a réduit le coût par kilogramme en orbite à environ 2 700 USD, et que le Starship vise encore plus bas, un satellite doté de capacités de calcul réelles : serveurs, panneaux solaires, systèmes de refroidissement et modules de communication, pèse bien plus qu’un satellite de communication classique. Déployer des centaines de milliers de ces satellites nécessitera une fréquence de lancement et un coût total astronomiques.
Deuxième, la limite de puissance des composants spatiaux. Les GPU et la mémoire à haute bande passante utilisés dans les centres de données terrestres ne sont pas conçus pour l’environnement spatial. Les rayons cosmiques peuvent provoquer des inversions de bits, entraînant des erreurs de calcul ; les températures extrêmes (120°C au soleil, -150°C à l’ombre) mettent à rude épreuve la stabilité des puces. À ce jour, les puces anti-radiation spatiales ont environ deux à trois générations de retard sur les composants grand public.
Pour faire tourner de grands modèles en orbite, le déficit hardware reste le principal obstacle.
Troisième, le refroidissement n’est pas aussi simple qu’il y paraît. Le vide évite le refroidissement par convection, mais ne permet que le refroidissement par rayonnement. La dissipation thermique dépend de la surface et de la température, ce qui oblige à embarquer de grandes surfaces radiantes, augmentant poids et volume, en contradiction avec la capacité limitée de charge utile.
Le système de refroidissement de la Station spatiale internationale, pesant plusieurs tonnes, illustre bien cette difficulté.
Quatrième, la latence et la bande passante physiques. La latence d’un aller-retour en orbite basse est d’environ 4 à 20 ms, ce qui semble acceptable, mais la bande passante des liens laser inter-satellites est bien inférieure à celle des câbles sous-marins. Une fibre optique sous-marine peut atteindre plusieurs dizaines de Tbps, alors que la bande passante d’un seul lien OISL est encore au niveau de Gbps.
Pour la formation distribuée de modèles de grande taille, cette différence de bande passante peut être fatale. Le calcul spatial est plus adapté à des inférences par lots tolérant la latence, plutôt qu’à un entraînement en temps réel.
Cinquième, la maintenance et la mise à niveau. Les centres de données terrestres peuvent changer des disques, mettre à jour des GPU ou réparer des nœuds défectueux à tout moment. En orbite, une fois déployés, les satellites ne peuvent généralement pas être réparés. Quand la performance des puces devient obsolète ou que des composants vieillissent sous radiation, la seule solution est de lancer de nouveaux satellites et de retirer les anciens : cela revient aux coûts de lancement et à la congestion orbitale.
Bien sûr, ces difficultés ne rendent pas impossible la création de centres de calcul spatiaux, mais elles délimitent une frontière claire : à court terme, l’espace sera plutôt une extension des centres terrestres, pour des charges de travail peu sensibles à la latence et sensibles aux coûts énergétiques, plutôt qu’un remplacement total. La stratégie d’Elon Musk repose sur l’idée que, lorsque le coût des ressources terrestres augmentera, de plus en plus de clients cloud seront prêts à déporter leurs charges en orbite.
Le délai avant la décision finale de la FCC est de plusieurs mois, mais cette demande a déjà permis de faire passer l’idée de « mettre des centres de données dans l’espace » du domaine de la science-fiction à celui de l’agenda politique. La limite du cloud pourrait ne pas être sous le plafond, mais à l’horizon invisible du ciel.