SpaceX 提案 em órbita para implantar milhões de satélites de centros de dados solares, acendendo o debate duplo sobre o consumo de energia de IA e a segurança orbital.
(Resumindo: a CEO afirmou que “IA não é uma bolha”: o momento de explosão de riqueza ao copiar a internet)
(Complemento de contexto: Google lança oficialmente o “Gemini 3”! Quais os destaques ao liderar os modelos de IA mais inteligentes do mundo?)
Índice deste artigo
De acordo com o mais recente relatório da PCMag, a SpaceX, fundada por Elon Musk, enviou nesta semana, dia 30, uma solicitação à Federal Communications Commission (FCC) dos EUA, propondo a implantação de até 1 milhão de satélites de centros de dados solares, com o objetivo de mover o núcleo de processamento de IA fora do solo, para órbita próxima à Terra.
Sabemos que o treinamento e a inferência de modelos de IA requerem uma enorme quantidade de energia e água para resfriamento, mas a limitação de terras, quotas de energia e recursos hídricos estão freando a expansão dos centros de dados terrestres.
Segundo análise do Fórum Econômico Mundial, o custo estimado de energia para centros de dados espaciais é de apenas 0,005 dólares por kWh, cerca de um quinze avos do preço médio de atacado na superfície, além de que o ambiente de vácuo elimina a necessidade de água de resfriamento, sendo uma grande solução para instalações tradicionais que consomem até milhões de toneladas de água, como as de 40MW.
Ao apresentar a proposta, a SpaceX destacou:
Este é o primeiro passo rumo à civilização estelar, não apenas para resolver gargalos atuais, mas para dominar completamente a energia solar.
Assim como Musk já demonstrou habilidade em alcançar objetivos extremos, essa declaração vincula o benefício energético à progressão civilizacional, direcionando os investidores a focar na vantagem de custo marginal a longo prazo.
A tecnologia não é uma fantasia. A Starlink já implantou mais de 9.600 satélites em órbita e validou a tecnologia de comunicação por laser entre satélites (OISL). Segundo a revista Time, no futuro, os nós do Starlink poderão trocar dados e realizar cálculos em órbita, enviando apenas os resultados resumidos ou backups de volta ao solo, reduzindo drasticamente a dependência de cabos de fibra óptica.
Atualmente, projetos como o Project Suncatcher do Google e o TeraWave da Blue Origin também testam essa abordagem, mas a escala da solicitação da SpaceX eleva a barreira de competição a um nível completamente novo.
Embora haja dúvidas de que 1 milhão de satélites seja exagero, a Engadget relembra que, em 2022, a SpaceX solicitou a autorização para lançar 30.000 satélites Starlink, sendo que a FCC aprovou apenas 7.500.
Hoje, ao propor um número na casa de milhões, provavelmente se trata de uma estratégia de “efeito âncora”: estabelecer o ponto de partida em um valor extremo, de modo que, mesmo após cortes, ainda reste uma quantidade de dezenas de milhares. A Bloomberg aponta que o governo Trump tinha tendência a flexibilizar a revisão de grandes infraestruturas, o que poderia aumentar as chances de aprovação, embora a quantidade final dependa das negociações nas audiências subsequentes.
Atualmente, há cerca de 15.000 satélites em operação no mundo. Se for autorizado apenas 10% do pedido, o número de satélites em órbita pode aumentar instantaneamente em 100.000, elevando o risco de colisões de fragmentos. Astrônomos e grupos ambientais temem que, uma vez desencadeado o efeito Kessler, colisões em cadeia possam bloquear toda a órbita próxima à Terra.
A FCC precisará equilibrar entre “apoiar a inovação em infraestrutura de IA” e “evitar o colapso do tráfego espacial”. As audiências irão focar em: como definir as órbitas de desativação, como implementar protocolos de evasão ativa e se os mecanismos de remoção de detritos estão adequados.
Apesar do apelo da visão da SpaceX, há vários desafios técnicos e econômicos que precisam ser superados entre a solicitação e a realização.
Primeiro, o conflito entre custos de lançamento e escala de implantação. Mesmo com o Falcon 9 reduzindo o custo por kg para cerca de 2.700 dólares, e o Starship mirando valores ainda menores, um satélite com capacidade de processamento real — incluindo servidores, painéis solares, sistemas de resfriamento e módulos de comunicação — pesa muito mais que um satélite de comunicação comum. Para implantar centenas de milhares, a frequência de lançamentos e o custo total ainda seriam astronômicos.
Segundo, o gargalo de hardware de alta performance para o espaço. Os GPUs e memórias de alta largura de banda usados em centros de dados terrestres não são projetados para ambientes espaciais. Raios cósmicos podem causar inversões de partículas, levando a erros de cálculo; temperaturas extremas (de 120°C na face solar a -150°C na face oposta) representam desafios severos à estabilidade dos chips. Atualmente, os chips resistentes à radiação no espaço têm desempenho cerca de duas a três gerações atrás dos chips comerciais.
Para rodar inferências de modelos grandes em órbita, essa lacuna de hardware é o principal obstáculo.
Terceiro, o resfriamento não é tão simples quanto parece. O vácuo realmente elimina a necessidade de água de resfriamento, mas impede a condução de calor por convecção, dependendo apenas da radiação. A eficiência da radiação depende da área de superfície e da temperatura, o que significa que satélites precisarão de grandes painéis radiadores, aumentando peso e volume, em conflito com a capacidade de carga limitada.
O sistema de resfriamento da Estação Espacial Internacional pesa várias toneladas, exemplificando esse problema.
Quarto, limites físicos de latência e banda. A latência de ida e volta em órbita baixa é de cerca de 4 a 20 ms, o que parece aceitável, mas a largura de banda das ligações por laser entre satélites é muito menor que a de cabos de fibra óptica terrestres. Uma fibra submarina pode transmitir dezenas de Tbps, enquanto uma única ligação OISL ainda opera na faixa de Gbps.
Para tarefas de treinamento distribuído que exigem sincronização de muitos parâmetros, essa diferença de banda pode ser fatal. Computação espacial é mais adequada para inferências em lote com alta tolerância a latência, e não para treinamentos em tempo real.
Quinto, manutenção e atualização difíceis. Centros de dados terrestres podem trocar discos, atualizar GPUs e reparar nós com facilidade. Satélites em órbita, uma vez lançados, dificilmente podem ser consertados. Quando o desempenho dos chips fica defasado ou componentes envelhecem por radiação, a única solução é lançar novos satélites e retirar os antigos — o que traz novamente os problemas de custo de lançamento e congestionamento orbital.
Claro que esses obstáculos não tornam a computação espacial impossível, mas delineiam uma fronteira clara da realidade: a curto prazo, o espaço será mais uma complementação aos centros de dados terrestres, para cargas de trabalho que toleram atrasos e são sensíveis ao custo energético, e não uma substituição completa. A aposta de Musk é que, à medida que os recursos terrestres se tornarem mais caros, cada vez mais clientes de nuvem estarão dispostos a migrar suas cargas para o espaço.
Faltando meses para a decisão final da FCC, essa solicitação já colocou a ideia de “levar centros de dados ao espaço” do campo da ficção científica para a agenda política. O limite do cloud computing talvez não esteja no teto, mas na fronteira invisível do horizonte celeste.