Am 27. Februar kündigte der indische Rechenzentrumsbetreiber Yotta Data Services an, 2 Milliarden US-Dollar in den Bau eines künstlichen Intelligenzzentrums auf Basis von Nvidia-GPUs zu investieren und plant, den Listingprozess in den nächsten 12 Monaten voranzutreiben. Das Unternehmen erklärte, dass mit der Beschleunigung des lokalen Großmodelltrainings und dem Anstieg der Nutzergröße die Nachfrage nach GPUs in Indien das Angebot überschritten habe.
Sunil Gupta, Mitbegründer und CEO von Yotta, sagte, dass das Unternehmen seit 2023 Nvidia-Chips in großem Maßstab einkauft und derzeit etwa 60 % bis 70 % der GPU-Rechenleistung Indiens kontrolliert. Die meisten lokalen Modelle, die kürzlich auf dem India AI Summit vorgestellt wurden, wurden im Rechenzentrum von Yotta trainiert. Zum Beispiel verfolgt der von Sarvam AI gestartete Indus-Chatbot eine phasenweise Öffnungsstrategie aufgrund begrenzter Rechenleistung.
Auf globaler Ebene beschleunigen OpenAI, Google und Microsoft ihr Layout auf dem indischen Markt. OpenAI hat eine Kapazitätsvereinbarung von 100 Megawatt mit dem Rechenzentrumsgeschäft von Tata Consultancy Services abgeschlossen, mit der Option zur Erweiterung auf 1 GW. Sam Altman sagte zuvor, dass er die lokale Infrastruktur und Kooperationsökologie durch das Programm “OpenAI for India” stärken wird.
Die Investmentbank Nomura erwartet, dass Indiens Rechenzentrumskapazität von 1,93 GW im Jahr 2025 auf 4 GW im Jahr 2028 steigen wird. Eine Reihe von Unternehmen hat angekündigt, in den nächsten fünf bis sieben Jahren bis zu 277 Milliarden US-Dollar in Indiens künstliche Intelligenz-Infrastruktur zu investieren.
Yotta plant, seinen GPU-Bestand mit 1,2 Milliarden auf 1,5 Milliarden US-Dollar an Pre-IPO-Finanzierung zu erweitern. Im Kontext des zunehmenden globalen Wettbewerbs in der Rechenleistung beschleunigt Indien den Aufbau lokaler KI-Rechennetze, und Rechenzentren sowie High-End-Chips sind zur zentralen Unterstützung für industrielle Modernisierungen geworden.