Titel des Originaltexts: „Some thoughts ahead of Nvidia tonight“
Autor: @GavinSBaker
Übersetzung: Peggy, BlockBeats
Herausgeberkommentar: Nach der Veröffentlichung der Nvidia-Geschäftszahlen konzentriert sich der Markt meist auf Umsatz, Gewinn und Prognosen. Doch der Autor @GavinSBaker versucht, die Diskussion auf eine langfristige Perspektive zu lenken: Entscheidend für den Wert von Nvidia ist nicht nur die Quartalsbilanz, sondern wie lange die KI-Nachfrage anhält und ob Investitionen in Rechenleistung nachhaltige Renditen bringen.
Der Artikel beginnt mit historischen Erfahrungen aus Technologiekreisläufen und diskutiert, ob „Blasen und Überbau“ erneut auftreten könnten. Dabei weist er auf Engpässe bei Stromversorgung und Wafer-Lieferung hin, die das Wachstum möglicherweise bremsen. Andererseits bestätigen hohe Mietpreise für GPUs und die hohe Auslastung älterer Chips die realistische Rentabilität von KI-Investitionen.
Hier der Originaltext:
Hier sind einige persönliche Beobachtungen, die für Nvidia-Interessierte hilfreich sein könnten. Meiner Ansicht nach gibt es bei diesem Unternehmen nur zwei zentrale Variablen: Erstens die Nachhaltigkeit der Nachfrage und zweitens die Investitionsrendite (ROI) von KI, die eng mit der effektiven Nutzungsdauer der GPUs verbunden ist.
Nachhaltigkeit der Nachfrage: Wird die Geschichte sich wiederholen?
Aus der Geschichte technischer Wellen lässt sich ableiten, dass fast alle ähnlichen Zyklen eine Finanzblase und eine Überkapazität erlebt haben. Carlota Perez beschreibt dies systematisch in „Technological Revolutions and Financial Capital“. Sie erklärt, dass bei jeder technischen Revolution – ob Eisenbahn, Rundfunk oder Internet – die Finanzmärkte frühzeitig das langfristige Potenzial erkennen, während die Kapitalgier oft Blasen erzeugt (was auch durch Mauboussin als „Zusammenbruch der Meinungsvielfalt“ erklärt werden kann). Übertreibungen führen zu Überbau, der wiederum eine phaseweise Nachfrageschwäche und schließlich einen Markteinbruch auslöst; gleichzeitig sorgt ein Überangebot an Basistechnologien für die Grundlage eines „Goldenen Zeitalters“. Das Internet ist ein typisches Beispiel.
Für Nvidia bedeutet das: Es ist nicht das Quartalsergebnis oder die Prognose für das nächste Quartal entscheidend, da diese bereits von den Investoren weitgehend antizipiert werden. Wichtiger ist die Nachhaltigkeit des Gewinns pro Aktie (EPS), nicht nur das Wachstum im aktuellen Jahr.
Aus den aktuellen Bewertungen und Erwartungen schlussfolgert der Markt eher, dass Nvidia kurz vor einem temporären Hoch steht, was auf Sorgen vor zu hohen Investitionen hindeutet. Es ist wichtig zu betonen, dass die Sorge nicht um eine „Bewertungsblase“ geht, sondern um eine „Fundamentaldatenblase“ – also das Risiko einer Überbauung durch Capex. Wenn der Markt Vertrauen darin gewinnt, dass Nvidia nach dem Geschäftsjahr 2027 weiterhin ein hohes zweistelliges Umsatzwachstum (CAGR) aufrechterhalten kann, könnte die Bewertung stabil bleiben.
Ist diesmal wirklich alles anders?
„Diesmal ist alles anders“ ist oft eine gefährliche Annahme. Doch bei diesem KI-Zyklus gibt es tatsächlich Unterschiede: Weltweit bestehen in den Bereichen Strom (Watt) und fortschrittliche Wafer-Produktion (Wafers) erhebliche Engpässe, deren Lösung Jahre dauern könnte.
Diese Angebotsbeschränkungen könnten sogar die Überkapazitäten bremsen. Große Cloud-Anbieter könnten theoretisch weiter expandieren, doch Strom- und Wafer-Limits setzen Grenzen. Anders als bei den historischen technischen Revolutionen, die Perez beschreibt, gab es damals keine vergleichbaren Angebotsengpässe, die die Deployment-Geschwindigkeit einschränkten.
Ohne Überbau ist ein Zusammenbruch unwahrscheinlich, vor allem wenn die Bewertungen der Tech-Aktien derzeit nicht extrem hoch sind.
Unter diesen beiden Engpässen ist die Wafer-Produktion wahrscheinlich entscheidender als die Stromversorgung. Die Steuerung der Wafer-Kapazitäten könnte ein wichtiger Faktor sein, um den KI-Zyklus zu verlängern. TSMC ist bekannt für seine vorsichtige Managementstrategie, die auf Stabilität und langfristigen Wert setzt, nicht auf kurzfristige aggressive Expansion. Ohne die Beschränkungen durch Strom und Wafer könnte Nvidia in den nächsten 24 Monaten schneller wachsen, doch das Risiko einer Überkapazität würde steigen.
In gewisser Weise könnten Angebotsbeschränkungen den gesamten KI-Zyklus „verlangsamen und stabilisieren“. Die hohe Abhängigkeit von fortschrittlichen Wafern könnte sogar dazu beitragen, extreme Schwankungen zu vermeiden.
Um extreme Szenarien zu realisieren, müsste die Rechenleistung um das Hundert- oder Tausendfache steigen. Die dafür benötigte Zeit würde den gesellschaftlichen Anpassungsprozess und regulatorische Rahmenbedingungen entlasten.
Die Geschichte zeigt, dass nach James Watts’ Erfindung der Dampfmaschine der Eisenbahnverkehr Jahrzehnte brauchte, um die Pferde zu ersetzen. Die KI-Entwicklung mag schneller sein, doch eine vollständige gesellschaftliche Umstrukturierung in kurzer Zeit ist unwahrscheinlich.
Noch wichtiger ist: Menschliche „Allgemeinintelligenz“ benötigt nur 20–30 Watt. In einer Welt mit begrenzter Stromversorgung könnte diese Effizienz langfristig ein entscheidender Vorteil sein. Ein sanfterer, nachhaltigerer KI-Zyklus könnte für die Gesellschaft sogar vorteilhaft sein.
GPU-Nutzungsdauer und echtes ROI bei KI
Die Mietpreise für GPUs spiegeln im Wesentlichen den wirtschaftlichen Wert der Token wider und sind ein zentrales Maß für den „AI ROI“. Theoretisch sollten die Mietpreise für ältere GPUs wie die A100 sinken, wenn neue, leistungsfähigere Chips auf den Markt kommen, selbst bei positiver Investitionsrendite.
Doch in den letzten zwei Monaten sind die Mietpreise für die fast vier Jahre alten H100 deutlich gestiegen. Das zeigt, dass Rechenleistung in Szenarien wie agentic AI und Code-Generation echten wirtschaftlichen Wert schafft.
Gleichzeitig bleibt die A100, die vor sechs Jahren eingeführt wurde, hoch genutzt, und die Mietpreise sind kaum gefallen. Das deutet darauf hin, dass die effektive Nutzungsdauer von GPUs mindestens sechs Jahre beträgt, möglicherweise länger als die Abschreibungszyklen der meisten Kunden.
Das hat strukturelle Folgen: Wenn der Restwert höher ist als erwartet, sinken die Finanzierungskosten für GPUs. Im Vergleich dazu haben spezialisierte ASICs, die für einzelne Modelle oder Anwendungen maßgeschneidert sind, oft kürzere Lebenszyklen und höhere Kapitalkosten. In einer schnelllebigen Umgebung sind spezialisierte Chips teurer in der Anschaffung und schwerer zu finanzieren.
In gewisser Weise ist die Vielseitigkeit die Kernkompetenz der GPUs. Mit der Aufteilung von prefill und decode sowie der Entwicklung entsprechender Chip-Architekturen wandelt sich die Rechenarchitektur vom „Ein-Chip-Design“ zum „Multi-Chip-System“. KI-Infrastruktur basiert zunehmend auf komplexen, hochgradig gekoppelten Systemen, nicht auf einzelnen Komponenten.
Mit der Entkopplung von prefill und decode könnte Nvidia früher als TPU-Ökosysteme eine strukturelle Umstellung vollziehen. Unterschiede in den Design-Philosophien verschiedener Hersteller verändern die relative Wettbewerbsfähigkeit bei Inferenzkosten.
Wenn einige Anbieter bisher Kostenvorteile genutzt haben, um Token-Preise zu drücken, wird eine Abschwächung dieser Vorteile die Marktverhalten rationaler machen. Langfristig dürfte dies die KI-Rendite verbessern, besonders im Übergang von Trainings- zu Inferenzanwendungen.
Diese Entwicklung ist vielleicht wichtiger als die Quartalszahlen.
Abschließend ein Wunsch: Hoffentlich kann Nvidia in Zukunft wieder Superhelden-Namen für Chips verwenden. Überraschenderweise hat der „grüne“ Sektor bisher nie den Namen „Banner“ (den echten Namen des Marvel-Charakters Hulk) genutzt.