Verfasst von: Ada, Deep Tide TechFlow
Bevor Mark Zuckerberg bei Meta auch nur richtig seinen Arbeitsplatz eingenommen hatte, war er schon wieder weg.
Im Juli 2025 sicherte sich Zuckerberg mit einem mehrjährigen Vergütungsplan im Wert von über 200 Millionen US-Dollar diesen Top-Engineer im Bereich KI-Infrastruktur, der zuvor bei Apple tätig war. Peng Ruiming wurde in Meta’s Superintelligenz-Labor eingegliedert, um die Infrastruktur für die nächste Generation KI-Modelle aufzubauen.
Nach sieben Monaten holte OpenAI ihn wieder zurück.
Laut The Information führte OpenAI eine monatelange Rekrutierungskampagne gegen Peng Ruiming. Obwohl er Kollegen sagte, „bei Meta sehr glücklich zu sein“, entschied er sich letztlich doch zu gehen. Bloomberg berichtet, dass sein Vergütungsplan bei Meta an Meilensteine gekoppelt war; ein vorzeitiger Austritt bedeutete den Verzicht auf den Großteil der noch nicht ausgezahlten Aktien.
200 Millionen Dollar – das reicht nicht für sieben Monate Loyalität.
Das ist keine einfache Geschichte eines Jobwechsels.
Peng Ruiming ist nicht der Erste, der geht.
Letzte Woche kündigte Mat Velloso, Leiter des Entwicklerportals im Meta Superintelligenz-Labor, ebenfalls seinen Abschied an. Er war im Juli letzten Jahres von Google DeepMind zu Meta gewechselt und blieb weniger als acht Monate. Vor ihm, im November 2025, kündigte Yann LeCun, Turing-Preisträger und Chief AI Scientist bei Meta, nach 12 Jahren bei Meta, um ein eigenes Unternehmen zu gründen – das „Weltmodell“, das er immer propagiert hatte. Auch Geoffrey Hinton’s Kernschüler, Russ Salakhutdinov, Vice President für generative KI-Forschung bei Meta, kündigte kürzlich.
Um den Talentverlust bei Meta AI zu verstehen, muss man wissen, wie schwer die Schäden durch Llama 4 wirklich sind.
Im April 2025 präsentierte Meta stolz die Llama 4 Serie, Scout und Maverick. Die offiziellen Daten waren beeindruckend: In Kernbenchmarks wie MATH-500 und GPQA Diamond wurde GPT-4.5 und Claude Sonnet 3.7 deutlich übertroffen.
Doch das Flaggschiff-Modell, das Meta’s Ambitionen verkörpert, wurde in unabhängigen Blindtests der Open-Source-Community schnell entlarvt. Die Generalisierungs- und Schlussfolgerungsfähigkeiten entsprachen nicht den Behauptungen. Angesichts der heftigen Kritik gab Yann LeCun schließlich zu, dass das Team während der Tests „verschiedene Modellversionen für unterschiedliche Testsätze verwendet hatte, um die Endpunktzahl zu optimieren“.
In der rigorosen akademischen und ingenieurtechnischen KI-Welt ist das eine unentschuldbare Grenzüberschreitung. Mit anderen Worten: Das Team hat Llama 4 zu einer „Hausaufgabenmaschine“ gemacht, die nur alte Prüfungsfragen wiederholt, anstatt ein echtes, fortschrittliches intelligentes System zu entwickeln. Es ist, als würde man bei Mathe nur die Lösungskarten der letzten Jahre zeigen, bei Programmieren nur die Musterlösungen – alles wirkt stark, aber es ist nicht dasselbe Modell.
In der KI-Akademie nennt man das „Cherry Picking“, im Schulwesen „Schummeln“.
Für Meta, das sich stets als „Open-Source-Leuchtturm“ positioniert, hat dieser Skandal das wertvollste Vertrauen in die Entwickler-Community zerstört. Die direkte Folge: Zuckerberg verliert das Vertrauen in die technische Integrität des ursprünglichen GenAI-Teams und beginnt, Führungskräfte von außen zu holen und die Kerninfrastruktur-Abteilungen zu entmachten.
Er investierte zwischen 14,3 und 15 Milliarden Dollar, um eine 49%-Beteiligung an der Daten-Label-Firma Scale AI zu erwerben, und setzte den 28-jährigen CEO Alexandr Wang als Meta’s Chief AI Officer ein, um das Meta Superintelligenz-Labor (MSL) zu gründen. Yann LeCun, Turing-Preisträger, muss in der neuen Struktur an den jungen Wang berichten. Im Oktober wurden etwa 600 Stellen bei MSL gestrichen, darunter auch Mitglieder der von LeCun gegründeten FAIR-Forschungsabteilung.
Das ursprünglich für Sommer 2025 geplante Flaggschiff Llama 4 Behemoth wurde mehrfach verschoben, vom Sommer auf den Herbst, schließlich auf unbestimmte Zeit verschoben.
Meta entwickelt stattdessen die nächste Textmodell-Generation „Avocado“ und das Bild-/Video-Modell „Mango“. Berichten zufolge soll Avocado mit GPT-5 und Gemini 3 Ultra konkurrieren. Ursprünglich für Ende 2025 geplant, wurde die Auslieferung wegen unzureichender Leistungstests und Optimierungen auf das erste Quartal 2026 verschoben. Meta erwägt, es closed source zu veröffentlichen, um die offene Tradition der Llama-Serie aufzugeben.
Meta hat bei KI-Modellen zwei fatale Fehler gemacht: Erstens, das Benchmark-Betrug, der das Vertrauen der Entwicklergemeinschaft zerstört hat; zweitens, die Zwangsverbindung der Grundlagenforschung (FAIR) mit einem produktorientierten KPI-getriebenen Team. Zusammen sind diese Fehler die Hauptursache für den aktuellen Talentverlust.
Talente laufen, Chips sind auch problematisch.
Laut The Information hat Meta letzte Woche das Projekt für die Entwicklung hochmoderner KI-Trainingschips gestoppt.
Meta’s Chip-Plan heißt MTIA (Meta Training and Inference Accelerator). Die ambitionierte Roadmap sieht vor, zwischen 2026 und 2028 die Versionen v4 („Santa Barbara“), v5 („Olympus“) und v6 („Universal Core“) schrittweise einzuführen. Olympus sollte Meta’s erstes 2nm-Chiplet-basiertes Chip werden, das sowohl für hochkomplexes Training als auch für Echtzeit-Inferenz geeignet ist und letztlich Nvidia im Meta-Trainingscluster ersetzen soll.
Doch dieses Top-Trainingschip-Projekt wurde gestoppt.
Meta hat Fortschritte gemacht: Im Bereich der Inferenz hat das „Iris“-Projekt, MTIA v3, bereits große Datenzentren erobert. Es wird bei Facebook Reels und Instagram für Empfehlungen eingesetzt und soll die Gesamtkosten um 40–44 % senken. Doch Inferenz ist nicht gleich Training. Während Inferenz das Ausführen eines Modells ist, ist Training das Erstellen eines Modells. Meta kann eigene Inferenzchips bauen, aber keine Trainingschips, die mit Nvidia konkurrieren.
Das ist kein Novum. 2022 versuchte Meta, eigene Inferenzchips zu entwickeln, scheiterte im kleinen Maßstab und gab auf, um stattdessen große Bestellungen bei Nvidia aufzugeben.
Der Rückschlag bei der Eigenentwicklung beschleunigte den Trend, Chips extern zu kaufen.
Im Januar 2026 kündigte Meta ein Investitionsbudget von 115 bis 135 Milliarden Dollar an, fast doppelt so viel wie die 72,2 Milliarden im Vorjahr. Der Großteil dieses Geldes fließt in Chips.
Innerhalb von zehn Tagen wurden drei Großaufträge abgeschlossen:
Am 17. Februar unterzeichnete Meta eine mehrjährige, strategische Partnerschaft mit Nvidia. Meta wird „Millionen“ Blackwell- und Vera Rubin-GPUs sowie die Grace-CPU einsetzen. Analysten schätzen den Wert auf mehrere Hundert Milliarden Dollar. Meta wird damit der erste Großkunde, der Nvidia Grace-CPUs in großem Stil nutzt.
Am 24. Februar schloss Meta eine mehrjährige Vereinbarung mit AMD im Wert von 600 bis 1000 Milliarden Dollar. Meta kauft die neuesten MI450-GPU-Serien und die sechste Generation der EPYC-CPUs. Im Rahmen der Vereinbarung erhält AMD Warrants auf bis zu 160 Millionen Aktien, etwa 10 % an AMD, zu 0,01 USD pro Aktie, gestaffelt nach Meilensteinen.
Am 26. Februar berichtete The Information, dass Meta eine mehrjährige Vereinbarung mit Google unterzeichnet hat, um TPU-Chips für das Training und den Betrieb des nächsten großen Sprachmodells zu mieten. Zudem wird über eine direkte Anschaffung ab 2027 diskutiert.
Ein Social-Media-Unternehmen, das innerhalb von zehn Tagen gleichzeitig bei drei Chiplieferanten Bestellungen im Gesamtwert von über 100 Milliarden Dollar aufgibt.
Das ist keine Diversifikation. Das ist Panik-Einkauf.
Warum ist Meta so eilig?
Erstens, die Eigenentwicklung von Chips ist gescheitert. Das fortschrittlichste Trainingschip-Projekt wurde gestoppt, was bedeutet, dass Meta in absehbarer Zukunft auf externe Chips angewiesen ist. Für Inferenz reicht die MTIA-Lösung, aber für das Training von Vorreiter-Modellen wie Avocado braucht es Nvidia- oder gleichwertige Hardware.
Zweitens, die Konkurrenz schläft nicht. OpenAI hat Ressourcen von Microsoft, SoftBank und dem Emirat Abu Dhabi. Anthropic sichert sich 1 Million TPU- und Trainium-Chips von Google und Amazon. Google’s Gemini 3 wird vollständig auf TPU trainiert. Ohne ausreichende Rechenpower kann Meta nicht an der Spitze bleiben.
Drittens, wahrscheinlich das Wichtigste: Zuckerberg muss mit „Kaufkraft“ die fehlende „Forschungskraft“ kompensieren. Das Scheitern bei Llama 4, der Talentverlust und die Chip-Enttäuschung machen Meta’s KI-Story auf Wall Street anfällig. Der Kauf großer Mengen bei Nvidia, AMD und Google sendet zumindest ein Signal: Wir haben Geld, wir kaufen, wir geben nicht auf.
Meta’s Strategie ist derzeit: Wenn Software nicht klappt, dann Hardware kaufen; wenn Talente fehlen, Chips kaufen. Doch im KI-Wettbewerb gewinnt man nicht nur durch Geld. Rechenleistung ist notwendig, aber nicht ausreichend. Ohne Top-Modelle und klare technische Roadmaps sind viele Chips nur teure Lagerware.
Ein Blick auf die drei Transaktionen im Februar zeigt ein interessantes Detail, das die meisten übersehen:
Meta kauft bei Nvidia die aktuellen Blackwell- und zukünftigen Vera Rubin-GPUs; bei AMD die MI450 und die zukünftige MI455X; bei Google mietet die aktuelle Ironwood TPU, plant aber, sie nächstes Jahr direkt zu kaufen.
Drei unterschiedliche Hardware-Architekturen und Software-Ökosysteme.
Meta muss zwischen Nvidias CUDA, AMDs ROCm und Googles XLA/JAX ständig wechseln. Mehrere Lieferanten können Risiken streuen und die Kosten senken, erhöhen aber die technische Komplexität exponentiell.
Das ist die größte Schwäche von Meta: Für ein Modell mit mehreren hundert Milliarden Parametern braucht es nicht nur CUDA-Experten, sondern Architekten, die plattformübergreifende Trainingsframeworks bauen können.
Solche Experten gibt es weltweit vielleicht nur 100. Peng Ruiming ist einer davon.
Für 100 Milliarden Dollar die komplexeste Hardware-Kombination der Welt zu kaufen und gleichzeitig die Köpfe zu verlieren, die diese Hardware beherrschen, ist das surrealistischste Bild in Zuckerbergs großem Wette.
Betrachten wir den Blickwinkel: Die letzten 18 Monate bei Zuckerberg’s KI-Strategie ähneln stark seinem früheren „All In“ bei Metaverse:
Trend erkennen, viel investieren, Personal aufbauen, Rückschläge, Strategiewechsel, wieder viel investieren.
Von 2021 bis 2023 war es das Metaverse, das jährlich Milliardenverluste brachte, der Aktienkurs fiel von 380 auf 88 USD. Von 2024 bis 2026 ist es die KI, mit ähnlichen hohen Investitionen, häufigen Umstrukturierungen, immer noch der „Glaube an die Vision“.
Der Unterschied: Bei KI ist die Realität viel greifbarer als beim Metaverse. Meta hat Geld, um zu investieren, und seine Werbeerlöse generieren Cashflow: Im Q4 2025 599 Mio. USD, +24 %.
Das Problem: Geld kann Chips kaufen, Rechenleistung, sogar die Leute am Arbeitsplatz – aber nicht die, die bleiben.
Peng Ruiming wechselte zu OpenAI, Russ Salakhutdinov ging weg, LeCun gründete ein eigenes Unternehmen.
Zuckerbergs Wette lautet: Wenn wir genug Chips kaufen, große Rechenzentren bauen und viel Geld ausgeben, finden oder entwickeln wir die richtigen Leute.
Vielleicht funktioniert das. Meta ist eine der reichsten Tech-Firmen der Welt. Über 100 Milliarden Dollar operativer Cashflow sind das stärkste Bollwerk. Laut Quantumbit kommen fast 40 % der 44 Mitglieder des Meta Superintelligenz-Teams von OpenAI.
Doch im KI-Wettbewerb sind Rechenkapazität, Talentlisten und Modellbenchmarks öffentlich. Der Skandal um Llama 4’s Benchmark-Betrug zeigt: Man kann im Industry nur mit echten Fortschritten und nicht nur mit PR und PowerPoint gewinnen.
Am Ende zählt nur eins: Wie gut ist dein Modell?
Der KI-Wettlauf bis 2026 hat die Hierarchie bereits klar gemacht:
An der Spitze stehen OpenAI und Google. OpenAI hat die stärksten Modelle, die größte Nutzerbasis und die aggressivste Finanzierung. Google integriert eigene Chips, Modelle und Cloud-Infrastruktur. Anthropic folgt dicht dahinter, mit Claude, und profitiert von Google- und Amazon-Clouds.
Meta? Es hat am meisten Geld ausgegeben, die meisten Chip-Verträge unterschrieben und die meisten Umstrukturierungen gemacht, aber noch kein überzeugendes Top-Modell vorgelegt.
Meta’s KI-Story ist wie die von Yahoo im Jahr 2005: Auch damals eines der reichsten Internet-Unternehmen, das viel kaufte, aber kein Google-ähnliches Such-Engine-Produkt hervorbrachte. Geld ist nicht alles. Zuckerberg muss sich fragen: Was will Meta wirklich im KI-Bereich erreichen, statt nur das zu kaufen, was gerade „in“ ist.
Natürlich ist es noch zu früh, um Meta abzuschreiben. 3,58 Milliarden monatliche Nutzer, 599 Mio. USD Quartalsumsatz, der größte soziale Datensatz der Welt – das sind Assets, die kaum jemand kopieren kann.
Wenn das nächste Modell „Avocado“ pünktlich 2026 erscheint und wieder in die Top-3 aufsteigt, wird Zuckerbergs Wette als „strategischer Durchbruch“ gefeiert. Doch bei erneuter Verzögerung drohen die 135 Milliarden Dollar nur noch als leere Silizium-Ware in den Regalen.
Denn im Silicon Valley fehlt es nie an Käufern, die mit Schecks winken. Es fehlt nur an denen, die wissen, wie man diese Rechenpower in die Zukunft transformiert.