Laut einem Bericht der Financial Times verwendete das US Central Command (CENTCOM) bei einem Luftangriff in Iran das Anthropic Claude AI-System, um Informationsanalysen, Zielerkennung und Kampfsimulationen durchzuführen – nur wenige Stunden nachdem Trump eine Exekutivorder zur Sperrung von Anthropic unterzeichnet hatte. Dieses Ereignis verdeutlicht, dass KI tief in die Verteidigungsinfrastruktur eingebunden ist, sodass eine sofortige Abschaltung durch ein Verbot kaum möglich ist.
Anthropic wurde vom Pentagon ausgeschlossen, weil es sich weigerte, die Beschränkungen für „autonome Waffen“ und „groß angelegte Überwachung“ aufzuheben, und OpenAI übernahm schnell die Kontrolle.
(Vorherige Zusammenfassung: Trump will Anthropic komplett verbieten! Weigert sich, Claude „Tötungsbeschränkungen“ zu entfernen – und OpenAI zeigt unerwartete Unterstützung.)
(Hintergrund: Pentagon konfrontiert Anthropic! Öffnet Claude für militärische Nutzung – „sonst Vertragskündigung“)
Inhaltsverzeichnis
Toggle
Am Freitag letzter Woche, als die Trump-Regierung befahl, Anthropic-Technologie vollständig zu stoppen, und der Verteidigungsminister sie sogar als „Lieferkettenrisiko“ einstufte, lief die US-Armee weiterhin mit Claude bei einem Luftangriff in Iran. Dieses scheinbar widersprüchliche Bild offenbart eine beunruhigende Realität: Die Durchdringung der KI in militärische Systeme hat ein Ausmaß erreicht, das durch administrative Verbote nicht sofort beseitigt werden kann.
Laut einem Bericht der Financial Times verwendete das US Central Command bei einem Luftangriff in Iran mit dem Codenamen „Operation Epic Fury“ weiterhin Claude für mehrere Schlüsselaufgaben – darunter Datenanalyse, Zielerkennungshilfe und Kampfsimulationen.
Anthropic hatte im Sommer letzten Jahres einen zweijährigen Prototyp-Vertrag im Wert von bis zu 200 Millionen US-Dollar mit dem Pentagon abgeschlossen. Durch Partnerschaften mit Palantir und Amazon Web Services wurde Claude zum ersten kommerziellen KI-Modell, das auf das geheime Netzwerk des Pentagon zugelassen wurde, mit Anwendungen von Waffentests bis hin zu Echtzeit-Kommunikation auf dem Schlachtfeld. Berichten zufolge wurde das System auch im Januar dieses Jahres bei der Unterstützung der Operationen des venezolanischen Präsidenten Maduro eingesetzt.
Der Kernkonflikt besteht darin: Das Pentagon forderte Anthropic auf, die Nutzungsbeschränkungen im Vertrag zu entfernen und Claude für „alle legalen Zwecke“ zuzulassen. Doch Anthropic-CEO Dario Amodei weigerte sich zu kompromittieren und bestand auf zwei ethischen Grundsätzen:
Claude darf nicht für groß angelegte Überwachung amerikanischer Bürger verwendet werden und darf keine vollständig autonomen Waffensysteme antreiben.
Amodei erklärte, das Unternehmen sei gegen den Einsatz von KI für „groß angelegte inländische Überwachung“ und „vollständig autonome Waffensysteme“ und betonte, dass militärische Entscheidungen vom Menschen kontrolliert werden sollten, nicht von Algorithmen. In einer Erklärung schrieb er: „Wir können ihrem Wunsch nicht mit gutem Gewissen nachkommen.“
Verteidigungsminister Pete Hegseth stufte Anthropic sofort als „Lieferkettenrisiko“ ein, und Trump befahl direkt, dass alle Bundesbehörden „sofort die Nutzung“ von Anthropic-Technologie einstellen sollen – allerdings haben das Verteidigungsministerium und andere Schlüsselstellen noch eine Übergangsfrist von sechs Monaten. Anthropic kündigte an, diese Einstufung gerichtlich anzufechten, da sie „rechtswidrig“ sei, und warnte, dass dies eine gefährliche Präzedenz für „jede US-Firma, die mit der Regierung verhandelt“ schaffen könnte.
Nur wenige Stunden nach Trumps Anordnung, Anthropic zu verbieten, kündigte OpenAI an, eine Vereinbarung mit dem Pentagon getroffen zu haben, um seine KI-Technologie in geheime militärische Netzwerke zu integrieren.
Bemerkenswert ist, dass OpenAI-CEO Sam Altman in einem CNBC-Interview öffentlich seine Unterstützung für Anthropic äußerte und sagte, es sei „vertrauenswürdig im Sicherheitsbereich“ – obwohl OpenAI letztlich den militärischen Vertrag, den Anthropic aufgeben musste, übernahm. Dieses subtile Spiel zwischen den KI-Giganten spiegelt die schwierige Balance zwischen kommerziellen Interessen und ethischen Überlegungen im Silicon Valley wider.
Das Erschütterndste an diesem Vorfall ist nicht die politische Auseinandersetzung zwischen Trump und Anthropic, sondern eine fundamentale Wahrheit: Wenn KI-Systeme bereits tief in alle militärischen Prozesse integriert sind – von der Informationsanalyse bis zur Zielerfassung – dann kann eine „Stromsteckerziehen“-Anordnung kaum kurzfristig wirksam werden.
Für die Krypto- und Web3-Community ist dieses Beispiel eine Mahnung: Ob KI oder Blockchain, wenn Technologien in die Kernbereiche von Regierung und Verteidigung vordringen, muss die Idee der „Dezentralisierung“ die Realität des „Staatswillens“ anerkennen. Das Schicksal von Anthropic zeigt, dass das Festhalten an technischer Ethik mit dem Risiko verbunden ist, den größten Kunden zu verlieren.