Im Konflikt zwischen KI-Ethik und militärischen Anforderungen hat Anthropic-CEO Dario Amodei kürzlich die Verhandlungen mit dem Pentagon wieder aufgenommen, um einen milliardenschweren KI-Kooperationsvertrag zu retten und eine offizielle Ausschluss aus der Verteidigungs-Lieferkette zu vermeiden, während das Unternehmen seine „rote Linie“ verteidigt.
(Frühere Meldung: Anthropic-CEO kritisiert: OpenAI-Verträge mit dem Pentagon sind Lügen, Altman tarnt sich als Friedensbotschafter)
(Hintergrund: Trump will Anthropic vollständig verbieten! Ablehnung, Claude „Tötungsbeschränkungen“ zu ändern, während OpenAI unerwartet Unterstützung zeigt)
Inhaltsverzeichnis
Toggle
Der US-KI-Hersteller Anthropic hat kürzlich die Verhandlungen mit dem US-Verteidigungsministerium (Pentagon) wieder aufgenommen, um die letzten Vertragsdetails für den militärischen Einsatz seines KI-Modells Claude zu klären. Dies geschah nach dem Scheitern der Verhandlungen in der letzten Woche, bei denen das Pentagon Anthropic als „Lieferkettenrisiko“ einstufte. Ziel ist es, einen Ausschluss von der Zusammenarbeit mit dem US-Militär zu verhindern und gleichzeitig die Kernethikprinzipien zu wahren.
Seit letztem Jahr hat Anthropic einen Pilotvertrag im Wert von bis zu 200 Millionen US-Dollar mit dem Pentagon abgeschlossen, wodurch Claude zum ersten fortschrittlichen KI-Modell wurde, das auf vertraulichen Netzwerken eingesetzt werden darf. Später forderte die Trump-Regierung Änderungen an den Vertragsbedingungen und bestand auf „jegliche legale Nutzung“ (any lawful use) ohne Einschränkungen.
Anthropic hält an zwei „roten Linien“ fest: Der Einsatz von Claude für groß angelegte inländische Überwachung der US-Bevölkerung sowie für vollständig autonome Waffensysteme (fully autonomous weapons), die ohne menschliches Eingreifen Ziele auswählen und angreifen können. Das Unternehmen befürchtet, dass solche Anwendungen demokratische Werte gefährden könnten und die KI-Technologie derzeit noch nicht zuverlässig genug ist. Der Verteidigungsminister Pete Hegseth stellte jedoch eine letzte Ultimatum, forderte eine Einigung innerhalb einer Frist oder drohte mit Vertragskündigung und rechtlichen Schritten, was die Verhandlungen letzten Freitag vorübergehend zum Scheitern brachte.
Laut Insider-Quellen führt Amodei derzeit direkte Gespräche mit Emil Michael, dem stellvertretenden Minister für Forschung und Technik im Pentagon. Ziel ist es, eine Kompromissvereinbarung zu erzielen, die es dem US-Militär ermöglicht, Claude weiterhin zu nutzen, während das Risiko einer offiziellen Blacklist-Einstufung für Anthropic deutlich reduziert wird.
Bei Erfolg könnte der neue Vertrag die Spannungen entschärfen und die Wettbewerbslandschaft im KI-Bereich beeinflussen – beispielsweise hat OpenAI bereits eine Vereinbarung mit dem Pentagon getroffen, passt aber die Vertragsbedingungen ebenfalls an, um ähnliche Einschränkungen zu integrieren. Anthropic betont, weiterhin offen für Kooperationen zu sein, aber seine Kernprinzipien nicht aufzugeben; sollte keine Einigung erzielt werden, wird das Unternehmen den Übergang zu anderen Anbietern unterstützen, um den Betrieb des Militärs nicht zu gefährden.
Dieser Streit verdeutlicht die Spannungen zwischen KI-Unternehmen und Militär hinsichtlich Ethik, Sicherheit und nationaler Sicherheit. Anthropic positioniert sich mit „verantwortlicher KI“ und weigert sich, unbedingte Zugeständnisse zu machen, was die tiefen Bedenken einiger Silicon-Valley-Unternehmen gegenüber militärischer Nutzung von KI widerspiegelt; das Pentagon hingegen betont die Bedeutung von Flexibilität auf dem Schlachtfeld und technologischem Vorsprung.
Gelingt die Verhandlung, könnte dies ein neues Beispiel für den Einsatz von KI im Militär setzen; scheitert sie, könnte dies die Branche weiter spalten. Branchenexperten erwarten, dass bald offizielle Erklärungen oder neue Entwicklungen bekannt werden.