Anthropic gerät in direkten Konflikt mit dem Pentagon! CEO Amodei lehnt „landesweite Massenüberwachung“ und „vollständig autonome Waffen“ ab

ChainNewsAbmedia

Von Dario Amodei geleitete Anthropic gilt seit langem als eines der aktivsten KI-Unternehmen, die mit der US-Regierung zusammenarbeiten. Nun steht es jedoch wegen zweier entscheidender Nutzungsbeschränkungen öffentlich im Konflikt mit dem Pentagon.

Amodei betonte, dass das Unternehmen 98 % bis 99 % der Verteidigungsanwendungen unterstützt, bei den Themen „groß angelegtes Inlandsüberwachung“ und „vollständig autonome Waffen“ jedoch klare Grenzen setzt. Er sagte, es gehe nicht um Ablehnung der nationalen Sicherheit, sondern um den Schutz der demokratischen Werte und der Verfassung der USA.

Enge Zusammenarbeit mit dem Verteidigungssystem, aber rote Linien bei zwei Punkten

Amodei hob in einem Interview hervor, dass Anthropic eines der ersten KI-Unternehmen war, das tief mit dem US-Sicherheitsapparat kooperierte. Er erklärte, dass das Unternehmen Modelle zuerst in vertraulichen Cloud-Umgebungen bereitgestellt und maßgeschneiderte Modelle für die nationale Sicherheit entwickelt hat. Diese werden inzwischen breit bei Geheimdiensten und Militär eingesetzt, etwa im Bereich Cybersicherheit und Operationsunterstützung.

Mit anderen Worten: Anthropic ist kein Gegner militärischer Nutzung, sondern ein aktiver Teilnehmer.

Das Unternehmen hat jedoch zwei Nutzungsbeschränkungen klar formuliert:

Erstens „groß angelegte Inlandsüberwachung“. Amodei befürchtet, dass KI der Regierung ermöglicht, in bisher ungekanntem Ausmaß Daten von Privatunternehmen zu analysieren, etwa Standortdaten, politische Neigungen und persönliche Verhaltensmuster. Diese Praktiken sind nach aktuellem Recht möglicherweise legal, doch die explosive Entwicklung der KI-Technologie hat die Überwachungsfähigkeit weit über die ursprünglichen legislativen Absichten hinausgetrieben.

Zweitens „vollständig autonome Waffen“, also Waffensysteme, die ohne menschliches Eingreifen automatisch feuern. Amodei wies darauf hin, dass KI-Systeme noch immer unvorhersehbar und nicht zuverlässig sind. Wenn Maschinen die Entscheidung über das Feuer treffen, könnten Fehlentscheidungen, Fehlschüsse oder sogar zivile Opfer die Folge sein.

Er betonte ausdrücklich, dass es sich nicht um halbautonome Waffen handelt, die derzeit im Einsatz sind, sondern um vollständig unbemannt gesteuerte Waffensysteme.

Dreitägige Ultimatum und „Lieferkettenrisiko“-Streit

Laut Amodei forderte das Pentagon innerhalb von nur drei Tagen von Anthropic, den Bedingungen zuzustimmen, andernfalls würde das Unternehmen als „Lieferkettenrisiko“ eingestuft. Solche Bezeichnungen wurden bisher meist für ausländische Wettbewerber wie Russland oder China verwendet, kaum jedoch für US-Unternehmen.

Noch kontroverser ist, dass die Kommunikation hauptsächlich über Social-Media-Posts erfolgte. Amodei sagte, das Unternehmen habe bislang keine formellen Rechtsdokumente erhalten, sondern nur öffentliche Erklärungen von Präsidenten und Verteidigungsbeamten auf X (ehemals Twitter) gesehen.

US-Präsident Donald Trump kritisierte Anthropic sogar öffentlich als „egoistisch“ und sagte, das Vorgehen gefährde die US-Militär- und nationale Sicherheit.

Amodei antwortete, das Unternehmen sei bereit, auch bei Sanktionen das Verteidigungsministerium bei einem reibungslosen Übergang zu anderen Anbietern zu unterstützen, um einen technischen Rückschlag von sechs bis zwölf Monaten zu vermeiden.

Was ist das eigentliche Kernproblem?

Amodei glaubt, dass der Streit nicht darum geht, wer patriotischer ist, sondern um die Reife der Technologie und die Verantwortlichkeit.

Er wies darauf hin, dass KI nach wie vor unvorhersehbar ist. Selbst bei insgesamt guter Leistung kann ein Fehler von 1 % in kritischen Momenten katastrophal sein. Fehlentscheidungen, falsche Identifikation von Freund und Feind oder zivile Opfer könnten die Folge sein.

Ein tiefer liegendes Problem ist die „Rechenschaftspflicht“. Wenn in Zukunft ein Netzwerk aus Millionen Drohnen und wenigen oder einem einzigen Kommandanten Fehler macht, wer trägt dann die Verantwortung? Die KI? Die Ingenieure? Die Militärs? Oder die politischen Führer?

Diese Fragen sind bisher im Kongress kaum umfassend diskutiert worden.

Darf ein Privatunternehmen die Regierung dominieren?

Das schärfste Thema im Interview war: Warum hat ein privates Unternehmen das Recht zu entscheiden, wie das Militär seine Technologie nutzt?

Amodei antwortete ganz direkt – durch den freien Markt.

Er betonte, die Regierung könne sich jederzeit andere Anbieter suchen. Wenn die Werte nicht übereinstimmen, sollten beide Seiten sich friedlich trennen, anstatt mit Lieferkettenrisiko-Labels Strafmaßnahmen zu ergreifen. Er sieht darin eine Abschreckung für private Unternehmen.

Gleichzeitig räumte er ein, dass langfristig private Unternehmen und Militär klare Grenzen ziehen sollten, die durch Gesetzgebung des Kongresses geregelt werden. Er forderte, dass der Kongress neue Rahmenbedingungen für KI im Bereich Überwachung und autonome Waffen schafft, um mit der technologischen Entwicklung Schritt zu halten.

Geht es um Ideologie?

Kritiker werfen Anthropic vor, ein „links erwachtes Unternehmen“ zu sein. Amodei dementierte dies und betonte, dass das Unternehmen bei Energiepolitik und KI-Strategien mit der Regierung zusammenarbeite. Er sagte, die Differenzen seien nicht politischer Natur, sondern Werte- und Risikomanagementfragen.

Er betonte: „Anders dem Staat zu widersprechen, ist typisch amerikanisch.“

Kann Anthropic diesen Sturm überstehen?

Auf geschäftlicher Ebene zeigte sich Amodei sehr zuversichtlich. Er sagte, die tatsächlichen Auswirkungen der Lieferkettenrisiko-Label seien begrenzt und würden nicht den Einsatz von Anthropic-Technologie in anderen Bereichen verbieten, sondern nur bei militärischen Verträgen.

Er glaubt, dass einige Äußerungen bewusst übertrieben werden, um Angst, Unsicherheit und Zweifel (FUD) zu schüren, doch das Kerngeschäft des Unternehmens bleibe stabil.

Der Konflikt offenbart ein größeres Problem: Wenn KI-Technologie exponentiell voranschreitet, während Gesetzgebung und Regulierung nur langsam folgen, wer bestimmt dann die Grenzen?

Anthropic vertritt die Haltung „99 % Zusammenarbeit, 1 % Vorsicht“, während das Pentagon betont: „Alle legalen Anwendungen sollten offen sein.“ Die Differenz ist sowohl eine politische als auch eine strategische Frage, die unterschiedliche Vorstellungen von zukünftigen Kriegsbildern widerspiegelt.

Dieser Artikel über den Konflikt zwischen Anthropic und dem Pentagon! CEO Amodei lehnt „groß angelegte Inlandsüberwachung“ und „vollständig autonome Waffen“ ab. Erstmals veröffentlicht bei ABMedia.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)