OpenAI und Pentagon AI-Kooperation sorgt für Kontroversen: Mitarbeiter äußern sich öffentlich, Sicherheitslinien und Überwachungsrisiken im Fokus

GateNews

Am 3. März wurde berichtet, dass die Nachrichten über OpenAIs KI-Kooperationsabkommen mit dem US-Verteidigungsministerium weiterhin aufkamen, und eine Reihe aktueller und ehemaliger Mitarbeiter diskutierten kürzlich öffentlich die Sicherheitsgrenzen, mögliche Einsatzmöglichkeiten und Unterschiede zwischen der Position des Abkommens und der Position von Anthropic auf der sozialen Plattform X, was breite Aufmerksamkeit im Bereich Technologie und Politik erregte.

OpenAI-CEO Sam Altman hatte zuvor bestätigt, dass das Unternehmen eine Kooperationsvereinbarung mit dem US-Verteidigungsministerium getroffen hat, die es erlaubt, die künstlichen Intelligenzmodelle von OpenAI unter bestimmten Bedingungen zu verwenden. Die Zusammenarbeit wurde schnell umstritten, da ein weiteres KI-Unternehmen, Anthropic, zuvor ähnliche Bedingungen akzeptiert hatte, da befürchtet wurde, dass sein Modell Claude für groß angelegte inländische Überwachung oder autonome tödliche Waffensysteme verwendet werden könnte.

Als Reaktion darauf sagte OpenAI-Forscher Boaz Barak, es sei ungenau, den Vertrag von OpenAI als “Schwächung der Sicherheitsrotlinien” zu bezeichnen. Er wies darauf hin, dass nach den derzeit verfügbaren Informationen die Beschränkungen für die Nutzung von KI-Modellen im OpenAI-Abkommen strenger sein könnten als die zuvor von Anthropic abgeschlossenen Verträge, insbesondere im Hinblick auf die Verhinderung großflächiger inländischer Überwachung und autonomer Waffen.

Unterdessen bietet Miles Brundage, ehemaliger Leiter der Politikforschung bei OpenAI, eine andere Sichtweise. Er ist der Ansicht, dass vor dem Hintergrund externer Anwälte und öffentlicher Stellungnahmen des Pentagon einige Mitarbeiter vermuten könnten, dass das Unternehmen Zugeständnisse in den Verhandlungen gemacht hat und versuchen könnte, solche Zugeständnisse als technische Zusammenarbeit zu verpacken. Er fügte jedoch später hinzu, dass die interne Struktur von OpenAI komplex sei und das an den Verhandlungen beteiligte Team möglicherweise hart daran arbeite, ein vernünftiges Ergebnis zu erzielen.

Ein weiterer OpenAI-Techniker, Clive Chan, enthüllte, dass der Vertrag des Unternehmens eine Schutzklausel enthält, die den Einsatz von KI für Massenüberwachung oder autonome tödliche Waffen verbietet, und sagte, er dränge das Unternehmen, mehr Details der Vereinbarung als Reaktion auf öffentliche Bedenken offenzulegen.

Der Forschungswissenschaftler Muhammad Bavarian sagte, es sei unfair, dass das Pentagon Anthropic als Lieferkettenrisiko behandelt. Er ist der Ansicht, dass es weiterhin eine Möglichkeit gibt, die Positionslücke zu schließen, wenn beide Seiten in den Verhandlungen ruhig bleiben.

Darüber hinaus wies der Forscher Noam Brown darauf hin, dass die ursprünglich angekündigte Formulierung der Vereinbarung einige Fragen aufwarf, etwa die Möglichkeit, KI in neuen legalen Überwachungsformen einzusetzen. Nachdem OpenAI jedoch seinen offiziellen Blog aktualisiert hat, wurden diese Aussagen korrigiert.

Noam Brown betonte außerdem, dass der Einsatz von KI in nationalen Sicherheitsbehörden einer demokratischen Prozessüberprüfung unterliegen sollte und nicht ausschließlich von Technologieunternehmen oder Geheimdiensten entschieden werden sollte. Derzeit wurden auch die Pläne, relevante KI-Systeme in Nachrichtendienste wie die NSA einzusetzen, auf Eis gelegt, bis weitere politische Diskussionen stattfinden.

Dieser Vorfall spiegelt die komplexen Kontroversen wider, denen die Anwendung von KI-Technologie im Bereich der nationalen Sicherheit gegenübersteht. Da die KI-Fähigkeiten weiter zunehmen, wird erwartet, dass die Diskussionen über militärische KI-Nutzungen, KI-Überwachungsrisiken und ethische KI-Governance weiter an Fahrt aufnehmen werden.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)