Am 3. März wurde berichtet, dass die Nachrichten über OpenAIs KI-Kooperationsabkommen mit dem US-Verteidigungsministerium weiterhin aufkamen, und eine Reihe aktueller und ehemaliger Mitarbeiter diskutierten kürzlich öffentlich die Sicherheitsgrenzen, mögliche Einsatzmöglichkeiten und Unterschiede zwischen der Position des Abkommens und der Position von Anthropic auf der sozialen Plattform X, was breite Aufmerksamkeit im Bereich Technologie und Politik erregte.
OpenAI-CEO Sam Altman hatte zuvor bestätigt, dass das Unternehmen eine Kooperationsvereinbarung mit dem US-Verteidigungsministerium getroffen hat, die es erlaubt, die künstlichen Intelligenzmodelle von OpenAI unter bestimmten Bedingungen zu verwenden. Die Zusammenarbeit wurde schnell umstritten, da ein weiteres KI-Unternehmen, Anthropic, zuvor ähnliche Bedingungen akzeptiert hatte, da befürchtet wurde, dass sein Modell Claude für groß angelegte inländische Überwachung oder autonome tödliche Waffensysteme verwendet werden könnte.
Als Reaktion darauf sagte OpenAI-Forscher Boaz Barak, es sei ungenau, den Vertrag von OpenAI als “Schwächung der Sicherheitsrotlinien” zu bezeichnen. Er wies darauf hin, dass nach den derzeit verfügbaren Informationen die Beschränkungen für die Nutzung von KI-Modellen im OpenAI-Abkommen strenger sein könnten als die zuvor von Anthropic abgeschlossenen Verträge, insbesondere im Hinblick auf die Verhinderung großflächiger inländischer Überwachung und autonomer Waffen.
Unterdessen bietet Miles Brundage, ehemaliger Leiter der Politikforschung bei OpenAI, eine andere Sichtweise. Er ist der Ansicht, dass vor dem Hintergrund externer Anwälte und öffentlicher Stellungnahmen des Pentagon einige Mitarbeiter vermuten könnten, dass das Unternehmen Zugeständnisse in den Verhandlungen gemacht hat und versuchen könnte, solche Zugeständnisse als technische Zusammenarbeit zu verpacken. Er fügte jedoch später hinzu, dass die interne Struktur von OpenAI komplex sei und das an den Verhandlungen beteiligte Team möglicherweise hart daran arbeite, ein vernünftiges Ergebnis zu erzielen.
Ein weiterer OpenAI-Techniker, Clive Chan, enthüllte, dass der Vertrag des Unternehmens eine Schutzklausel enthält, die den Einsatz von KI für Massenüberwachung oder autonome tödliche Waffen verbietet, und sagte, er dränge das Unternehmen, mehr Details der Vereinbarung als Reaktion auf öffentliche Bedenken offenzulegen.
Der Forschungswissenschaftler Muhammad Bavarian sagte, es sei unfair, dass das Pentagon Anthropic als Lieferkettenrisiko behandelt. Er ist der Ansicht, dass es weiterhin eine Möglichkeit gibt, die Positionslücke zu schließen, wenn beide Seiten in den Verhandlungen ruhig bleiben.
Darüber hinaus wies der Forscher Noam Brown darauf hin, dass die ursprünglich angekündigte Formulierung der Vereinbarung einige Fragen aufwarf, etwa die Möglichkeit, KI in neuen legalen Überwachungsformen einzusetzen. Nachdem OpenAI jedoch seinen offiziellen Blog aktualisiert hat, wurden diese Aussagen korrigiert.
Noam Brown betonte außerdem, dass der Einsatz von KI in nationalen Sicherheitsbehörden einer demokratischen Prozessüberprüfung unterliegen sollte und nicht ausschließlich von Technologieunternehmen oder Geheimdiensten entschieden werden sollte. Derzeit wurden auch die Pläne, relevante KI-Systeme in Nachrichtendienste wie die NSA einzusetzen, auf Eis gelegt, bis weitere politische Diskussionen stattfinden.
Dieser Vorfall spiegelt die komplexen Kontroversen wider, denen die Anwendung von KI-Technologie im Bereich der nationalen Sicherheit gegenübersteht. Da die KI-Fähigkeiten weiter zunehmen, wird erwartet, dass die Diskussionen über militärische KI-Nutzungen, KI-Überwachungsrisiken und ethische KI-Governance weiter an Fahrt aufnehmen werden.