Am 3. März gab laut CNBC OpenAI-CEO Sam Altman zu, dass das vorherige Kooperationsabkommen des Unternehmens im Bereich künstliche Intelligenz mit dem US-Verteidigungsministerium zu voreilig war, und sagte, dass die entsprechenden Bedingungen angepasst würden. Diese Aussage kommt zu einer Zeit, in der die öffentliche Meinung weiterhin aufkommt, nachdem OpenAI eine Zusammenarbeit mit dem Pentagon angekündigt hat, was weitreichende Diskussionen über KI-Ethik, militärischen Einsatz und Datensicherheit ausgelöst hat.
Laut öffentlichen Informationen wurde das Abkommen letzten Freitag bekannt gegeben, während die US-Regierung eine Reihe von Entscheidungen zur nationalen Sicherheit vorantreibt. Nachdem die Nachricht bekannt wurde, äußerten einige Tech-Communities und Nutzer Bedenken hinsichtlich des möglichen Einsatzes von künstlicher Intelligenz für militärische Zwecke. Sam Altman veröffentlichte später auf sozialen Plattformen als Antwort, dass das Unternehmen neue Einschränkungen in die Vereinbarung einführen werde, darunter die klare Regelung, dass KI-Systeme nicht für die inländische Überwachung von US-Bürgern oder -Einwohnern verwendet werden dürfen.
Sam Altman sagte außerdem, dass das US-Verteidigungsministerium bestätigt habe, dass die künstlichen Intelligenz-Tools von OpenAI nicht direkt von Geheimdiensten wie der National Security Agency (NSA) für Überwachungsmissionen genutzt werden. Gleichzeitig plant OpenAI, mit dem Pentagon zusammenzuarbeiten, um zusätzliche technische Schutzmaßnahmen zu entwickeln, um das Risiko von KI-Missbrauch in sensiblen Szenarien zu verringern.
Der CEO räumte außerdem ein, dass das Unternehmen bei der Umsetzung der Vereinbarung einen Fehler im Urteilsvermögen gemacht hatte. Er sagte, dass das Team damals die Situation schnell deeskalieren und ernsthaftere politische Konflikte vermeiden wollte, aber rückblickend schien die Entscheidung zu übereilt und leicht als Spekulation zu interpretieren.
Die Kontroverse bezieht sich auch auf Anthropic, ein weiteres KI-Unternehmen. Zuvor hatte Anthropic mit der US-Regierung über die Grenzen der Nutzung seines KI-Modells Claude uneinig gewesen und klare Zusicherungen gefordert, dass seine Systeme nicht für inländische Überwachung oder autonome Waffenentwicklung eingesetzt würden. Die Verhandlungen zwischen beiden Seiten scheiterten Berichten zufolge.
Gleichzeitig gibt es spürbare Schwankungen in der Nutzerstimmung im Netzwerk. Einige Nutzer haben ihre Nutzung von ChatGPT auf App-Plattformen reduziert und sich stattdessen konkurrierenden Produkten wie Claude zugewandt, was die ethischen Kontroversen in der KI-Branche weiter verstärkt.
In seiner Antwort sagte Sam Altman außerdem, er glaube nicht, dass Anthropic als Lieferkettenrisiko betrachtet werden sollte, und hoffe, dass das US-Verteidigungsministerium ähnliche Kooperationsbedingungen wie OpenAI stellen werde. Dieser Vorfall hat erneut verdeutlicht, dass im Kontext der rasanten Entwicklung der künstlichen Intelligenz die Grenzfrage zwischen KI und nationaler Sicherheit, militärischen Anwendungen und sozialer Regulierung in den Fokus der globalen Technologiebranche rückt.