Odaily Sternplanet-Tagesbericht: Anthropic hat eine zentrale Sicherheitsverpflichtung aus seiner verantwortungsvollen Erweiterungspolitik entfernt und verspricht nicht mehr, das Training auszusetzen, wenn Risikominderungsmaßnahmen nicht vollständig umgesetzt sind. Jared Kaplan, Chief Scientist bei Anthropic, sagte gegenüber TIME, dass es im Kontext des schnellen AI-Wachstums keinen praktischen Sinn macht, einseitig eine Trainingspause zu versprechen, wenn Wettbewerber weiterhin voranschreiten.
OpenAI hat ebenfalls seine Missionserklärung geändert und das Wort „safely“ in den IRS-Dokumenten 2024 entfernt, in denen zuvor die Entwicklung einer allgemein KI, die „sicher zum Nutzen der Menschheit“ ist, beschrieben wurde. Jetzt heißt es nur noch, „sicherstellen, dass allgemein KI der gesamten Menschheit zugutekommt“.
Edward Geist, leitender Politikanalyst bei RAND Corporation, erklärt, dass die hochentwickelten KI, die frühe KI-Sicherheitsbefürworter sich vorgestellt haben, grundlegend anders sind als die aktuellen großen Sprachmodelle. Die Terminologieänderung spiegelt auch wider, dass Unternehmen den Investoren und politischen Entscheidungsträgern signalisieren wollen, dass sie sich aufgrund von Sicherheitsbedenken nicht in wirtschaftlichen Wettbewerben zurückziehen werden.
Anthropic hat kürzlich eine Finanzierungsrunde in Höhe von 30 Milliarden US-Dollar abgeschlossen, mit einer Bewertung von etwa 380 Milliarden US-Dollar; OpenAI treibt eine Finanzierungsrunde voran, die von Amazon, Microsoft und Nvidia unterstützt wird und bis zu 100 Milliarden US-Dollar erreichen könnte. Gleichzeitig steht Anthropic aufgrund der Weigerung, Pentagon-Zugriff auf Claude vollständig zu gewähren, in öffentlicher Meinungsverschiedenheit mit Verteidigungsminister Pete Hegseth, was Unsicherheiten bei Verteidigungsverträgen mit sich bringt. (Decrypt)