Die von den USA entwickelte KI-Modell steht vor systematischen chinesischen Destillationsangriffen. Berichten zufolge umgehen chinesische Start-ups Zugriffsbeschränkungen durch technische Mittel, um Anthropic’s Claude 4.5 Modell zu stehlen, und entwickeln ein hochähnliches Modell namens Kimi K2.5. Chinesische KI-Start-ups nutzen große Mengen gefälschter Konten, um Daten zu destillieren und KI-Technologie zu stehlen, während es derzeit keine wirksamen Schutzmaßnahmen gibt.
Chinesisches Start-up Moonshot veröffentlicht Kimi K2.5, das Claude 4.5 sehr ähnlich ist
Das chinesische Start-up Moonshot AI hat das Open-Source-Sprachmodell Kimi K2.5 veröffentlicht. Zu Beginn zeigte es eine Codierungsfähigkeit, die mit dem fortschrittlichen Modell Claude 4.5 von Anthropic vergleichbar ist. Einige Nutzer stellten während der Nutzung fest, dass das Modell in bestimmten Antworten sich selbst als Claude bezeichnete, was in den sozialen Medien für großes Aufsehen sorgte.
Nathan Lambert vom Allen Institute for AI analysierte, dass Kimi K2.5 eine Verwirrung bei der Selbstidentifikation zeigte. Dies deutet stark darauf hin, dass das Modell auf den Ausgaben von Claude trainiert und verfeinert wurde. Solche Praktiken werden in der Branche als „Destillationsangriff“ (Distillation Attack) bezeichnet, bei dem durch Analyse der Ausgaben eines Hochleistungsmodells dessen Kernlogik und geistiges Eigentum rückentwickelt werden. Obwohl Destillation üblich ist, gilt eine groß angelegte, unautorisierte Extraktion für kommerzielle Modelle als rote Linie.
Anthropic entdeckt, dass chinesische KI-Start-ups durch Fake-Accounts Claude umgehen
Anthropic enthüllte, dass chinesische Unternehmen wie DeepSeek, Moonshot AI und MiniMax, die als starke KI-Technologieanbieter gelten, mehr als 24.000 Fake-Accounts genutzt haben, um Systemschutzmaßnahmen zu umgehen und die Funktionen von Claude zu erlernen. Über Drittanbieter-APIs wurden mehr als 16 Millionen Transaktionen mit Claude durchgeführt. Moonshot AI, unterstützt von Tencent und Alibaba, war an etwa 3,4 Millionen Transaktionen beteiligt, während MiniMax eine Transaktionszahl von 13 Millionen erreichte. DeepSeek verzeichnete über 150.000 Einträge. Obwohl einige Entwickler die große Anzahl an Interaktionen für unbedeutend halten, weisen Branchenexperten darauf hin, dass sich die Trainingsmethoden zunehmend von einfachen Fragen und Antworten zu komplexen Workflows entwickeln. Die Nutzung synthetischer Daten, die von hochentwickelten US-Modellen generiert werden, um eigene Modelle zu verbessern, ist für chinesische Labore ein wichtiges Werkzeug zur Optimierung. Diese systematische Funktionsextraktion ermöglicht es, technologische Ergebnisse, die Jahre und enorme Budgets gekostet haben, in kurzer Zeit zu kopieren.
Das US-Militär ist stark auf KI angewiesen und betrachtet sie als strategisches Gut. Aufgrund nationaler Sicherheitsinteressen gewährt Anthropic chinesischen Nutzern keinen direkten kommerziellen Zugriff auf Claude. Diese Maßnahme konnte jedoch nicht verhindern, dass Unternehmen im Ausland Zugang zu den Technologien erhalten. US-Unternehmen investieren Billionen Dollar in KI-Entwicklung und Hardware. Wenn die Kerntechnologie durch kostengünstige Destillationsmethoden gestohlen werden kann, würde dies den Forschungsvorsprung erheblich verringern. Wenn KI-Modelle in militärische Systeme außerhalb der Verbündeten gelangen, sind die potenziellen Risiken ernst zu nehmen. Derzeit bleibt Destillation eine Grauzone. Die meisten großen Sprachmodelle werden während des Trainings mit einer Vielzahl unautorisierter Drittanbieterdaten gefüttert. Obwohl groß angelegte Destillationsangriffe eine nationale Sicherheitsbedrohung darstellen, gibt es noch keine Lösung.
Diese Artikel über chinesische Start-ups, die Claude durch Destillation imitieren, wurden zuerst bei Lian News ABMedia veröffentlicht.