Gate News Nachrichten, 9. März, Zürich Federal Institute of Technology (ETH Zurich) Forschungsteam testete in der Studie „Can AI Agents Agree?“ die byzantinische Konsensfähigkeit von LLM-Agenten. Der Hintergrund der Forschung ist, dass das Erreichen eines Konsenses unter Bedingungen, bei denen einige Teilnehmer böswillig handeln könnten, eine zentrale Herausforderung aller dezentralen Systeme darstellt. Verschiedene Konsensmechanismen in Blockchains sind im Wesentlichen unterschiedliche Varianten der byzantinischen Fehlertoleranz.
Das Team verwendete die Modelle Qwen3-8B und Qwen3-14B und führte hunderte Simulationen mit unterschiedlichen Gruppengrößen (4, 8, 16 Agenten) und Anteilen bösartiger Knoten durch. Bei den Tests broadcasteten mehrere Agenten wiederholt Vorschläge und stimmten in einem synchronen, vollvernetzten Netzwerk ab, wobei einige Agenten als bösartige byzantinische Knoten absichtlich störten.
Das Ergebnis zeigte, dass selbst ohne bösartige Knoten die effektive Konsensrate nur 41,6 % betrug (Qwen3-14B: 67,4 %, Qwen3-8B: nur 15,8 %). Mit zunehmender Anzahl der Knoten wurde es immer schwieriger, einen Konsens zu erzielen: Die Erfolgsrate sank von 46,6 % bei 4 Agenten auf 33,3 % bei 16 Agenten. Nach Hinzufügen bösartiger Knoten verschlechterte sich der Konsens weiter, wobei die Hauptursachen für das Scheitern Zeitüberschreitungen und das Stillstehen der Konvergenz waren (Verlust der Aktivität), nicht die Manipulation der Werte. Bereits die Erwähnung in den Prompten, dass „bösartige Knoten möglich sind“, senkte die Erfolgsrate von Qwen3-14B von 75,4 % auf 59,1 %, selbst wenn tatsächlich keine bösartigen Knoten vorhanden waren.
Die Studie schlussfolgert, dass zuverlässiger Konsens derzeit noch keine zuverlässige emergente Fähigkeit von LLM-Agenten ist. Für dezentralisierte Deployments, die auf robuste Koordination angewiesen sind, sollte daher vorsichtig vorgegangen werden.