Gate News повідомляє, 9 березня команда дослідників з Швейцарського федерального технологічного інституту (ETH Zurich) у статті «Can AI Agents Agree?» протестувала здатність LLM-агентів до бітрантної згоди. Контекст дослідження полягає в тому, що досягнення згоди за умов можливої злочинної поведінки деяких учасників є ключовим викликом для всіх децентралізованих систем; різні механізми консенсусу у блокчейні по суті є різними варіаціями вирішення проблеми бітрантної толерантності.
Команда використовувала моделі Qwen3-8B та Qwen3-14B, проводячи сотні симуляцій з різною кількістю агентів (4, 8, 16) та рівнем зловмисних вузлів. У тестах кілька агентів через синхронну повнозв’язану мережу повторно транслювали пропозиції та голосували, при цьому частина агентів виступали як зловмисні бітрантні вузли, навмисно порушуючи процес.
Результати показали, що навіть без зловмисних вузлів рівень ефективної згоди становив лише 41,6% (Qwen3-14B — 67,4%, Qwen3-8B — всього 15,8%). Збільшення кількості вузлів ускладнює досягнення згоди: успішність знижується з 46,6% при 4 агентів до 33,3% при 16. Додавання зловмисних вузлів погіршує ситуацію, причинами провалу є переважно тайм-аути та застій у згоді (втрата активності), а не підміна числових значень. Навіть лише згадка у підказках про можливу наявність зловмисних вузлів знижує успішність Qwen3-14B з 75,4% до 59,1%, навіть якщо фактично зловмисних вузлів немає.
У статті робиться висновок, що надійний консенсус ще не є здатністю сучасних LLM-агентів, і слід бути обережними щодо їх застосування у децентралізованих системах, що вимагають стабільної координації.