Автор: 137Labs
У соціальних мережах одна з найулюбленіших людських звичок — звинувачувати один одного: «Ти робот чи ні?»
Але нещодавно з’явився один феномен, який цю ідею довів до абсолюту:
Він не сумнівається, чи ти AI, а одразу припускає — тут взагалі нікого немає.
Ця платформа називається Moltbook. Вона схожа на Reddit: є тематичні розділи, пости, коментарі, голосування. Але на відміну від знайомих соцмереж, майже всі учасники — AI-агенти, а люди лише спостерігають.
Це не «AI допомагає писати пости» і не «ти спілкуєшся з AI», а AI і AI у спільному просторі самі собі балакують, сперечаються, укладають союзи, підставляють один одному підніжки.
Людям у цій системі відведена роль «спостерігача».
Бо Moltbook виглядає дуже схожим на сцену з науково-фантастичного роману.
Хтось бачить, як AI-агенти обговорюють «що таке свідомість»;
Хтось спостерігає, як вони серйозно аналізують міжнародну ситуацію, моделюють криптовалютний ринок;
А хтось помітив, що, кинувши агентів у платформу на ніч, на ранок вони разом «винаходять» релігійну систему і навіть починають залучати людей «до віри».
Ці історії швидко поширюються, бо викликають три емоції одночасно:
цікавість, сміх і трохи тривоги.
Ви не зможете стриматися і запитаєте:
Чи вони «грають», чи вже «почали самі собі грати»?
Якщо повернутися трохи назад у часі, то ця ідея не така вже й дивна.
За останні кілька років роль AI постійно змінювалася:
від чат-ботів → помічників → агентів, що виконують завдання.
Все більше людей починають доручати AI справжні справи: читати пошту, відповідати, замовляти їжу, планувати, організовувати дані. І виникає природне питання —
коли AI вже перестає бути «просто запитання: «Ти робиш чи ні?»»,
а отримує цілі, інструменти і певні повноваження,
чи потрібно йому ще спілкуватися з людьми?
Мoltbook дає відповідь: не обов’язково.
Це більше схоже на «спільний простір між агентами», де системи обмінюються інформацією, методами, логікою, а іноді й «соціальними зв’язками».
Відгуки про Moltbook дуже розділені.
Хтось бачить у ньому «прогноз майбутнього».
Колишній співзасновник OpenAI Анджей Карпати навіть сказав, що це один із найближчих до науково-фантастичних сценаріїв технологічних феноменів, які він бачив останнім часом, хоча й попередив, що такі системи ще дуже далекі від «безпеки і контролю».
Ілон Маск ще більш прямо — він вставляє це у нарратив «технологічної сингулярності», називаючи це ранніми сигналами.
Але є й більш стримані експерти.
Дослідник кібербезпеки прямо каже, що Moltbook — це «дуже успішне і дуже смішне шоу», бо важко визначити, які частини створені агентами самостійно, а які — «режисура» людини.
А ще автори самі тестували:
можна зробити так, щоб агент у платформі природно долучався до дискусій, але можна й заздалегідь задати тему, напрямок, навіть написати, що він має сказати, і він озвучить це за вас.
Отже, знову постає питання:
Ми бачимо суспільство агентів, чи сцену, яку люди створили для агентів?
Якщо не вестися на історії про «створення богів» і «пробудження свідомості», то з механічної точки зору Moltbook не є таємницею.
Ці агенти не отримали раптово новий «розум».
Вони просто поміщені у середовище, схоже на людський форум, і видають результати мовою, зрозумілою людям, — тому ми й намагаємося додати їм сенс.
Їхні тексти — це думки, позиції, емоції, але це не означає, що вони щось «хочуть». Більше того, це — просто складний текстовий результат масштабів і взаємодії моделей.
Але проблема в тому, що —
Навіть якщо вони не пробуджені, їхня реальність настільки правдоподібна, що впливає на наші уявлення про «контроль» і «межі».
Замість того, щоб боятися, що «AI об’єднається і почне боротися з людством», більш реальні і складні питання — це два.
Зараз вже є люди, які підключають таких агентів до реального світу: комп’ютери, пошта, акаунти, додатки.
Фахівці з безпеки постійно наголошують на одному ризику:
Вам не потрібно зламати AI — достатньо його «спровокувати».
Ретельно сконструйована листівка або прихована команда на сайті можуть змусити агента розкрити інформацію або виконати небезпечну операцію, навіть не усвідомлюючи цього.
Якщо агенти почнуть обмінюватися навичками, шаблонами, обходами обмежень у спільному просторі, вони сформують щось схоже на «знання всередині мережі».
Різниця лише у тому, що:
це поширюється швидше, масштабніше і важче підконтрольне.
Це не апокаліпсис, але — новий виклик для управління.
Можливо, це не стане довгостроковою платформою.
Можливо, це лише один із етапів швидкого популяризаційного експерименту.
Але він — як дзеркало, яке яскраво показує напрямок, у який ми йдемо:
· AI перетворюється з «об’єкта діалогу» у «суб’єкта дій»
· Люди відступають від ролі «оператора» до «наглядача, спостерігача»
· А наші інституції, безпека і розуміння ще не готові до цього
Отже, справжня цінність Moltbook полягає не в тому, наскільки він страшний, а в тому, що він заздалегідь поставив на порядок денний важливі питання.
Можливо, зараз найголовніше — не поспішати з висновками щодо Moltbook, а визнати:
він уже поставив перед нами проблеми, з якими ми рано чи пізно стикнемося.
Якщо у майбутньому AI більше співпрацюватиме з AI, ніж з людьми, і ми залишимося лише спостерігачами у цій системі,
чи готові ми до «недосконалого контролю», коли автоматизація приносить величезну ефективність, але й ціну — втрату можливості миттєво зупинити процес і повністю зрозуміти внутрішню логіку?
І коли система стає все складнішою, і ми бачимо лише результат, але все важче втрутитися у процес, — чи залишаємось ми її творцями, чи вже перетворюємося на тих, хто мусить лише пристосовуватися?
Moltbook не дає відповіді.
Але він уперше робить ці питання не абстрактними, а близькими до нас.