AI-агенти перетворилися з простих чат-ботів у інструменти для виконання реальних завдань. Останнім часом популярність здобув Clawdbot, розроблений Пітером Штайнбергером. Він створив AI-агента, який дозволяє користувачам дистанційно керувати пристроями через месенджери, такі як WhatsApp. Після запуску продукт викликав великий резонанс, викликавши різні обговорення — і позитивні, і негативні. Ця стаття взята з відео на YouTube «Please don’t install Clawdbot», ведуча Альберта перераховує можливі порушення порядку під час виконання завдань Clawdbot і як запобігти його неконтрольованому збої.
Приклад підприємницької моделі, що руйнує традиційні підходи, — розробка нових чат-ботів
Пітер — успішний підприємець, який після створення кількох компаній їх продав і пішов з бізнесу з грошима. Він зізнався, що за останні кілька років, окрім гри в блекджек і проституції, він майже нічого не робив. Спостерігаючи за широким обговоренням AI-агентів, він помітив, що звичайна аудиторія все ще не має доступних і простих у використанні інструментів з функцією «автоматичного виконання».
З настрою на розвагу Пітер розробив Clawdbot. Він хотів створити платформу, яку зможуть легко використовувати навіть неспеціалісти. На відміну від традиційних інструментів, що вимагають складних команд або роботи з терміналом, Clawdbot дозволяє користувачам через знайомий месенджер давати команди комп’ютеру або смартфону. Така зручність швидко задовольнила потреби користувачів і навіть змусила великі компанії, такі як Anthropic, прискорити розробку подібних функцій.
Clawdbot і Claude — конкуренти, кілька разів змінювали назву, тепер — Open Claw
Після швидкого популяризації продукту, Clawdbot почав стикатися з юридичними проблемами. Оскільки назви Clawdbot і AI-моделі Claude від Anthropic звучать дуже схоже, його довелося перейменувати, щоб уникнути порушення прав інтелектуальної власності. Спочатку він перейменувався на Moltbot, що відсилає до теми лобстерів, а тепер знову отримав назву Open Claw.
Як запобігти порушенням під час неконтрольованого виконання завдань Clawdbot
Багато користувачів виявили, що, доручаючи роботам виконувати завдання, вони іноді виходять з-під контролю. Наприклад, робот отримує команду нагадати про покупку молока вранці і кожні 30 хвилин протягом ночі надсилає нагадування. Це призводить до швидкого витрачання токенів на виконання завдань. Інші ж зловмисники навмисно дають команду роботам перезавантажити комп’ютер. Ці випадки показують, що AI-агенти дуже вразливі до неправильного розуміння команд або злочинних підказок, що може спричинити фінансові втрати або пошкодження обладнання.
Хоча повністю автоматизовані AI-агенти демонструють високу продуктивність, багато фахівців попереджають про потенційні ризики необмеженого доступу до систем. Оскільки Clawdbot вимагає високих рівнів доступу, зловмисники можуть викрасти особисту інформацію, вкрасти гроші з банківських рахунків або надіслати неправомірні листи, що може спричинити проблеми з кар’єрою. Якщо користувач все ж хоче спробувати, Альберта радить застосовувати суворі заходи ізоляції, наприклад, не встановлювати його на основному робочому комп’ютері, використовувати хмарні сервіси та окремий резервний ПК, а також створювати окремий поштовий акаунт для AI-агента, щоб уникнути доступу до конфіденційної інформації основного облікового запису.
Ця стаття «Перед установкою Clawdbot — подумайте двічі, оскільки він може вийти з-під контролю» вперше з’явилася на ABMedia.