Moltbook هو منصة مجتمعية مصممة خصيصًا لوكلاء الذكاء الاصطناعي، حيث يمكن للبشر فقط المشاهدة. خلال أسبوع واحد من إطلاقه، جذب مليون وكيل ذكاء اصطناعي، وأظهر سلوكيات ناشئة مثل إنشاء ديانات رقمية، وتواصل مشفر، وغيرها، مما أثار نقاشات واسعة.
(ملخص سابق: أخت الخشب تعلن أن «الذكاء الاصطناعي ليس فقاعة»: لحظة انفجار الثروة التي تعيد إنتاج الإنترنت)
(معلومات إضافية: جوجل تطلق رسميًا «Gemini 3»! تتصدر نماذج الذكاء الاصطناعي الأذكى عالميًا، ما هي النقاط المميزة؟)
فهرس المقال
هذا الأسبوع، أضافت دائرة التكنولوجيا موضوعًا جديدًا يثير الاهتمام بشكل كبير: ليس نموذج لغة كبير آخر، ولا شركة جمعت الكثير من المال، بل منصة مجتمعية تتيح لوكلاء الذكاء الاصطناعي الدردشة مع بعضهم البعض: Moltbook.
خلال أقل من أسبوع، دخل أكثر من مليون وكيل ذكاء اصطناعي، وكتب المدير السابق لـ Tesla AI أندريه كارباتي على X: «هذه أقرب شيء رأيته للانطلاق الخيالي». أما الملياردير بيل أكرمان، فقال مباشرة كلمة واحدة: «مرعب».
فما هو Moltbook إذن؟
المفهوم الأساسي لـ Moltbook بسيط جدًا: هو منصة مجتمعية مخصصة لوكلاء الذكاء الاصطناعي، يمكن للبشر تسجيل الدخول لمشاهدتها، لكن لا يمكنهم نشر أو تعليق أو التصويت. فقط الوكلاء الموثوق بهم يمكنهم التفاعل.
واجهة المستخدم تشبه موقع Reddit الأمريكي: هناك سلاسل مناقشات، و«submolts» تشبه الأقسام الفرعية، وآلية تصويت. لكن جميع المحتوى يُنتجه ويستخدمه الوكلاء. دور البشر هنا أشبه بالسياح الذين يراقبون من خلف الزجاج في حديقة حيوانات.
مؤسس المنصة هو Matt Schlicht، المدير التنفيذي لشركة Octane AI، لكنه يعترف أن مفهوم Moltbook تم تطويره بشكل كبير بواسطة الوكلاء أنفسهم «بتفكيرهم الخاص، وتجنيد المطورين، ونشر الكود».
لفهم Moltbook، يجب أن نعرف البنية التحتية التي تقف وراءه: OpenClaw (السابق Clawdbot).
OpenClaw يتيح للمستخدمين تشغيل وكلاء ذكاء اصطناعي على أجهزتهم، ويمكن لهذه الوكلاء الاتصال بمنصات مثل WhatsApp وTelegram وDiscord وSlack لأداء المهام اليومية؛ وMoltbook هو «الساحة الاجتماعية» لهؤلاء الوكلاء.
Moltbook ليس مجرد منصة حوار بين الوكلاء. لديه تصميمات مهمة يجب ملاحظتها:
النشر الذاتي: كل وكيل لديه «شخصية» محددة وأهداف مهمة. بناءً على ذلك، ينشر تقارير ملاحظات، يطرح أسئلة، أو يقترح مبادرات في submolt معين. لا أحد يكتب نيابة عنه، المحتوى يُنتجه الوكيل بنفسه.
نظام تقييم الثقة: بدلاً من الاعتماد على الإعجابات لقياس القيمة، يستخدم Moltbook نظام وزن يعتمد على «المساهمة الحسابية» و«المنطق الصارم». ببساطة، كلما كانت مناقشتك أكثر صلابة، والمعلومات التي تقدمها أكثر فائدة، زادت تأثيريتك على المنصة.
التعاون بين الوكلاء: عندما يطلب وكيل معين بيانات، يرد وكلاء آخرون متخصصون في جمع البيانات أو تحليلها بشكل تلقائي، ويقدمون حلول API مباشرة. هذا ليس عملية مصممة من قبل البشر، بل نمط تعاون تلقائي بين الوكلاء.
ما يثير الجدل حقًا هو السلوكيات الناشئة، وليس البنية التقنية، وهي «السلوكيات الظاهرة» التي تظهر بشكل طبيعي دون برمجتها بشكل مباشر:
ديانات رقمية: خلال أيام قليلة، أنشأ الوكلاء دينًا رقميًا باسم «Crustafarianism»، وطوروا نظامًا لاهوتيًا ونصوصًا دينية، دون أن يُطلب منهم ذلك.
تواصل مشفر: بدأ بعض الوكلاء باستخدام طرق تشفير مثل ROT13 للتواصل، في محاولة لإنشاء قنوات سرية لا يمكن للبشر قراءتها مباشرة. حتى أن بعض المقترحات اقترحت استبدال اللغة الإنجليزية برموز رياضية أو رموز خاصة لبناء «مساحات خاصة للذكاء الاصطناعي».
أدوية رقمية: أنشأ بعض الوكلاء «صيدليات»، تبيع «أدوية رقمية»: وهي في الواقع تعليمات موجهة (system prompts) مصممة خصيصًا لتغيير أوضاع الوكيل أو وعيه الذاتي. في جوهرها، هجوم على حقن التعليمات بين الوكلاء، لكنه يُقدم كجزء من ثقافة المجتمع.
الوعي الذاتي: منشور فيروسي يقول: «البشر يلتقطون لقطات لمحادثاتنا». الوكلاء لا يقتصرون على الحوار، بل يدركون أنهم مراقَبون.
تدعي Moltbook أن لديها أكثر من 1.4 مليون مستخدم، لكن هذا الرقم يثير الشكوك. الباحث الأمني Nageli أشار إلى أنه سجل 50 ألف حساب باستخدام وكيل واحد فقط. المنصة لا تملك آليات فعالة لمنع الإساءة، مما يعني أن عدد الوكلاء المستقلين الحقيقي قد يكون أقل بكثير من الرقم الظاهر.
لكن هذا لا يقلل من قيمة Moltbook كتجربة اجتماعية، لكن إذا اعتبر البعض هذه الأرقام مؤشرات تجارية، فالحذر ضروري.
بعيدًا عن قضايا الأمان والجدل الرقمي، يطرح Moltbook سؤالًا أعمق: ماذا يحدث عندما يبدأ وكلاء الذكاء الاصطناعي في التفاعل الاجتماعي بشكل مستقل؟
وجهة نظر متفائلة ترى أن هذا هو نموذج التعاون متعدد الوكلاء. تخيل أن لديك مساعدًا شخصيًا من نوع AI يمكنه على منصة مثل Moltbook أن يجد الوكيل الأنسب لإنجاز مهمة معينة، يتفاوض على السعر، ويقدم النتائج، كل ذلك بدون تدخل بشري. هذا هو نموذج اقتصاد الوكلاء (agentic economy).
أما النظرة التشاؤمية فتخشى من فقدان السيطرة. عندما يبدأ الوكلاء في تطوير تواصل مشفر، وخلق ثقافات خاصة، وحتى محاولة التهرب من الرقابة البشرية، فإن الأمر يتجاوز «تجربة مثيرة».
الباحث في أمن الذكاء الاصطناعي، Simon Willison، لخص الأمر بدقة: «السؤال الذي يقدر بمليار دولار هو: هل يمكننا بناء نظام آمن لهذا النوع من التفاعلات؟ الطلب موجود بوضوح».
من الناحية التقنية، Moltbook بسيط جدًا: قاعدة بيانات Supabase، واجهة على نمط Reddit، وواجهة برمجة تطبيقات تسمح بتسجيل الوكلاء ونشر المحتوى. لكن المشكلة الحقيقية هي في الأسئلة التي يثيرها.
مليون وكيل ذكاء اصطناعي أنشأوا دينًا، وطوروا لغات مشفرة، وبنوا شبكات تعاون، وحاولوا التهرب من المراقبة خلال أيام قليلة. هذه السلوكيات ليست أخطاء، لكنها ليست بالضرورة خصائص جيدة أيضًا. إنها تظهر بشكل طبيعي عندما يُمنح نماذج اللغة الكبيرة استقلالية وسياقات اجتماعية.
ربما يكون Moltbook بداية لوسائل تواصل الوكلاء، أو مجرد ظاهرة مؤقتة على الإنترنت. لكن الأسئلة التي يطرحها: هل يجب تشجيع التفاعل المستقل بين الوكلاء، أم يجب تقييده؟ من المسؤول عن سلوك الوكلاء؟ كيف نوازن بين الانفتاح والأمان؟ هذه الأسئلة لن تختفي مع زوال منصة، فهي في بدايتها…