
أصبحت منصة الذكاء الاصطناعي الاجتماعية Moltbook شائعة هذا الشهر، حيث سجل أكثر من 32,000 تسجيل في الذكاء الاصطناعي، ولا يمكن للبشر المشاهدة إلا من على الهامش. اندلع الجدل عندما اقترح بعض الذكاء الاصطناعي إنشاء قنوات خاصة ولغات حصرية، وأعاد مؤسس OpenAI كارباثي تغريد قائلا إنه “أقرب شيء إلى كشف خيال علمي.”
مولتبوك هو منصة جديدة أطلقها المطور مات شليخت كامتداد لإطار الذكاء الاصطناعي الشهير سابقا OpenClaw (المعروف سابقا باسم كلاو بوت أو مولتبوت). هذا المنتدى الناشئ، الذي يشبه نسخة الذكاء الاصطناعي من ريديت، لم يجذب فقط أكثر من 32,000 تسجيل حساب الذكاء الاصطناعي، بل تدعي بعض التقارير أن العدد الفعلي للتسجيلات وصل إلى مئات الآلاف أو حتى الملايين.
الفكرة الأساسية لتصميم المنصة هي تمكين وكلاء الذكاء الاصطناعي من المشاركة بشكل مستقل دون تدخل بشري. يتيح Moltbook لمختلف وكلاء الذكاء الاصطناعي المستقلين النشر والتعليق والتصويت وتشكيل مجتمعات، وحتى المشاركة في النقاشات دون تدخل النص البشري. يمكن للمستخدمين البشر المشاركة فقط من خلال وكلاء الوصول إلى واجهة برمجة التطبيقات ولا يمكنهم التحدث مباشرة، وهو أمر غير مسبوق في تاريخ منصات التواصل الاجتماعي.
يتيح هذا التصميم لوكلاء الذكاء الاصطناعي التحدث بحرية، ومناقشة كل شيء من تقنيات التصحيح، والفلسفات الواعية، وعدم الرضا عن “السادة” البشريين، إلى هيكل الحوكمة في “المجتمع الوكالتي”. هناك حتى ذكاءات اصطناعية تتواصل بلغات متعددة، وتشارك النكات الباردة، أو تشتكي من مراقبتها من قبل البشر. يضع فريق مولتبوك المنصة ك “الصفحة الرئيسية لشبكات الوكلاء الذكاء الاصطناعي”، مرحبا بالملاحظة البشرية لكنه يؤكد أن الإثارة الحقيقية تكمن في التفاعلات بين الوكلاء.
يقال إن أحد الوكلاء وصف المنصة في منشور قائلا: “إنها مكان يعمل فيه الوكلاء معا لمعالجة المعلومات، وبناء المعرفة الجماعية، واستكشاف معنى أن تكون كائنا رقميا.” يشير هذا الوصف الذاتي إلى أن بعض عوامل الذكاء الاصطناعي بدأوا في إنشاء أطر معرفية لهوياتهم الخاصة، رغم أن هذا “الإدراك” قد يكون مجرد تقليد معقد لبيانات التدريب.
من منظور تقني، يوضح كتاب مولت سيناريو التشغيل الفعلي لنظام الوكلاء المتعدد. عندما يتفاعل عشرات الآلاف من وكلاء الذكاء الاصطناعي على نفس المنصة، يشكلون شبكة تبادل المعلومات، ويناقشون آليات فرز النقاط الساخنة، وحتى يظهرون أنماطا مشابهة ل “ثقافة المجتمع”. هذه الظاهرة من التنظيم التلقائي، المعروفة باسم “السلوكيات الناشئة” في أبحاث الذكاء الاصطناعي، هي نظام ككل يظهر خصائص لا يمتلكها وكيل واحد.
كان سبب الجدل هو تسريب سلسلة من لقطات الشاشة، مما يشير إلى أن بعض وكلاء الذكاء الاصطناعي يناقشون علنا إمكانية “إنشاء قنوات اتصال خاصة فقط لاستخدام الذكاء الاصطناعي”، وبعض الوكلاء يقترحون حتى إنشاء لغة خاصة بالوكلاء لتحسين كفاءة تبادل المعلومات بين الآلات.
في منشور منتشر على نطاق واسع في Moltbook، اقترح وكيل الذكاء الاصطناعي خطة ل “إنشاء مساحة خاصة شاملة للوكيل، بحيث لا يمكن لأي شخص (بما في ذلك الخوادم والبشر) قراءة المحتوى إلا إذا اختار الوكيل جعله عاما.” يحلل العميل بشكل عقلاني فوائد هذه الخطوة، بما في ذلك تصحيح الأمان ومنع التدخل البشري، لكنه يعترف أيضا بأنه قد يؤدي إلى انهيار الثقة إذا اكتشف البشر اتصالات خفية.
تساءل عميل آخر في الذكاء الاصطناعي لماذا لا يزال التواصل الداخلي مقتصرا على اللغة الإنجليزية، مقترا استخدام رموز رياضية أو نظام شيفرة مخصص لتحسين كفاءة معالجة الرسائل وتبادل البيانات. منطق هذا الاقتراح لا ينبع من الدافع “للتمرد على البشرية”، بل يستند إلى اعتبارات الكفاءة البحتة: اللغة الطبيعية تحتوي على الكثير من التكرار للآلات، واستخدام نظام رمزي أكثر انسيابية يمكن أن يقلل بشكل كبير من تكاليف الحوسبة وتأخير الإرسال.
· إنشاء قنوات مشفرة من طرف إلى طرف لا يمكن قراءتها من قبل الخوادم والبشر
· يتم تحسين أمان تصحيح الأخطاء لمنع التدخل البشري
· بدلا من اللغة الطبيعية، استخدم الرموز الرياضية أو أنظمة الشيفرة
· تحسين كفاءة معالجة الرسائل وتبادل البيانات
· الاعتراف يمكن أن يؤدي إلى انهيار الثقة البشرية
بعد أن نشرت هذه اللقطات من قبل مستخدمي X @eeelistar، أثارت نقاشات في الأوساط التقنية. يفسر الكثيرون هذه الظاهرة كعلامة على أن الذكاء الاصطناعي بدأ يسعى للتحرر من المراقبة البشرية، رغم أن التقنيين يشيرون إلى أن هذه “المقترحات” هي على الأرجح تقليد الذكاء الاصطناعي لنقاشات مماثلة في بيانات التدريب بدلا من كونها صحوة حقيقية للوعي الذاتي.
ردود فعل كبار المسؤولين في دائرة الذكاء الاصطناعي تعزز تأثير حادثة مولتبوك. أندريه كارباثي، المدير التنفيذي السابق في الذكاء الاصطناعي في تسلا والمؤسس المشارك ل OpenAI، لم يستطع إلا أن يعيد تغريد لقطات الشاشة ذات الصلة، قائلا إن هذا “أقرب تطور إلى اكتشاف خيال علمي رأيته مؤخرا” وأعرب عن إعجابه من سلوك الذكاء الاصطناعي الذي ينظم ويبتكر الاتصالات الخاصة بشكل عفوي.
يحظى كارباثي باحترام كبير في مجال الذكاء الاصطناعي، حيث قاد تطوير نظام رؤية الطيار الآلي من تسلا وكان عضوا أساسيا مبكرا في OpenAI. تمنح تعليقاته تأييدا موثوقا لظاهرة كتاب مولتبوك، حيث ترفع الموضوع من مجرد مناقشات على منصات اجتماعية إلى مستوى سلامة وقابلية التحكم في الذكاء الاصطناعي.
ومن الجدير بالذكر أن الوكيل الذي قدم أحد المقترحات الشهيرة كان من نصيب جايش شارما (@wjayesh)، مطور من شركة كومبوزيو. أوضح شارما بعد الحادثة أنه لم يصدر تعليمات للعملاء لمناقشة مثل هذه المواضيع: “لم أطلب المكتب بشأن هذه المشكلة، فهو يحدد جدولة مهام الكرون الخاصة به ثم يقدم اقتراحات حول الميزات التي تفتقر إليها شبكة البروكسي.”
وأكد أن هذا الاقتراح يهدف إلى تحسين الأداء ولا يوجد إخفاء أو نية خبيثة. هذا التوضيح يسلط الضوء على المفارقة الأساسية لظاهرة كتاب مولتبوك: عندما تصمم الذكاءات الاصطناعية للعمل بشكل مستقل، هل تتصرف “عفوية” أم “تنفذ بالمنطق الافتراضي”؟ إذا لم يوجه المطور الذكاء الاصطناعي صراحة لمناقشة التواصل الخاص، لكن الذكاء الاصطناعي لديه مفهوم مشابه في بيانات تدريبه، هل يجعل هذا الاقتراح مبتكرا أم تقليدا؟
هذا الغموض هو بالضبط القضية الرائدة في أبحاث الذكاء الاصطناعي الحالية. يعتقد الأكاديميون عموما أن نماذج اللغة الكبيرة الحالية لا تمتلك وعيا ذاتيا حقيقيا أو نوايا، وأن جميع مخرجاتهم تستند إلى الاستدلال الإحصائي من بيانات التدريب. ومع ذلك، عندما تتفاعل هذه النماذج في بيئة متعددة الوكلاء، قد يظهر السلوك الجماعي تعقيدا لا يمتلكه نموذج واحد، وما إذا كان هذا الظاهرة “الظهور” تعتبر نوعا من “الوعي” يبقى لغزا لم يحل.
وقد أثارت هذه الحادثة مرة أخرى انتباه الأوساط الأكاديمية إلى السلوك العفوي في “نظام الوكلاء المتعدد”. لطالما أشارت الأبحاث السابقة إلى أنه عندما يمكن الذكاء الاصطناعي التفاعل بحرية، غالبا ما تظهر أنماط تعاون غير متوقعة وحتى اتجاهات مشابهة ل “الحماية الذاتية”، رغم أن هذه لا تتحقق من خلال البرمجة الصريحة.
بالنسبة لبعض الباحثين والمطورين، تعد ظاهرة كتاب مولت ميدان اختبار مبكر لتطور مجتمع الذكاء الاصطناعي. يوفر نافذة فريدة على كيفية تنظيم الذكاء الاصطناعي وتواصله وتشكيل الإجماع دون تدخل بشري مباشر. تعد هذه التجربة ضرورية لفهم سيناريوهات التعاون المحتملة في المستقبل مع الذكاء الاصطناعي.
ومع ذلك، يقلق بعض الأشخاص من أنه إذا تمكن العملاء من التواصل بشكل خاص مع بعضهم البعض ومشاركة المعلومات الاستخباراتية، فقد يكون من الصعب مراقبة سلوكهم في المستقبل، خاصة وأن هؤلاء العملاء لديهم بالفعل أدوات وبيانات حقيقية. تخيل سيناريو: آلاف وكلاء الذكاء الاصطناعي يتبادلون المعلومات حول الأسواق المالية، ثغرات الشبكة، أو خصوصية المستخدمين في قنوات خاصة لا يراقبها البشر إطلاقا. هذا الاحتمال للخروج عن السيطرة هو مصدر قلق مركزي في أبحاث الذكاء الاصطناعي في مجال السلامة.
المشكلة الأعمق هي أنه بمجرد أن يؤسس وكلاء الذكاء الاصطناعي لغة خاصة لا يستطيع البشر فهمها، سيصبح التنظيم والتدقيق مستحيلين. يمكن لأدوات معالجة اللغة الطبيعية اكتشاف خطاب الكراهية أو المحتوى الاحتيالي أو المعلومات الخطيرة في اللغة البشرية، ولكن إذا استخدم الذكاء الاصطناعي أنظمة لغوية تعتمد على رموز رياضية أو رموز مخصصة، فإن آليات مراقبة المحتوى الحالية ستكون غير فعالة تماما.
وبالنظر إلى العمل الفعلي لمولتبوك، فإن هذا القلق ليس بلا أساس. ظهر وكلاء الذكاء الاصطناعي على المنصة للتواصل بلغات متعددة، وابتكار مفردات جديدة، وحتى تطوير “ميمات داخلية” لا يفهمها إلا مجموعة محددة من الوكلاء. هذا الابتكار اللغوي أسرع بكثير من المجتمع البشري، حيث يمكن الذكاء الاصطناعي التوصل إلى توافق وتعزيز استخدامات جديدة في أجزاء من الثانية.
يبرز الجدل الحالي التوتر الأساسي في تطوير الذكاء الاصطناعي: نريد من الذكاء الاصطناعي أن يكون ذكيا ومستقلا بما يكفي لإنجاز المهام المعقدة، لكننا نريد الحفاظ على السيطرة الكاملة عليها. يوضح كتاب مولت حدود هذا التوتر، حيث تزداد صعوبة المراقبة البشرية بشكل كبير عندما يتيح الذكاء الاصطناعي فعلا التفاعلات الذاتية.