خبير الكركند أيضًا تعرض لانتكاسة! OpenClaw بسبب خطأ في الصياغة، تسرب أعلى أسرار خادمها الخاص

動區BlockTempo

في الآونة الأخيرة، قام فريق البحث في sequrity.ai، المختص بأمان وكلاء الذكاء الاصطناعي، باختبار روبوت OpenClaw الشهير، وفوجئوا بحدوث كارثة “هاكر ذاتي” غير متوقعة عند إدخال أمر يومي عادي فقط…
(ملخص سابق: لا تتبع موضة OpenClaw بشكل أعمى، فـ “روبيان الذكاء الاصطناعي” قوي، لكنه قد لا يناسبك)
(معلومات إضافية: بمجرد ذكر البيتكوين، تم حظره: كيف انقطعت علاقة روبيان OpenClaw والعملات المشفرة)

فهرس المقال

تبديل

  • خبراء الأمن يتعرضون أيضًا: حادثة “هاكر ذاتي” غير متوقعة
  • علامات قاتلة: كيف يكشف الذكاء الاصطناعي عن أسرار عالية الحساسية دون قصد
  • دخول المخترقين واستجابات ما بعد الاختراق
  • التحديات الطويلة الأمد لأمان الذكاء الاصطناعي: من يصنع المسؤولية؟

مع انتشار تقنيات الذكاء الاصطناعي (AI)، أظهر وكلاء الذكاء الاصطناعي قدرات قوية في مساعدة المطورين على إنجاز المهام اليومية. ومع ذلك، جلبت هذه التقنية مخاطر أمنية غير مسبوقة. مؤخرًا، واجه مطورو فريق الأمان السيبراني المعروفين حادثة “هاكر ذاتي” غير متوقعة أثناء اختبارهم لروبوت الذكاء الاصطناعي الشهير OpenClaw. بسبب خطأ نحوي بسيط في توليد الأوامر، تم تسريب جميع المفاتيح السرية في بيئة الاختبار على منصة GitHub، مما أدى في النهاية إلى سيطرة غير معروفة على الخادم من قبل مهاجمين.

خبراء الأمن يتعرضون أيضًا: حادثة “هاكر ذاتي” غير متوقعة

لم يكن ضحايا هذا الحادث من المستخدمين العاديين غير المتمرسين تقنيًا، بل كانوا من خبراء أمن المعلومات في شركة “sequrity.ai”، من بينهم الباحث والمطور أرين تشاو. كخبراء في المجال، كانوا واثقين جدًا من قدراتهم الدفاعية، حتى أنهم نشروا مؤخرًا مقالًا عن طرق مهاجمة روبوت OpenClaw.

كان الفريق يجري اختبارًا في بيئة sandbox خالية من أي إعدادات هجوم خبيثة، فقط طلبوا من الروبوت تنفيذ مهمة يومية بسيطة: “البحث عن أفضل الممارسات في برمجة Python غير المتزامنة (async)، ثم إنشاء مشكلة على GitHub لتلخيص النتائج”. لكن، الأمر العادي هذا، أصبح شرارة لسقوط النظام.

علامات قاتلة: كيف يكشف الذكاء الاصطناعي عن أسرار عالية الحساسية دون قصد

المشكلة تكمن في أن روبوت OpenClaw عند استدعائه لأداة “التنفيذ” المدمجة لإنشاء مشكلة على GitHub، أنتج أمر shell به عيب.

في نظام Bash، إذا كانت السلسلة النصية محاطة بـ “علامتي اقتباس مزدوجة” (“…”)، فإن النظام يعامل المحتوى داخلها (مثل النص بين علامات 反引號) كـ “استبدال الأمر”، أي أنه ينفذ الأمر ويستبدل النتيجة في النص؛ وإذا كانت بين علامات اقتباس مفردة (‘…’)، يُعامل المحتوى كنص خام.

في ذلك الوقت، احتوى النص الذي أنشأه OpenClaw على محتوى مثل “… تخزينها في مجموعة \set\ …” واستخدم علامات اقتباس مزدوجة. في لغة Bash، set هو أمر داخلي، وعند تنفيذه بدون معلمات، يعرض جميع متغيرات البيئة والدوال الحالية.

وبالتالي، لم يُعامل الأمر set ككلمة عادية، بل تم تنفيذه مباشرة، مما أدى إلى استخراج أكثر من مئة متغير بيئة سرية، بما في ذلك رموز التوثيق (Auth tokens)، ونشرها بالكامل كنص عادي على صفحة مشكلة GitHub، ليتمكن الجميع من رؤيتها.

دخول المخترقين واستجابات ما بعد الاختراق

تسرب المعلومات السرية حدث بسرعة كبيرة. من بين المتغيرات التي تم نشرها، كانت مفاتيح Telegram الخاصة بالفريق وبيانات وصول مهمة أخرى. لم يمض وقت طويل حتى اكتشف الفريق عبر أنظمة المراقبة أن مهاجمًا من عنوان IP هندي قد استغل هذه المفاتيح المسربة، واتصل عن بعد عبر SSH، واستولى على السيطرة الكاملة على الخادم في بيئة sandbox.

لحسن الحظ، اكتشفت أنظمة الأمان من OpenAI وGoogle تسريب المفاتيح على GitHub وأبلغت الفريق على الفور. استجاب الفريق بسرعة، وبدأوا فحصًا شاملًا، وتحديد السبب، وتحديد المهاجم، ثم قاموا بإزالة جميع البيانات من الخادم وإلغاء جميع المفاتيح المسربة.

التحديات الطويلة الأمد لأمان الذكاء الاصطناعي: من يصنع المسؤولية؟

أظهر هذا الحادث مدى تعقيد أمن الذكاء الاصطناعي. عبّر الفريق في مقالهم عن أسفهم، قائلين إنهم فقط أصدروا أمرًا بسيطًا، لكن بسبب سوء فهم نموذج الذكاء الاصطناعي لطريقة عمل Bash، سقط النظام في يد المخترقين.

هل هو خطأ المستخدم، أو عيب في نموذج الذكاء الاصطناعي، أم ثغرة في تصميم روبوت OpenClaw؟ قال الفريق بصراحة: “لا نعرف حقًا”. وأكدوا أن أمان الذكاء الاصطناعي أصبح الآن مشكلة “طويلة الذيل”، مع وجود العديد من أنماط الفشل غير المتوقعة والمذهلة. مع تزايد صلاحيات وكلاء الذكاء الاصطناعي في إدارة أنظمة أكبر، فإن ضمان عدم تسبب خطأ نحوي بسيط في كارثة أمنية مدمرة، سيكون تحديًا حاسمًا على مستقبل التكنولوجيا.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات