وكالات الحكومة الأمريكية، مثل وكالة الأمن القومي (NSA) وإدارة الخدمات العامة (GSA)، أعربت عن مخاوف قوية بشأن وظيفة روبوت الدردشة الذكي “Grok” الذي طورته شركة xAI، التي أسسها إيلون ماسك. لاحظت العديد من الوكالات الأمريكية بشكل حذر خروقات الأمان والخصوصية التي تعرض لها “Grok”. أطلقت شركة CryptoRus، وهي علامة تجارية شهيرة للأخبار والتعليم في مجال العملات الرقمية، هذا الخبر عبر حسابها الرسمي على منصة X.
🚨 الوكالات الحكومية تثير القلق بشأن “Grok” من إيلون ماسك. العديد من الوكالات الفيدرالية الأمريكية، بما في ذلك GSA وNSA، أبدت مخاوف جدية بشأن سلامة وأمان وموثوقية روبوت الدردشة “Grok” من إيلون ماسك، حتى مع دمجه في البنتاغون ضمن عمليات سرية… pic.twitter.com/4b3e4lG4mY
— CryptosRus (@CryptosR_Us) 28 فبراير 2026
تزايد مخاوف الأمن والمراقبة مع استخدام “Grok” في الدفاع
هناك العديد من المخاوف التي أبدتها الوكالات المختلفة تجاه “Grok”، مثل الثغرات الأمنية، القابلية للتلاعب وتسميم البيانات، محدودية إمكانية التتبع، نقص الاختبارات الأمنية الشاملة، وزيادة عدم التنبؤ مقارنة بالمنافسين.
يتم استخدام “Grok” بنشاط داخل بيئة وزارة الدفاع الأمريكية لمحاكاة الحروب، ونمذجة الخصوم، واختبار السيناريوهات. علاوة على ذلك، تسمح شركة xAI بـ"جميع الاستخدامات القانونية"، مما يسلط الضوء أحيانًا على مخاوف السلامة من النماذج الأخرى. بعض القيود غير المرغوب فيها تعيق المستخدمين لفترات طويلة، وهذه القيود غير موجودة في أنظمة الذكاء الاصطناعي الأخرى.
الوكالات الأمريكية تواجه ضغطًا لوقف استخدام “Grok” بسبب مخاوف تتعلق بالخصوصية
تم إصدار أوامر للوكالات الفيدرالية بوقف استخدام تكنولوجيا الأنثروبيك بعد التبني السريع لها. بحلول ذلك الوقت، طالبت أكثر من 30 منظمة بتحالف إلى مكتب إدارة الميزانية الأمريكي (OMB) بإعادة النظر أو إيقاف تشغيل “Grok” في الاستخدام الفيدرالي.
يعد “Grok” من إيلون ماسك مفيدًا جدًا للمستخدمين في جميع الأمور؛ ومع ذلك، هناك العديد من المشكلات المتعلقة بخصوصية “Grok”. الآن، الاستخدام المفرط يكشف عن العيوب التي تؤدي إلى أضرار على نطاق واسع. تشير هذه الحالة إلى توتر أوسع في تطوير الذكاء الاصطناعي: سرعة الابتكار مقابل ضوابط السلامة، القدرات المفتوحة مقابل الحواجز الصارمة، والتبني العسكري مقابل الرقابة الأخلاقية.