في ظل التطور السلبي لاستخدام الذكاء الاصطناعي بشكل غير منظم ليصبح تهديدًا أمنيًا، تتخذ شركة إدارة الوصول إلى الهوية Okta إجراءات من خلال تعزيز قدراتها في كشف الوكلاء غير المصرح بهم من الذكاء الاصطناعي (المعروفين بـ “الذكاء الاصطناعي الظلي”) وإدارة صلاحياتهم وتتبعها. أعلنت شركة Okta في 12 من الشهر (بتوقيت محلي) عن إضافة وظيفة جديدة على منصة إدارة وضع الأمان الخاص بالهوية، تمكن من التعرف على الذكاء الاصطناعي الظلي وتتبع صلاحياته وإدارتها.
تتيح وظيفة “اكتشاف الوكيل” الجديدة فهم صلاحيات ووصول البيانات التي يمتلكها وكلاء الذكاء الاصطناعي داخل المؤسسة بشكل منهجي، مما يساعد على تشغيل الذكاء الاصطناعي بشكل آمن ضمن حدود السيطرة الأمنية. وتتمكن هذه الوظيفة بشكل خاص من اكتشاف الوكلاء الذكاء الاصطناعي الذين يُنشأون على منصات غير مصرح بها، وتتبع بشكل فوري عمليات نقل البيانات إلى خارج الشركة عبر عملية تفويض OAuth.
وأكد هاريش بري، رئيس قسم أمان الذكاء الاصطناعي في شركة Okta، قائلاً: “يعمل وكلاء الذكاء الاصطناعي على مستوى التطبيق وليس على مستوى الشبكة أو الأجهزة، ويقومون باستخدام صلاحيات مستمرة وواسعة من خلال هويات غير بشرية.” وأضاف: “تهدف هذه الوظيفة الجديدة إلى التعرف على استخدام الذكاء الاصطناعي غير المصرح به ووضع استراتيجيات للتعامل معه.”
كما أكد تقرير حديث من شركة غارتنر المخاوف من الذكاء الاصطناعي الظلي، حيث ذكر أن 69% من الشركات تتعقب آثار استخدام الموظفين لأدوات الذكاء الاصطناعي التوليدية غير المصرح بها، ومن المتوقع أن تتعرض أكثر من 40% من الشركات لمخاطر أمنية أو امتثال غير قانوني بسبب الذكاء الاصطناعي الظلي بحلول عام 2030. وترى شركة Okta أن هذا النقص في “رؤية الأمان” يرجع إلى الانتشار السريع لأدوات توليد الوكلاء الذكاء الاصطناعي، وزيادة استخدام أدوات بناء الذكاء الاصطناعي غير الموثوقة بشكل كافٍ.
من خلال هذا التحديث، توفر شركة Okta رؤية أمنية موحدة عبر البنى التحتية السحابية من شركات مثل Oracle وGoogle وMicrosoft وSalesforce وبيئة SaaS، لدمج إدارة الهويات غير البشرية. مما يمكن المدراء من التعرف على مالكي الوكلاء الذكاء الاصطناعي، ونطاق صلاحياتهم، والعوامل المحتملة لتهديدات الأمان، سواء كانت مصرح بها أو غير ذلك.
بالإضافة إلى ذلك، تخطط شركة Okta لتوسيع قدرات الكشف خلال الربع الأول من السنة المالية 2027 لتشمل منصات الذكاء الاصطناعي الرئيسية مثل Microsoft Copilot Studio وSalesforce Agentforce. ويهدف ذلك إلى تعزيز تتبع صلاحيات ومخاطر كل وكيل ذكاء اصطناعي.
قالت جينا كلاين، نائب الرئيس الأول للأعمال والتقنية: “استراتيجية Okta في تطبيقات الذكاء الاصطناعي تركز على الحوكمة أكثر من توسيع الوظائف”، مؤكدة على النهج المستمر القائم على السيطرة.
يُعد الذكاء الاصطناعي الظلي عرضة للتحول إلى تقنية غير خاضعة للسيطرة خلال عمليات إدخال الذكاء الاصطناعي السريعة في الشركات. لذلك، يُنظر إلى وظيفة ISPM المعززة التي أطلقتها Okta على أنها خطوة تعكس تطور استراتيجية الأمان في الشركات، حيث توازن بين تبني ابتكارات الذكاء الاصطناعي والحفاظ على الأمان والسيطرة.