ملخص سريع
تكرر مجموعة استخبارات التهديدات في جوجل (GTIG) إطلاق الإنذار مرة أخرى بشأن مخاطر الذكاء الاصطناعي، حيث نشرت تقريرها الأخير حول كيفية استخدام الذكاء الاصطناعي من قبل القراصنة الدوليين الخطرين. وقد حددت هذه المجموعة زيادة في محاولات استخراج النماذج، وهي طريقة لسرقة الملكية الفكرية حيث يقوم شخص ما باستعلام عن نموذج ذكاء اصطناعي مرارًا وتكرارًا، محاولًا معرفة منطق داخله ونسخه إلى نموذج جديد.
يوضح تقرير مجموعة استخبارات التهديدات الجديدة من جوجل كيف يستخدم المهاجمون الذكاء الاصطناعي في كل شيء من الاستطلاع المتقدم إلى التصيد الاحتيالي إلى تطوير البرمجيات الخبيثة الآلي.
المزيد عن ذلك وكيف نواجه التهديدات ↓ https://t.co/NWUvNeBkn2
— سياسة جوجل العامة (@googlepubpolicy) 12 فبراير 2026
على الرغم من أن هذا الأمر مقلق، إلا أنه ليس الخطر الرئيسي الذي تعبر جوجل عن قلقها بشأنه. ويواصل التقرير التحذير من استخدام الجهات المدعومة من الحكومات لنماذج اللغة الكبيرة (LLMs) في البحث التقني، واستهداف وتوليد فوري لمصائد التصيد المعقدة. ويبرز التقرير مخاوف من كوريا الديمقراطية، إيران، جمهورية الصين الشعبية وروسيا. جيميني وهجمات التصيد الاحتيالي يُقال إن هؤلاء المهاجمين يستخدمون أدوات الذكاء الاصطناعي، مثل جوجل جيميني، للاستطلاع وتكوين ملفات تعريف الأهداف، باستخدام جمع المعلومات المفتوحة على نطاق واسع، بالإضافة إلى إنشاء عمليات تصيد احتيالي مخصصة بشكل فائق. وتقول جوجل في تقريرها: “تؤكد هذه الأنشطة على تحول نحو تمكين التصيد الاحتيالي المدعوم بالذكاء الاصطناعي، حيث يمكن لسرعة ودقة نماذج اللغة الكبيرة تجاوز العمل اليدوي التقليدي لتحديد هوية الضحايا”. ويعتمد الأهداف منذ زمن طويل على مؤشرات مثل ضعف القواعد، أو تركيب الجمل غير الطبيعي، أو نقص السياق الثقافي للمساعدة في التعرف على محاولات التصيد الاحتيالي. ومع تزايد استخدام نماذج اللغة الكبيرة، أصبح المهاجمون الآن يستغلونها لإنشاء مصائد تصيد مخصصة بشكل فائق، يمكن أن تعكس نغمة مهنية لمنظمة الهدف.
على سبيل المثال، إذا تم تزويد جيميني بسيرة ذاتية لهدف معين، يمكنه توليد شخصية جيدة والمساعدة في إنشاء سيناريو يجذب انتباهه بشكل فعال. باستخدام الذكاء الاصطناعي، يمكن لهؤلاء المهاجمين أيضًا ترجمة النصوص بشكل أكثر كفاءة بين اللغات المحلية. مع تزايد قدرة الذكاء الاصطناعي على توليد الشفرات، فتحت هذه القدرات أبوابًا لاستخدامها الخبيث أيضًا، حيث يقوم هؤلاء المهاجمون بحل المشكلات وتوليد أدوات خبيثة باستخدام وظيفة الترميز الخاصة بالذكاء الاصطناعي. ويحذر التقرير أيضًا من تزايد الاهتمام بالتجارب مع الذكاء الاصطناعي الوكيل. وهو نوع من الذكاء الاصطناعي يمكنه العمل بدرجة من الاستقلالية، لدعم مهام مثل تطوير البرمجيات الخبيثة وأتمتتها. تذكر جوجل جهودها لمكافحة هذه المشكلة من خلال عدة عوامل. بالإضافة إلى إصدار تقارير استخبارات التهديدات عدة مرات في السنة، لدى الشركة فريق يبحث باستمرار عن التهديدات. كما تنفذ جوجل إجراءات لتعزيز جيميني ليصبح نموذجًا لا يمكن استخدامه لأغراض خبيثة. من خلال شركة DeepMind التابعة لجوجل، يحاول الفريق التعرف على هذه التهديدات قبل أن تصبح ممكنة. بفعالية، تسعى جوجل إلى تحديد الوظائف الخبيثة وإزالتها قبل أن تشكل خطرًا. على الرغم من أن التقرير واضح أن استخدام الذكاء الاصطناعي في مشهد التهديدات قد زاد، إلا أن جوجل تشير إلى أنه لا توجد قدرات ثورية حتى الآن. بل هناك ببساطة زيادة في استخدام الأدوات والمخاطر.