ملخص سريع
تُطلق مجموعة استخبارات التهديدات في جوجل (GTIG) الإنذار مرة أخرى بشأن مخاطر الذكاء الاصطناعي، حيث نشرت تقريرها الأخير حول كيفية استخدام المهاجمين الدوليين الخطيرين للذكاء الاصطناعي. وقد حددت هذه المجموعة زيادة في محاولات استخراج النماذج، وهي طريقة لسرقة الملكية الفكرية حيث يقوم شخص ما باستعلام نموذج ذكاء اصطناعي بشكل متكرر، محاولًا معرفة منطق داخله ونسخه إلى نموذج جديد.
يوضح تقرير مجموعة استخبارات التهديدات الجديدة من جوجل (GTIG) كيف يستخدم المهاجمون الذكاء الاصطناعي في كل شيء من الاستطلاع المتقدم إلى التصيد الاحتيالي وتطوير البرمجيات الخبيثة الآلي.
المزيد عن ذلك وكيف نواجه التهديدات ↓ https://t.co/NWUvNeBkn2
— سياسة جوجل العامة (@googlepubpolicy) 12 فبراير 2026
على الرغم من أن هذا الأمر مقلق، إلا أنه ليس الخطر الرئيسي الذي تعبر جوجل عن قلقها بشأنه. ويحذر التقرير من أن الجهات المدعومة من الحكومات تستخدم نماذج اللغة الكبيرة (LLMs) للبحث التقني، واستهداف وتوليد فريسات تصيد احتيالي متطورة بسرعة. ويبرز التقرير مخاوف من كوريا الديمقراطية، إيران، جمهورية الصين الشعبية وروسيا. جيميني وهجمات التصيد الاحتيالي يُقال إن هؤلاء المهاجمين يستخدمون أدوات الذكاء الاصطناعي، مثل جوجل جيميني، للاستطلاع وتكوين ملفات تعريف الأهداف، باستخدام جمع المعلومات المفتوحة على نطاق واسع، بالإضافة إلى إنشاء عمليات تصيد احتيالي مخصصة بشكل فائق. وتقول جوجل في تقريرها: “تؤكد هذه الأنشطة على تحول نحو تمكين التصيد الاحتيالي المدعوم بالذكاء الاصطناعي، حيث يمكن لسرعة ودقة نماذج اللغة الكبيرة تجاوز العمل اليدوي التقليدي لتحديد هوية الضحايا”. ويعتمد الأهداف منذ زمن على مؤشرات مثل ضعف القواعد اللغوية، أو تركيب الجمل غير الطبيعي، أو نقص السياق الثقافي للمساعدة في التعرف على محاولات التصيد الاحتيالي. ومع تزايد استخدام نماذج اللغة الكبيرة، أصبح المهاجمون الآن يستغلونها لإنشاء فريسات مخصصة بشكل فائق يمكن أن تعكس نغمة مهنية لمنظمة الهدف.
على سبيل المثال، إذا تم تزويد جيميني بسيرة ذاتية لهدف معين، يمكنه توليد شخصية جيدة والمساعدة في إنشاء سيناريو يجذب انتباهه بشكل فعال. باستخدام الذكاء الاصطناعي، يمكن لهؤلاء المهاجمين أيضًا ترجمة النصوص بشكل أكثر كفاءة بين اللغات المحلية. مع تزايد قدرة الذكاء الاصطناعي على توليد الشفرات، فتحت هذه القدرات أبوابًا لاستخدامها بشكل خبيث، حيث يقوم هؤلاء المهاجمون بحل المشكلات وتوليد أدوات خبيثة باستخدام وظيفة الترميز الخاصة بالذكاء الاصطناعي. ويحذر التقرير أيضًا من تزايد الاهتمام بتجربة الذكاء الاصطناعي الوكيل، وهو نوع من الذكاء الاصطناعي الذي يمكنه العمل بدرجة من الاستقلالية، لدعم مهام مثل تطوير البرمجيات الخبيثة وأتمتتها. تذكر جوجل جهودها لمواجهة هذه المشكلة من خلال عدة عوامل. بالإضافة إلى إصدار تقارير استخبارات التهديدات عدة مرات في السنة، تمتلك الشركة فريقًا يبحث باستمرار عن التهديدات. كما تنفذ جوجل إجراءات لتعزيز جيميني ليصبح نموذجًا لا يمكن استخدامه لأغراض خبيثة. من خلال شركة DeepMind التابعة لجوجل، يحاول الفريق التعرف على هذه التهديدات قبل أن تتطور. بشكل فعال، تسعى جوجل إلى تحديد الوظائف الخبيثة وإزالتها قبل أن تشكل خطرًا. على الرغم من أن التقرير واضح أن استخدام الذكاء الاصطناعي في مشهد التهديدات قد زاد، إلا أن جوجل تشير إلى أنه لا توجد قدرات ثورية حتى الآن. بل هناك فقط زيادة في استخدام الأدوات والمخاطر.