هاكرز مدعومون من الدولة يستخدمون أدوات الذكاء الاصطناعي الشهيرة بما في ذلك Gemini، تحذر Google

Decrypt

ملخص سريع

  • أصدرت مجموعة استخبارات التهديدات في جوجل تقريرها الأخير حول مخاطر الذكاء الاصطناعي.
  • يقترح التقرير أن القراصنة المدعومين من الدول يستخدمون أدوات مثل جوجل جيميني لتسريع هجماتهم الإلكترونية.
  • يهتم القراصنة بالذكاء الاصطناعي الوكيل لوضعه بالكامل في السيطرة على الهجمات.

تكرر مجموعة استخبارات التهديدات في جوجل (GTIG) إطلاق الإنذار مرة أخرى بشأن مخاطر الذكاء الاصطناعي، حيث نشرت تقريرها الأخير حول كيفية استخدام الذكاء الاصطناعي من قبل القراصنة الدوليين الخطرين. وقد حددت هذه المجموعة زيادة في محاولات استخراج النماذج، وهي طريقة لسرقة الملكية الفكرية حيث يقوم شخص ما باستعلام عن نموذج ذكاء اصطناعي مرارًا وتكرارًا، محاولًا معرفة منطق داخله ونسخه إلى نموذج جديد.

يوضح تقرير مجموعة استخبارات التهديدات الجديدة من جوجل كيف يستخدم المهاجمون الذكاء الاصطناعي في كل شيء من الاستطلاع المتقدم إلى التصيد الاحتيالي إلى تطوير البرمجيات الخبيثة الآلي.

المزيد عن ذلك وكيف نواجه التهديدات ↓ https://t.co/NWUvNeBkn2

— سياسة جوجل العامة (@googlepubpolicy) 12 فبراير 2026

على الرغم من أن هذا الأمر مقلق، إلا أنه ليس الخطر الرئيسي الذي تعبر جوجل عن قلقها بشأنه. ويواصل التقرير التحذير من استخدام الجهات المدعومة من الحكومات لنماذج اللغة الكبيرة (LLMs) في البحث التقني، واستهداف وتوليد فوري لمصائد التصيد المعقدة. ويبرز التقرير مخاوف من كوريا الديمقراطية، إيران، جمهورية الصين الشعبية وروسيا. جيميني وهجمات التصيد الاحتيالي يُقال إن هؤلاء المهاجمين يستخدمون أدوات الذكاء الاصطناعي، مثل جوجل جيميني، للاستطلاع وتكوين ملفات تعريف الأهداف، باستخدام جمع المعلومات المفتوحة على نطاق واسع، بالإضافة إلى إنشاء عمليات تصيد احتيالي مخصصة بشكل فائق. وتقول جوجل في تقريرها: “تؤكد هذه الأنشطة على تحول نحو تمكين التصيد الاحتيالي المدعوم بالذكاء الاصطناعي، حيث يمكن لسرعة ودقة نماذج اللغة الكبيرة تجاوز العمل اليدوي التقليدي لتحديد هوية الضحايا”. ويعتمد الأهداف منذ زمن طويل على مؤشرات مثل ضعف القواعد، أو تركيب الجمل غير الطبيعي، أو نقص السياق الثقافي للمساعدة في التعرف على محاولات التصيد الاحتيالي. ومع تزايد استخدام نماذج اللغة الكبيرة، أصبح المهاجمون الآن يستغلونها لإنشاء مصائد تصيد مخصصة بشكل فائق، يمكن أن تعكس نغمة مهنية لمنظمة الهدف.

على سبيل المثال، إذا تم تزويد جيميني بسيرة ذاتية لهدف معين، يمكنه توليد شخصية جيدة والمساعدة في إنشاء سيناريو يجذب انتباهه بشكل فعال. باستخدام الذكاء الاصطناعي، يمكن لهؤلاء المهاجمين أيضًا ترجمة النصوص بشكل أكثر كفاءة بين اللغات المحلية. مع تزايد قدرة الذكاء الاصطناعي على توليد الشفرات، فتحت هذه القدرات أبوابًا لاستخدامها الخبيث أيضًا، حيث يقوم هؤلاء المهاجمون بحل المشكلات وتوليد أدوات خبيثة باستخدام وظيفة الترميز الخاصة بالذكاء الاصطناعي. ويحذر التقرير أيضًا من تزايد الاهتمام بالتجارب مع الذكاء الاصطناعي الوكيل. وهو نوع من الذكاء الاصطناعي يمكنه العمل بدرجة من الاستقلالية، لدعم مهام مثل تطوير البرمجيات الخبيثة وأتمتتها. تذكر جوجل جهودها لمكافحة هذه المشكلة من خلال عدة عوامل. بالإضافة إلى إصدار تقارير استخبارات التهديدات عدة مرات في السنة، لدى الشركة فريق يبحث باستمرار عن التهديدات. كما تنفذ جوجل إجراءات لتعزيز جيميني ليصبح نموذجًا لا يمكن استخدامه لأغراض خبيثة. من خلال شركة DeepMind التابعة لجوجل، يحاول الفريق التعرف على هذه التهديدات قبل أن تصبح ممكنة. بفعالية، تسعى جوجل إلى تحديد الوظائف الخبيثة وإزالتها قبل أن تشكل خطرًا. على الرغم من أن التقرير واضح أن استخدام الذكاء الاصطناعي في مشهد التهديدات قد زاد، إلا أن جوجل تشير إلى أنه لا توجد قدرات ثورية حتى الآن. بل هناك ببساطة زيادة في استخدام الأدوات والمخاطر.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات