هاكرز مدعومون من الدولة يستخدمون أدوات الذكاء الاصطناعي الشهيرة بما في ذلك Gemini، تحذر Google

Decrypt

ملخص سريع

  • أصدرت مجموعة استخبارات التهديدات في جوجل تقريرها الأخير حول مخاطر الذكاء الاصطناعي.
  • يقترح التقرير أن القراصنة المدعومين من الدول يستخدمون أدوات مثل جوجل جيميني لتسريع هجماتهم الإلكترونية.
  • يهتم القراصنة بالذكاء الاصطناعي الوكيلي لتمكينه من السيطرة الكاملة على الهجمات.

تُطلق مجموعة استخبارات التهديدات في جوجل (GTIG) الإنذار مرة أخرى بشأن مخاطر الذكاء الاصطناعي، حيث نشرت تقريرها الأخير حول كيفية استخدام المهاجمين الدوليين الخطيرين للذكاء الاصطناعي. وقد حددت هذه المجموعة زيادة في محاولات استخراج النماذج، وهي طريقة لسرقة الملكية الفكرية حيث يقوم شخص ما باستعلام نموذج ذكاء اصطناعي بشكل متكرر، محاولًا معرفة منطق داخله ونسخه إلى نموذج جديد.

يوضح تقرير مجموعة استخبارات التهديدات الجديدة من جوجل (GTIG) كيف يستخدم المهاجمون الذكاء الاصطناعي في كل شيء من الاستطلاع المتقدم إلى التصيد الاحتيالي وتطوير البرمجيات الخبيثة الآلي.

المزيد عن ذلك وكيف نواجه التهديدات ↓ https://t.co/NWUvNeBkn2

— سياسة جوجل العامة (@googlepubpolicy) 12 فبراير 2026

على الرغم من أن هذا الأمر مقلق، إلا أنه ليس الخطر الرئيسي الذي تعبر جوجل عن قلقها بشأنه. ويحذر التقرير من أن الجهات المدعومة من الحكومات تستخدم نماذج اللغة الكبيرة (LLMs) للبحث التقني، واستهداف وتوليد فريسات تصيد احتيالي متطورة بسرعة. ويبرز التقرير مخاوف من كوريا الديمقراطية، إيران، جمهورية الصين الشعبية وروسيا. جيميني وهجمات التصيد الاحتيالي يُقال إن هؤلاء المهاجمين يستخدمون أدوات الذكاء الاصطناعي، مثل جوجل جيميني، للاستطلاع وتكوين ملفات تعريف الأهداف، باستخدام جمع المعلومات المفتوحة على نطاق واسع، بالإضافة إلى إنشاء عمليات تصيد احتيالي مخصصة بشكل فائق. وتقول جوجل في تقريرها: “تؤكد هذه الأنشطة على تحول نحو تمكين التصيد الاحتيالي المدعوم بالذكاء الاصطناعي، حيث يمكن لسرعة ودقة نماذج اللغة الكبيرة تجاوز العمل اليدوي التقليدي لتحديد هوية الضحايا”. ويعتمد الأهداف منذ زمن على مؤشرات مثل ضعف القواعد اللغوية، أو تركيب الجمل غير الطبيعي، أو نقص السياق الثقافي للمساعدة في التعرف على محاولات التصيد الاحتيالي. ومع تزايد استخدام نماذج اللغة الكبيرة، أصبح المهاجمون الآن يستغلونها لإنشاء فريسات مخصصة بشكل فائق يمكن أن تعكس نغمة مهنية لمنظمة الهدف.

على سبيل المثال، إذا تم تزويد جيميني بسيرة ذاتية لهدف معين، يمكنه توليد شخصية جيدة والمساعدة في إنشاء سيناريو يجذب انتباهه بشكل فعال. باستخدام الذكاء الاصطناعي، يمكن لهؤلاء المهاجمين أيضًا ترجمة النصوص بشكل أكثر كفاءة بين اللغات المحلية. مع تزايد قدرة الذكاء الاصطناعي على توليد الشفرات، فتحت هذه القدرات أبوابًا لاستخدامها بشكل خبيث، حيث يقوم هؤلاء المهاجمون بحل المشكلات وتوليد أدوات خبيثة باستخدام وظيفة الترميز الخاصة بالذكاء الاصطناعي. ويحذر التقرير أيضًا من تزايد الاهتمام بتجربة الذكاء الاصطناعي الوكيل، وهو نوع من الذكاء الاصطناعي الذي يمكنه العمل بدرجة من الاستقلالية، لدعم مهام مثل تطوير البرمجيات الخبيثة وأتمتتها. تذكر جوجل جهودها لمواجهة هذه المشكلة من خلال عدة عوامل. بالإضافة إلى إصدار تقارير استخبارات التهديدات عدة مرات في السنة، تمتلك الشركة فريقًا يبحث باستمرار عن التهديدات. كما تنفذ جوجل إجراءات لتعزيز جيميني ليصبح نموذجًا لا يمكن استخدامه لأغراض خبيثة. من خلال شركة DeepMind التابعة لجوجل، يحاول الفريق التعرف على هذه التهديدات قبل أن تتطور. بشكل فعال، تسعى جوجل إلى تحديد الوظائف الخبيثة وإزالتها قبل أن تشكل خطرًا. على الرغم من أن التقرير واضح أن استخدام الذكاء الاصطناعي في مشهد التهديدات قد زاد، إلا أن جوجل تشير إلى أنه لا توجد قدرات ثورية حتى الآن. بل هناك فقط زيادة في استخدام الأدوات والمخاطر.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات