Google Threat Intelligence Group (GTIG) опублікувала останній звіт, у якому зазначено, що північнокорейські та кілька інших хакерських організацій активно використовують Gemini для автоматизованого розвідки, розробки шкідливого програмного забезпечення та інших завдань, що становить серйозну загрозу глобальним даним та національній безпеці. Керівник GTIG Стів Міллер зазначив, що компанії потрібно серйозно ставитися до проблем кібернападів, впроваджувати захист на основі штучного інтелекту та захищати ресурси і дані.
Хакерські організації використовують Gemini для аналізу цілей за допомогою відкритих джерел інформації
Звіт Google вказує, що північнокорейська хакерська група з кодовою назвою UNC 2970 використовує Gemini для комплексного збору відкритих джерел інформації (OSINT) та точного аналізу цінних цілей. Ця група довгий час діє під прикриттям Operation Dream Job (Мрія про роботу), маскуючись під рекрутерів компаній, спрямовуючись на фахівців у галузях авіації, оборони та енергетики. За допомогою штучного інтелекту зловмисники можуть ефективніше шукати технічні вакансії та структури зарплат у ключових компаніях з безпеки та оборони, що дозволяє їм точно визначати цілі.
GTIG зазначає, що UNC 2970 створює високорозроблені сценарії соціальної інженерії для більш точної атаки на слабкі місця початкового проникнення. Окрім Північної Кореї, китайські хакерські групи Mustang Panda (Temp.HEX) та APT 31 також були виявлені у використанні штучного інтелекту для редагування особистих профілів або автоматизації аналізу вразливостей.
Новий тип шкідливого програмного забезпечення через API Gemini «аутсорсить» розробку функцій
Звіт розкриває, що новий тип шкідливого ПЗ під назвою HONESTCUE використовує API Gemini для аутсорсингу розробки функцій. HONESTCUE — це фреймворк для завантажувачів, у другому безфайловому етапі якого отримуються C#-код, згенерований через API Gemini, і компілюються безпосередньо у пам’яті за допомогою легітимної платформи .NET CSharpCodeProvider, що дозволяє запускати шкідливий код без залишку слідів на диску.
Кіберзлочинці надсилають понад сто тисяч підказок, копіюючи можливості AI для розуміння
Google зафіксувала, що зловмисники надсилають великі обсяги підказок AI для копіювання здатностей моделі до розуміння та відповіді. Google заблокувала можливість використання альтернативних моделей, що імітують роботу основної. У масштабній атаці Gemini було отримано понад 100 000 підказок, які ставили питання з метою копіювання здатності AI виконувати нерідною мовою та складні логічні завдання.
Менеджер з безпеки штучного інтелекту Google Стів Міллер зазначив, що хоча зловмисники постійно намагаються обійти системи безпеки, Gemini вже зробила значний прогрес у виявленні обману та посиленні автоматичних фільтрів. Системи захисту постійно вдосконалюються для протидії новим формам атак за допомогою підказок.
У відповідь на зростаючі загрози штучного інтелекту Google запускає програму захисту AI у мережі, що постійно оновлюється для боротьби з шкідливими атаками, підвищення точності виявлення та автоматичного реагування. За допомогою машинного навчання системи безпеки стають більш чутливими до аномальних API-запитів та ознак шкідливих скриптів. Стів Міллер закликає компанії інвестувати у інфраструктуру штучного інтелекту для створення надійних систем захисту та забезпечення безпеки у майбутньому.
Ця стаття «Google попереджає! Північнокорейські та міжнародні хакерські групи використовують Gemini для атак» вперше з’явилася на Chain News ABMedia.