Коротко
Група з розвідки загроз Google (GTIG) знову попереджає про ризики штучного інтелекту, публікуючи свій останній звіт про те, як небезпечні державні хакери використовують штучний інтелект. Ця команда зафіксувала зростання спроб витягання моделей — методу крадіжки інтелектуальної власності, коли хтось багаторазово запитує модель ШІ, намагаючись зрозуміти її внутрішню логіку та відтворити її у новій моделі.
Наш новий звіт групи з розвідки загроз Google (GTIG) детально описує, як зловмисники використовують ШІ для всього — від просунутого розвідки до фішингу та автоматизованої розробки шкідливого програмного забезпечення.
Детальніше про це та про наші заходи протидії ↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 12 лютого 2026
Хоча це викликає занепокоєння, основною проблемою, якою переймається Google, не є. У звіті попереджається, що урядові групи зловмисників використовують великі мовні моделі (LLMs) для технічних досліджень, цілеспрямованих атак та швидкого створення нюансованих фішингових пасток. Звіт висловлює занепокоєння щодо таких країн, як Демократична Народна Республіка Корея, Іран, Китайська Народна Республіка та Росія. Gemini та фішингові атаки Згідно з повідомленнями, ці групи використовують інструменти ШІ, такі як власний Gemini від Google, для розвідки та профілювання цілей, застосовуючи відкриті джерела розвідки у широких масштабах, а також для створення гіперперсоналізованих фішингових схем. «Ця діяльність підкреслює перехід до використання ШІ для підтримки фішингу, де швидкість і точність LLM можуть обійти ручну працю, яка раніше була необхідною для профілювання жертви», — йдеться у звіті Google. «Цілі давно покладаються на ознаки, такі як погана граматика, незграбний синтаксис або відсутність культурного контексту, щоб ідентифікувати фішингові спроби. Все частіше зловмисники використовують LLM для створення гіперперсоналізованих пасток, які можуть імітувати професійний тон цільової організації».
Наприклад, якщо Gemini отримує біографію цілі, він може створити відповідний образ і допомогти сформувати сценарій, який ефективно приверне їхню увагу. Використовуючи ШІ, ці зловмисники також можуть більш ефективно перекладати та виходити з місцевих мов. Зі зростанням здатності ШІ генерувати код, відкрилися двері і для його зловмисного використання, оскільки ці групи використовують AI для пошуку та створення шкідливих інструментів. Звіт також попереджає про зростаючий інтерес до експериментів з агентним ШІ. Це форма штучного інтелекту, яка може діяти з певною автономією, підтримуючи такі завдання, як розробка шкідливого програмного забезпечення та його автоматизація. Google зазначає, що бореться з цією проблемою за допомогою різних заходів. Окрім створення звітів з розвідки загроз кілька разів на рік, у компанії є команда, яка постійно шукає нові загрози. Google також впроваджує заходи для посилення Gemini у модель, яку не можна використовувати для зловмисних цілей. За допомогою Google DeepMind команда намагається виявити ці загрози ще до їхнього можливого виникнення. Ефективно, Google прагне ідентифікувати шкідливі функції та видалити їх до того, як вони стануть ризиком. Хоча з звіту зрозуміло, що використання ШІ у сфері загроз зросло, Google зазначає, що наразі немає проривних можливостей. Замість цього спостерігається лише зростання використання інструментів і ризиків.