Державні хакери, що використовують популярні інструменти штучного інтелекту, включаючи Gemini, попереджає Google

Decrypt

Коротко

  • Група з розвідки загроз Google опублікувала свій останній звіт про небезпеки штучного інтелекту.
  • У звіті йдеться, що державні хакери використовують такі інструменти, як власний Gemini від Google, щоб прискорити свої кібератаки.
  • Хакери цікавляться агентним ШІ, щоб повністю поставити його під контроль атак.

Група з розвідки загроз Google (GTIG) знову попереджає про ризики штучного інтелекту, публікуючи свій останній звіт про те, як небезпечні державні хакери використовують штучний інтелект. Ця команда зафіксувала зростання спроб витягання моделей — методу крадіжки інтелектуальної власності, коли хтось багаторазово запитує модель ШІ, намагаючись зрозуміти її внутрішню логіку та відтворити її у новій моделі.

Наш новий звіт групи з розвідки загроз Google (GTIG) детально описує, як зловмисники використовують ШІ для всього — від просунутого розвідки до фішингу та автоматизованої розробки шкідливого програмного забезпечення.

Детальніше про це та про наші заходи протидії ↓ https://t.co/NWUvNeBkn2

— Google Public Policy (@googlepubpolicy) 12 лютого 2026

Хоча це викликає занепокоєння, основною проблемою, якою переймається Google, не є. У звіті попереджається, що урядові групи зловмисників використовують великі мовні моделі (LLMs) для технічних досліджень, цілеспрямованих атак та швидкого створення нюансованих фішингових пасток. Звіт висловлює занепокоєння щодо таких країн, як Демократична Народна Республіка Корея, Іран, Китайська Народна Республіка та Росія. Gemini та фішингові атаки Згідно з повідомленнями, ці групи використовують інструменти ШІ, такі як власний Gemini від Google, для розвідки та профілювання цілей, застосовуючи відкриті джерела розвідки у широких масштабах, а також для створення гіперперсоналізованих фішингових схем. «Ця діяльність підкреслює перехід до використання ШІ для підтримки фішингу, де швидкість і точність LLM можуть обійти ручну працю, яка раніше була необхідною для профілювання жертви», — йдеться у звіті Google. «Цілі давно покладаються на ознаки, такі як погана граматика, незграбний синтаксис або відсутність культурного контексту, щоб ідентифікувати фішингові спроби. Все частіше зловмисники використовують LLM для створення гіперперсоналізованих пасток, які можуть імітувати професійний тон цільової організації».

Наприклад, якщо Gemini отримує біографію цілі, він може створити відповідний образ і допомогти сформувати сценарій, який ефективно приверне їхню увагу. Використовуючи ШІ, ці зловмисники також можуть більш ефективно перекладати та виходити з місцевих мов. Зі зростанням здатності ШІ генерувати код, відкрилися двері і для його зловмисного використання, оскільки ці групи використовують AI для пошуку та створення шкідливих інструментів. Звіт також попереджає про зростаючий інтерес до експериментів з агентним ШІ. Це форма штучного інтелекту, яка може діяти з певною автономією, підтримуючи такі завдання, як розробка шкідливого програмного забезпечення та його автоматизація.  Google зазначає, що бореться з цією проблемою за допомогою різних заходів. Окрім створення звітів з розвідки загроз кілька разів на рік, у компанії є команда, яка постійно шукає нові загрози. Google також впроваджує заходи для посилення Gemini у модель, яку не можна використовувати для зловмисних цілей. За допомогою Google DeepMind команда намагається виявити ці загрози ще до їхнього можливого виникнення. Ефективно, Google прагне ідентифікувати шкідливі функції та видалити їх до того, як вони стануть ризиком. Хоча з звіту зрозуміло, що використання ШІ у сфері загроз зросло, Google зазначає, що наразі немає проривних можливостей. Замість цього спостерігається лише зростання використання інструментів і ризиків.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів