Кратко
Группа по разведке угроз Google (GTIG) вновь предупреждает о рисках ИИ, публикуя свой последний отчет о том, как опасные государственные хакеры используют искусственный интеллект.
Эта команда зафиксировала рост попыток извлечения моделей — метода кражи интеллектуальной собственности, при котором злоумышленник многократно запрашивает данные у ИИ-модели, пытаясь понять её внутреннюю логику и воспроизвести её в новой модели.
Наш новый отчет группы по разведке угроз Google (GTIG) показывает, как злоумышленники используют ИИ для всего — от продвинутого разведывательного сбора до фишинга и автоматизированной разработки вредоносного ПО.
Подробнее об этом и о том, как мы противостоим угрозам ↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 12 февраля 2026 г.
Хотя это вызывает тревогу, основная опасность, о которой говорит Google, — не только это. В отчете также предупреждается о том, что государственные структуры используют большие языковые модели (LLMs) для технических исследований, целенаправленного поиска и быстрого создания сложных фишинговых ловушек.
В отчете выражается озабоченность по поводу таких стран, как Демократическая Народная Республика Корея, Иран, Китай и Россия.
Gemini и фишинговые атаки
Сообщается, что эти акторы используют ИИ-инструменты, такие как Gemini от Google, для разведки и профилирования целей, применяя сбор открытых источников информации в большом масштабе, а также для создания гиперперсонализированных фишинговых схем.
«Эта деятельность подчеркивает сдвиг в сторону использования ИИ для усиления фишинга, где скорость и точность LLM позволяют обходить ручные методы, традиционно используемые для определения целей», — говорится в отчете Google.
«Цели давно полагались на такие признаки, как плохая грамматика, неловкий синтаксис или отсутствие культурного контекста, чтобы определить фишинговые попытки. Всё чаще злоумышленники используют LLM для генерации гиперперсонализированных ловушек, которые могут имитировать профессиональный тон целевой организации».
Например, если Gemini получит биографию цели, оно сможет создать подходящую персону и помочь сформировать сценарий, который эффективно привлечет их внимание. Используя ИИ, эти злоумышленники также могут более эффективно переводить сообщения и контент на местные языки.
По мере роста возможностей ИИ в области генерации кода, открываются и двери для его злонамеренного использования: злоумышленники используют ИИ для поиска и создания вредоносных инструментов с помощью функций автоматического кодирования.
В отчете также предупреждается о растущем интересе к экспериментам с агентным ИИ — формой искусственного интеллекта, способной действовать с определенной степенью автономии, поддерживая задачи, такие как разработка вредоносного ПО и его автоматизация.
Google отмечает свои усилия по борьбе с этой проблемой через различные меры. Помимо регулярных отчетов о разведке угроз, у компании есть команда, постоянно ищущая потенциальные угрозы. Также Google внедряет меры по развитию Gemini в модель, которая не может быть использована для злонамеренных целей.
Через Google DeepMind команда пытается выявить эти угрозы заранее. Эффективно, Google стремится обнаружить вредоносные функции и устранить их до того, как они смогут представлять опасность.
Хотя из отчета ясно, что использование ИИ в сфере угроз увеличилось, Google отмечает, что пока не достигнуто никаких прорывных возможностей. Вместо этого наблюдается лишь рост использования инструментов и связанных с этим рисков.