Кратко
Группа Threat Intelligence Group (GTIG) компании Google вновь предупреждает о рисках ИИ, публикуя свой последний отчет о том, как опасные государственные хакеры используют искусственный интеллект. Эта команда зафиксировала рост попыток извлечения моделей — метода кражи интеллектуальной собственности, при котором злоумышленник многократно обращается к ИИ-модели, пытаясь понять её внутреннюю логику и воспроизвести её в новой модели.
Наш новый отчет Google Threat Intelligence Group (GTIG) показывает, как злоумышленники используют ИИ для всего — от продвинутого разведывательного сбора до фишинга и автоматизированной разработки вредоносного ПО.
Подробнее об этом и о том, как мы противостоим угрозам ↓ https://t.co/NWUvNeBkn2
— Google Public Policy (@googlepubpolicy) 12 февраля 2026 г.
Хотя это вызывает тревогу, основная опасность, о которой говорит Google, — это использование государственными актерами больших языковых моделей (LLMs) для технических исследований, целенаправленного создания сложных фишинговых ловушек и быстрого генерирования нюансированных фишинговых приманок. В отчете выражается обеспокоенность по поводу таких стран, как Демократическая Народная Республика Корея, Иран, Китай и Россия.
Gemini и фишинговые атаки Сообщается, что эти акторы используют такие ИИ-инструменты, как Gemini от Google, для разведки и профилирования целей, применяя сбор открытых источников информации в масштабах, а также для создания гиперперсонализированных фишинговых схем. «Эта деятельность подчеркивает сдвиг в сторону использования ИИ для усиления фишинга, где скорость и точность LLM позволяют обходить ручные методы, традиционно используемые для профилирования жертв», — говорится в отчете Google. «Цели давно полагаются на такие признаки, как плохая грамматика, неловкий синтаксис или отсутствие культурного контекста, чтобы выявить фишинговые попытки. Всё чаще злоумышленники используют LLM для генерации гиперперсонализированных приманок, которые могут имитировать профессиональный тон целевой организации».
Например, если Gemini получит биографию цели, оно сможет создать подходящую личность и помочь сформировать сценарий, который эффективно привлечет их внимание. Используя ИИ, эти злоумышленники также могут более эффективно переводить сообщения и материалы на местные языки. По мере роста возможностей ИИ в области генерации кода, открываются и двери для его злонамеренного использования — злоумышленники используют ИИ для поиска ошибок и создания вредоносных инструментов с помощью функций кодирования.
В отчете также предупреждается о растущем интересе к экспериментам с агентным ИИ. Это форма искусственного интеллекта, которая может действовать с определенной степенью автономии, поддерживая задачи, такие как разработка вредоносного ПО и его автоматизация.
Google отмечает свои усилия по борьбе с этой проблемой через различные меры. Помимо регулярных отчетов Threat Intelligence, компания создала команду, которая постоянно ищет угрозы. Также предпринимаются шаги по усилению Gemini, чтобы сделать его моделью, которая не может быть использована в злонамеренных целях. Через Google DeepMind команда пытается выявить эти угрозы до того, как они станут возможными. Эффективно, Google стремится идентифицировать вредоносные функции и удалять их до того, как они смогут представлять угрозу.
Хотя из отчета ясно, что использование ИИ в сфере угроз увеличилось, Google отмечает, что пока не наблюдается прорывных возможностей. Вместо этого наблюдается лишь рост использования инструментов и связанных с этим рисков.