
Криптовалютная индустрия переживает невиданный ранее наплыв мошенничеств на базе искусственного интеллекта, отличающихся масштабом и сложностью. Ари Редборд, глобальный руководитель отдела политики и взаимодействия с государственными органами TRM Labs, отметил: генеративные модели позволяют запускать тысячи мошеннических схем одновременно на десятках платформ и в различных блокчейн-сетях. «Мы сталкиваемся с преступной экосистемой, которая становится умнее, быстрее и способна к неограниченному масштабированию», — подчеркнул он.
Технологии атак с применением ИИ демонстрируют пугающе высокий уровень сложности. Генеративные ИИ-модели в реальном времени анализируют языковые предпочтения, географию и цифровой след жертвы, адаптируя сценарии под конкретного пользователя. Такой уровень персонализации делает мошенничество во много раз более убедительным по сравнению с классическими схемами. В операциях с вымогательским ПО алгоритмы ИИ выбирают жертв с максимальной вероятностью выкупа, автоматически формируют индивидуальные требования и ведут переговоры, точно имитируя манеру общения реального человека.
Атаки социальной инженерии стали максимально достоверными за счет использования дипфейков. Поддельные голоса и видео применяются для обмана компаний и частных лиц: схемы «имитации руководства», когда злоумышленники выдают себя за топ-менеджеров для подтверждения мошеннических транзакций, и «семейные экстренные случаи», где сгенерированные голоса близких используются для выманивания денег у жертв.
Ончейн-мошенничество стало новым полем, где ИИ-инструменты проявляют особую опасность. Такие системы пишут сложные скрипты, позволяющие переводить средства через сотни кошельков за секунды, формируя цепочки отмывания с недостижимой для человека скоростью. Автоматизация движения средств делает практически невозможным отслеживание потоков до их исчезновения в сети блокчейна традиционными способами.
Столкнувшись с эскалацией угроз, криптоотрасль начала использовать искусственный интеллект в качестве защиты от мошенничества на базе ИИ. Аналитические компании по блокчейну, кибербезопасностные фирмы, криптобиржи и исследовательские центры объединяют усилия для создания сложных систем машинного обучения, которые позволяют выявлять, отмечать и предотвращать мошенничество задолго до реальных потерь средств.
TRM Labs интегрировала искусственный интеллект на всех уровнях своей платформы анализа блокчейна, создав комплексную систему защиты. Компания использует продвинутые алгоритмы машинного обучения, обрабатывающие триллионы данных в более чем 40 блокчейн-сетях одновременно. Такой масштаб обработки позволяет TRM Labs строить сложные сети кошельков, выявлять новые типологии мошенничества и обнаруживать аномалии, свидетельствующие о противоправной активности на самых ранних этапах.
«Системы не просто распознают шаблоны — они учатся им», — отметил Редборд. «По мере изменения данных и появления новых методов мошенничества модели адаптируются, реагируя на динамику крипторынков в реальном времени». Адаптивное обучение критично там, где тактики мошенников быстро эволюционируют.
Sardine, платформа управления рисками на базе ИИ, основанная в 2020 году, реализовала многоуровневый подход к выявлению мошенничества. По словам Алекса Кушнира, руководителя коммерческого развития Sardine, инфраструктура ИИ состоит из трех интегрированных слоев, которые формируют надежную систему безопасности.
Первый слой отвечает за сбор данных, фиксируя глубинные сигналы по каждой пользовательской сессии на финансовых платформах: характеристики устройств, спецификации аппаратного обеспечения, детали операционной системы, признаки модификации приложений, а также анализ поведения пользователя — шаблоны набора текста, движения мыши и привычки навигации.
Второй слой предоставляет доступ к широкой сети проверенных поставщиков данных для сверки пользовательских данных с базами. Такая перекрестная проверка помогает выявлять подозрительную информацию до завершения мошеннических операций.
Третий слой реализует консорциальный обмен данными между компаниями для передачи сведений о злоумышленниках партнерам. Такой подход создает распределенную сеть разведданных, которая повышает защищенность всех участников рынка.
Sardine использует риск-движок, который реагирует на каждый индикатор в реальном времени и борется с мошенничеством по мере его возникновения, а не только постфактум. Кушнир отметил, что агентные ИИ и большие языковые модели применяются в автоматизации и для повышения эффективности операций, а не для прямого обнаружения мошенничества в режиме реального времени. «Вместо сложного программирования теперь любой может просто описать условия для правила, а ИИ-агент создаст, протестирует и внедрит это правило, если оно соответствует нужным требованиям», — пояснил он. Благодаря этому безопасность может гораздо быстрее реагировать на новые угрозы.
Реальные кейсы внедрения защитных систем на базе ИИ показывают их эффективность. Мэтт Вега, руководитель аппарата Sardine, объяснил: после выявления подозрительного паттерна система проводит глубокий анализ для выработки рекомендаций, предотвращающих реализацию атаки. «Человеку на такой анализ понадобился бы день, а ИИ справляется за секунды», — подчеркнул он. Такая скорость критична для предотвращения перевода средств при мошенничестве.
Sardine сотрудничает с ведущими криптовалютными биржами для отслеживания необычного поведения пользователей в реальном времени. Транзакции пропускаются через платформу принятия решений Sardine, где ИИ-аналитика позволяет заранее выявлять потенциальные мошенничества. Такой подход дает биржам возможность вмешаться до завершения сомнительных операций, защищая платформу и пользователей.
TRM Labs сталкивалась с мошенничеством на базе ИИ в ходе расследований. Компания зафиксировала дипфейк во время видеозвонка с подозреваемым в «финансовом груминге». «Мы заподозрили дипфейк из-за неестественной линии роста волос и мелких несовпадений в мимике», — пояснил Редборд. «ИИ-инструменты подтвердили, что изображение, вероятно, создано искусственным интеллектом». Несмотря на успешное выявление мошенничества, эта операция и связанные с ней схемы нанесли ущерб примерно на $60 млн, что подчеркивает как эффективность инструментов, так и срочность их внедрения.
Компания Kidas также использует искусственный интеллект для обнаружения и предотвращения мошенничества с помощью анализа контента. Рон Кербс, основатель и CEO Kidas, отметил, что собственные модели анализируют контент, поведение и аудиовизуальные несоответствия в реальном времени, выявляя дипфейки и фишинговые атаки на базе LLM уже на этапе взаимодействия. «Это обеспечивает мгновенную оценку риска и моментальную блокировку — иначе невозможно противостоять автоматизированному мошенничеству в промышленных масштабах», — подчеркнул Кербс.
В одном из последних случаев инструмент Kidas перехватил две попытки криптомошенничества в Discord — популярной коммуникационной платформе, часто используемой злоумышленниками. Это позволило предотвратить потерю средств и выявить новые схемы мошенников.
Хотя инструменты на базе ИИ уже доказывают эффективность в обнаружении и предотвращении сложных мошеннических схем, эксперты отмечают: такие атаки продолжат расти по частоте и сложности. «ИИ снижает барьер для сложной преступности, делая мошенничество масштабируемым и персонализированным, — их число будет только увеличиваться», — комментирует Кербс. Благодаря доступности таких технологий даже преступники с минимальными знаниями могут запускать сложные схемы.
Тем не менее, пользователи могут защитить себя от подобных атак. Вега указал: многие атаки связаны с фейковыми сайтами, когда пользователя перенаправляют на поддельный ресурс и вынуждают кликать по вредоносным ссылкам, кажущимся легитимными.
«Пользователи должны обращать внимание на греческие буквы и другие символы Unicode, визуально похожие на латинские на сайтах», — предупреждает Вега. «Недавно крупная технологическая компания пострадала из-за того, что злоумышленник создал сайт с греческой буквой ‘A’, идентичной латинской в названии компании». Такой гомографический подход эксплуатирует визуальное сходство символов разных алфавитов для создания правдоподобных ложных URL.
Также необходимо быть осторожными со спонсируемыми ссылками в поиске: мошенники часто покупают рекламу, чтобы продвигать фейковые сайты вверх. Проверка URL перед переходом, наличие HTTPS и точное написание домена позволяют избежать большинства атак.
Помимо индивидуальных мер, такие компании, как Sardine и TRM Labs, сотрудничают с регуляторами для создания системных инструментов, использующих ИИ для снижения рисков мошенничества на системном уровне. Взаимодействие бизнеса и госструктур позволяет создавать комплексные системы защиты.
«Мы разрабатываем системы, которые дают правоохранителям и комплаенс-специалистам ту же скорость, масштаб и охват, что и преступники, — от выявления аномалий в реальном времени до отслеживания координированных кроссчейн-схем отмывания», — отметил Редборд. «ИИ позволяет перевести управление рисками из реактивного режима в проактивный: теперь мы можем выявлять и предотвращать мошенничество до его совершения». Такой переход от реактивной к проактивной безопасности меняет подход к защите в криптоиндустрии и дает шанс опередить атаки на базе ИИ.
ИИ выявляет фишинг, схемы Понци, фиктивные токен-проекты, манипуляции типа pump-and-dump, подозрительные транзакции с кошельками, дипфейковую подмену личности и схемы отмывания средств. Алгоритмы машинного обучения фиксируют аномальные объемы торгов, кластеризацию адресов и атаки социальной инженерии в реальном времени.
ИИ выявляет мошенничество с помощью распознавания паттернов, анализируя транзакции, историю кошельков и сетевые связи. Модели машинного обучения фиксируют аномалии, фишинг и схемы отмывания средств в реальном времени, отмечая подозрительную активность до ее исполнения и обеспечивая защиту пользователей за счет постоянного мониторинга блокчейна.
Анализ аномалий, поведенческий анализ и глубокое обучение позволяют выявлять криптомошенничество. Эти методы анализируют паттерны транзакций, перемещения средств между кошельками и метаданные коммуникаций в реальном времени, автоматически адаптируясь к новым схемам за счет постоянного дообучения моделей.
Да, ИИ способен обнаруживать дипфейк-видео с помощью распознавания лиц, анализа голоса и поведенческих паттернов. Современные системы выявляют несоответствия в освещении, мимике и синхронизации аудио, что позволяет снизить риски дипфейкового мошенничества на крипторынке.
ИИ анализирует транзакционные паттерны, поведение пользователей и сетевые аномалии для выявления мошеннических бирж и подозрительных кошельков. Модели машинного обучения фиксируют красные флаги — необычные объемы торгов, признаки отмывания средств и мошеннические схемы в реальном времени, защищая пользователей от криптомошенничества.
Современные ИИ-системы для выявления мошенничества в криптоотрасли достигают точности 85–95 %, эффективно обнаруживая подозрительные паттерны, аномалии и сигнатуры мошенничества в реальном времени. Модели машинного обучения постоянно совершенствуются, выявляя фишинг, пирамиды и манипуляции рынком с растущей скоростью и точностью.
ИИ сталкивается с быстрым развитием мошеннических схем, ложными срабатываниями, ограниченным доступом к офчейн-данным и необходимостью регулярного обновления моделей. Мошенники адаптируются быстрее, чем ИИ успевает обучаться, поэтому для эффективной защиты необходимы эксперты и сотрудничество.
Мошенники применяют обфускацию кода, полиморфное вредоносное ПО с постоянно меняющимися сигнатурами, сложный фишинг, эксплойты нулевого дня и социальную инженерию, чтобы обходить системы распознавания паттернов и модели машинного обучения.











