
Криптовалютна індустрія стикається з безпрецедентною хвилею шахрайств на основі ШІ, які діють у небачених масштабах і з новим рівнем складності. Арі Редборд, глобальний керівник напрямку політики та взаємодії з урядами в TRM Labs, відзначає: генеративні моделі використовують для одночасного запуску тисяч шахрайських схем на різних платформах і блокчейн-мережах. «Ми спостерігаємо злочинну екосистему, яка стала розумнішою, швидшою і практично безмежно масштабованою», — наголосив він.
Механізми таких атак із залученням ШІ свідчать про тривожний рівень складності. Генеративні ШІ-моделі здатні аналізувати та підлаштовуватися під мовні вподобання, геолокацію й цифровий слід жертви у режимі реального часу. Така персоналізація робить шахрайства значно переконливішими, ніж традиційні спроби обману. У випадках із програмами-вимагачами алгоритми ШІ використовують для відбору потенційних жертв за ймовірністю оплати, автоматичного складання вимог щодо викупу для конкретних цілей і ведення переговорів, що імітують людську розмову з неймовірною точністю.
Атаки соціальної інженерії стали надзвичайно переконливими завдяки використанню deepfake-технологій. Підроблені голоси й відео застосовують для обману компаній і фізичних осіб через схеми «видавання себе за керівників» (executive impersonation), коли зловмисники видають себе за топменеджерів для авторизації фіктивних транзакцій, а також за допомогою «сімейних надзвичайних ситуацій», де згенерованим голосом близької людини виманюють гроші під надуманим приводом.
Ончейн-шахрайства — це ще одна сфера, де ШІ-інструменти демонструють свою небезпечну ефективність. Такі системи можуть створювати складні скрипти для переміщення коштів через сотні гаманців за лічені секунди, формуючи схеми відмивання коштів із такою швидкістю, яку не може забезпечити жодна людина. Автоматизовані рухи активів роблять надзвичайно складним відстеження грошових потоків традиційними методами до їх зникнення у великій мережі блокчейну.
Перед лицем зростання загроз криптовалютна індустрія почала використовувати штучний інтелект як захисний інструмент проти шахрайств на основі ШІ. Блокчейн-аналітичні компанії, фірми з кібербезпеки, криптовалютні біржі та науковці об’єднують зусилля для створення розвинених систем машинного навчання, які дозволяють виявляти, позначати й зменшувати ризик шахрайської діяльності задовго до втрат користувачів.
TRM Labs інтегрувала штучний інтелект у всі рівні своєї платформи блокчейн-аналітики, створивши комплексну систему захисту. Компанія використовує передові алгоритми машинного навчання для обробки трильйонів даних у понад 40 різних блокчейн-мережах одночасно. Це дозволяє TRM Labs картографувати складні мережі гаманців, виявляти нові типи шахрайств і фіксувати аномальні патерни поведінки, що свідчать про потенційну незаконну діяльність на ранньому етапі.
«Ці системи не лише знаходять патерни — вони їх вивчають», — коментує Редборд. «Зі зміною даних і появою нових шахрайських методик наші моделі адаптуються, реагуючи на динаміку крипторинку у режимі реального часу». Ця адаптивність є критично важливою у середовищі, де тактики шахраїв швидко змінюються.
Sardine, платформа управління ризиками на основі ШІ, заснована 2020 року, створила багаторівневу інфраструктуру для виявлення шахрайств. Алекс Кушнір, керівник комерційного розвитку Sardine, пояснює: система виявлення шахрайств на основі ШІ складається з трьох інтегрованих рівнів, які разом формують комплексну мережу безпеки.
Перший рівень зосереджений на зборі даних — він фіксує глибокі сигнали кожної сесії користувача на фінансових платформах. Це включає характеристики пристрою (апаратна частина, операційна система), виявлення змін у додатках і аналіз поведінки користувачів — включаючи манеру набору тексту, рухи миші та навігаційні звички.
Другий рівень забезпечує доступ до великої мережі перевірених постачальників даних, які можуть звіряти дані користувача з відомими базами. Такий перехресний аналіз допомагає виявляти підозрілі дані ще до завершення шахрайських транзакцій.
Третій рівень впроваджує консорціумний обмін даними: компанії можуть ділитися інформацією про зловмисників з іншими організаціями. Така співпраця створює розподілену мережу інтелекту, що дає перевагу всім учасникам через спільний пул аналітики загроз у галузі.
Sardine використовує ризик-движок у реальному часі, що реагує на кожний індикатор, дозволяючи боротися з шахрайствами в момент їх здійснення, а не лише після інциденту. Кушнір зазначає: агентні ШІ та великі мовні моделі застосовують переважно для автоматизації та підвищення ефективності, а не для прямого виявлення шахрайств у реальному часі. «Замість складного програмування правил виявлення шахрайств, тепер кожен може просто сформулювати необхідне правило, а ШІ-агент створить, протестує і впровадить його, якщо воно відповідає вимогам», — пояснює він. Така демократизація створення правил дозволяє командам безпеки оперативно реагувати на нові загрози.
Реальні застосування захисних систем на основі ШІ демонструють їхню ефективність у практиці. Метт Вега, керівник штабу Sardine, пояснює: коли система Sardine виявляє підозрілий патерн, штучний інтелект проводить глибинний аналіз для формування рекомендацій, що можуть зупинити вектор атаки. «Такий процес у людини-аналітика зайняв би цілий день, а ШІ виконує його за лічені секунди», — зазначає він. Швидкість має критичне значення для запобігання шахрайству до переказу коштів.
Sardine тісно співпрацює з провідними криптобіржами для виявлення підозрілої поведінки користувачів у режимі реального часу. Транзакції проходять через платформу прийняття рішень Sardine, де аналіз ШІ допомагає визначити результат операції, надаючи біржам випереджувальні сигнали про можливі шахрайства. Такий проактивний підхід дозволяє біржам втручатися до завершення фіктивних транзакцій, захищаючи і платформу, і користувачів.
TRM Labs неодноразово стикалася з шахрайствами на основі ШІ під час власних розслідувань. Компанія стала свідком прямої deepfake-підробки під час відеодзвінка з підозрюваним у фінансових шахрайствах. «Ми запідозрили використання deepfake-технології через неприродну лінію волосся та дрібні невідповідності у міміці», — пояснює Редборд. «Інструменти для виявлення ШІ дозволили нам підтвердити, що зображення, ймовірно, створене штучно, а не є реальним». Хоча TRM Labs вдалося ідентифікувати цю аферу, ця та пов’язані з нею операції вже завдали збитків на близько 60 мільйонів доларів необізнаним жертвам, що підкреслює і ефективність інструментів, і нагальність їх широкого впровадження.
Кібербезпекова компанія Kidas також залучає штучний інтелект для виявлення та запобігання шахрайствам через розширений аналіз контенту. Рон Кербс, засновник і CEO Kidas, пояснює: власні моделі компанії аналізують контент, поведінкові патерни та аудіовізуальні невідповідності у реальному часі для виявлення deepfake-матеріалів і фішингових атак на основі LLM у момент взаємодії. «Це дає змогу миттєво оцінювати ризики й оперативно блокувати загрози, що є єдиним способом протистояти автоматизованим масштабованим шахрайським операціям», — наголошує Кербс.
У нещодавньому випадку інструмент Kidas успішно заблокував дві різні спроби криптошахрайств у Discord — популярній платформі для спілкування, яку часто використовують зловмисники. Це дозволило запобігти втратам потенційних жертв і дало цінну інформацію про нові тактики шахраїв.
Попри ефективність інструментів ШІ у виявленні та попередженні складних шахрайств, експерти з безпеки застерігають: такі атаки лише зростатимуть у частоті та складності. «ШІ знижує поріг входу для складної злочинності, роблячи ці шахрайства масштабованими та персоналізованими — вони точно набиратимуть обертів», — зауважує Кербс. Демократизація ШІ-інструментів означає, що навіть злочинці з мінімальними технічними навичками можуть запускати складні шахрайські операції.
Однак існують конкретні кроки, які користувачі можуть зробити для захисту від подібних схем. Вега підкреслює: багато атак використовують фішингові сайти, коли користувачі переходять на підроблені ресурси й натискають на шкідливі посилання, що виглядають легітимними.
«Користувачам слід звертати увагу на грецькі літери чи інші символи Unicode, які візуально схожі на латинські, — радить Вега. — Одна велика технологічна компанія нещодавно стала жертвою такої атаки: зловмисник створив фейковий сайт з грецькою літерою “А”, яка виглядала ідентично латинській “A” у назві компанії». Така омограф-атака використовує подібність символів різних алфавітів для створення переконливих фейкових URL-адрес.
Користувачам також варто бути обачними з рекламними посиланнями у пошукових системах, адже шахраї нерідко купують рекламні місця для розміщення фейкових сайтів на верхівці результатів. Ретельна перевірка URL-адреси перед переходом, включаючи наявність HTTPS-шифрування та точне написання домену, допоможе уникнути багатьох поширених атак.
Крім індивідуальних заходів, компанії на кшталт Sardine і TRM Labs працюють у партнерстві з регуляторами для запровадження системних запобіжників із використанням ШІ для зниження ризику шахрайств на основі ШІ на галузевому рівні. Така співпраця бізнесу й держави є необхідною для побудови дієвого захисту.
«Ми створюємо системи, які надають правоохоронцям і спеціалістам із комплаєнсу ті ж швидкість, масштаб і охоплення, що й у злочинців — від виявлення аномалій у реальному часі до ідентифікації складних міжланцюгових схем відмивання», — зазначає Редборд. «Штучний інтелект дає змогу перевести управління ризиками з реактивного, коли реагуємо вже після шахрайства, у проактивний режим — коли можемо ідентифікувати й зупиняти шахрайства до їх здійснення». Така зміна підходу до безпеки є фундаментальною для криптоіндустрії та дає надію, що захист на основі ШІ зможе випереджати атаки на основі ШІ.
ШІ виявляє фішингові схеми, фінансові піраміди, фальшиві токен-проєкти, маніпуляції pump-and-dump (штучне розгойдування цін), підозрілі транзакції з гаманцями, deepfake-видавання за інших і схеми відмивання коштів. Алгоритми машинного навчання ідентифікують аномальні обсяги торгів, кластери адрес і атаки соціальної інженерії в реальному часі.
Системи ШІ ідентифікують шахрайства через розпізнавання патернів, аналізуючи поведінку транзакцій, історії гаманців і мережеві зв’язки. Моделі машинного навчання фіксують аномалії, фішингові атаки й тактики відмивання коштів у реальному часі, позначаючи підозрілі дії до їх виконання та захищаючи легітимних користувачів завдяки постійному моніторингу блокчейну.
Виявлення аномалій, поведінковий аналіз і deep learning-моделі особливо ефективні для виявлення криптошахрайств. Ці методи аналізують транзакційні патерни, рухи по гаманцях і метадані комунікацій у реальному часі, автоматично адаптуючись до нових шахрайських підходів через постійне перенавчання моделей.
Так, ШІ здатний виявляти deepfake-відео через розпізнавання облич, аналіз голосу та поведінкових невідповідностей. Сучасні ШІ-системи визначають невідповідності у світлі, міміці та синхронізації аудіо, що дозволяє розпізнати синтетичний контент і суттєво знижує ризик шахрайств із використанням deepfake.
ШІ аналізує транзакційні патерни, поведінку користувачів і мережеві аномалії для виявлення фіктивних бірж і підозрілих гаманців. Алгоритми машинного навчання виявляють такі ознаки, як незвичні обсяги торгів, ознаки відмивання коштів і шахрайські тактики у реальному часі, захищаючи користувачів від криптошахрайств.
Сучасні ШІ-системи для виявлення шахрайств у криптоіндустрії досягають точності 85–95%, ефективно ідентифікуючи підозрілі патерни, аномалії й відомі сигнатури шахрайств у реальному часі. Моделі машинного навчання постійно вдосконалюються на основі даних, дедалі швидше й точніше виявляючи фішингові атаки, фінансові піраміди та ринкові маніпуляції.
ШІ стикається із такими викликами: постійна еволюція шахрайських тактик, хибнопозитивні спрацьовування, обмежений доступ до даних поза блокчейном і необхідність постійного оновлення моделей. Шахраї адаптуються швидше, ніж ШІ навчається, тож для ефективного захисту необхідна постійна участь експертів і співпраця людини з машинними системами.
Шахраї використовують такі методи: обфускацію коду, поліморфне шкідливе ПЗ зі змінними сигнатурами, складні фішингові схеми з імітацією легітимних платформ, експлуатацію zero-day-уразливостей і соціальну інженерію для обходу алгоритмів розпізнавання патернів та машинного навчання.











