Anthropic заявляє, що стала об'єктом масштабних атак дистиляції

CryptoBreaking

Розробник Frontier AI Anthropic публічно звинуватив три китайські лабораторії штучного інтелекту — DeepSeek, Moonshot і Minimax — у проведенні атак дистиляції, спрямованих на витягнення можливостей із великої мовної моделі Claude, розробленої Anthropic. У детальному блозі компанія описує кампанії, які нібито призвели до понад 16 мільйонів обмінів у приблизно 24 000 фальшивих акаунтах, використовуючи вихідні дані Claude для тренування менш потужних моделей. Дистиляція, визнана техніка навчання в AI, стає проблематичною при масштабному застосуванні для копіювання потужних функцій без відповідних витрат на розробку. Anthropic наголошує, що хоча дистиляція має легітимне застосування, вона може дозволити конкурентам швидко отримати доступ до проривних технологій і підвищити якість своїх продуктів за менший час і кошти.

Ключові висновки

Дистиляція полягає у навчанні слабшої моделі на вихідних даних більш потужної, що широко використовується для створення менших і дешевших версій AI-систем.

Anthropic стверджує, що DeepSeek, Moonshot і Minimax організували масштабні кампанії дистиляції, створивши мільйони взаємодій із Claude через десятки тисяч фальшивих акаунтів.

Атаки нібито націлювалися на унікальні можливості Claude, включаючи агентне мислення, використання інструментів і програмування, що свідчить про фокус на високовартісних, переносних компетенціях.

Компанія вважає, що закордонні кампанії дистиляції несуть геополітичні ризики, потенційно озброюючи авторитарних акторів передовими можливостями для кібервійськових операцій, дезінформації та спостереження.

Anthropic заявляє, що посилить системи виявлення, поділиться інформацією про загрози та посилить контроль доступу, закликаючи ширше співробітництво галузі та регуляторів для протидії цим загрозам.

Контекст ринку: Інцидент відбувається на тлі посиленої уваги до сумісності AI-моделей і безпеки хмарних AI-пропозицій, що також стосується автоматизованих систем у криптовалютах і інструментів управління ризиками. Зі зростанням інтеграції AI у торгівлю, оцінку ризиків і підтримку рішень, забезпечення цілісності вхідних даних і вихідних моделей стає дедалі важливішим для розробників і користувачів у криптосфері.

Чому це важливо

Обвинувачення підкреслюють напругу у frontier AI: межу між легітимною дистиляцією моделей і експлуатаційним копіюванням. Дистиляція — поширена практика, яку використовують лабораторії для створення легших версій моделей для клієнтів з обмеженими обчислювальними ресурсами. Однак, при масштабному застосуванні проти однієї екосистеми, ця техніка може бути використана для витягнення можливостей, що зазвичай вимагають значних досліджень і інженерних зусиль. За підтвердженням, кампанії з масштабом понад 16 мільйонів обмінів і тисячами фальшивих акаунтів можуть дестабілізувати очікування щодо продуктивності моделей, досвіду користувачів і цілісності даних для сервісів, що базуються на Claude.

Що це означає для користувачів і розробників

Для тих, хто створює на базі AI, ця справа підкреслює важливість надійного походження, контролю доступу та постійного моніторингу використання моделей. Якщо закордонна дистиляція може масштабуватися для створення прийнятних замінників провідних можливостей, тоді відкривається шлях до масової комерціалізації потужних функцій, що раніше вимагали значних інвестицій. Це може призвести не лише до втрати IP, а й до зміщення поведінки моделей, несподіваних збоїв у роботі інструментів або поширення змінених вихідних даних користувачам. Розробники і оператори AI-сервісів — у фінансах, охороні здоров’я або споживчих технологіях — можуть посилити контроль за сторонніми інтеграціями, посилити ліцензійні умови та запровадити додаткові засоби виявлення аномалій у API-запитах і моделях.

Ключові аспекти для криптоекосистеми

Хоча інцидент стосується безпеки AI-моделей, його значення для криптовалютних ринків полягає у тому, що автоматизовані системи підтримки рішень, торгові боти і інструменти управління ризиками залежать від надійних AI-входів. Учасники ринку і розробники мають залишатися уважними до цілісності AI-сервісів і потенційної можливості використання копійованих або зламаних можливостей для автоматизованих систем. Також ця ситуація підкреслює необхідність міжгалузевої співпраці щодо обміну інформацією про загрози, стандартів походження моделей і кращих практик для запобігання поширенню AI-уразливостей у фінансових технологіях і платформах цифрових активів.

Що слід моніторити найближчим часом

Публічні оновлення Anthropic щодо результатів, індикаторів компрометації та заходів з усунення проблем.

Пояснення або заяви DeepSeek, Moonshot і Minimax щодо обвинувачень.

Нові рекомендації або заходи регуляторів щодо контролю доступу до AI-моделей, міждержавного обміну даними та протидії піратству високопродуктивних моделей.

Посилені інструменти моніторингу і стратегії контролю доступу, запроваджені хмарними провайдерами, що хостять frontier AI-моделі.

Незалежні дослідження, що підтверджують або оспорюють методи виявлення дистиляційних схем і масштаб заявленої активності.

Ця стаття спочатку була опублікована як Anthropic Says It’s Been Targeted by Massive Distillation Attacks на Crypto Breaking News — вашому надійному джерелі новин про криптовалюти, Bitcoin і блокчейн.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів