OpenAI, Anthropic і Google запускають спільний механізм для виявлення AI-витоку шляхом дистиляції

AI蒸餾行為

За повідомленням Bloomberg від 16 квітня, OpenAI, Anthropic PBC і Google розпочали співпрацю через галузеву неприбуткову організацію Frontier Model Forum, щоб ділитися інформацією для виявлення та зупинення протиправної практики дистиляції (distillation) проти умов надання сервісу. OpenAI підтвердив Bloomberg, що бере участь у роботі з обміну інформацією щодо протиправної дистиляції.

Рамки співпраці: механізм обміну інформацією Frontier Model Forum

Frontier Model Forum був заснований у 2023 році OpenAI, Anthropic, Google та Microsoft спільно. За повідомленням Bloomberg, наразі ці три компанії обмінюються інформацією через цю організацію з метою ідентифікувати запити проти масштабного обсягу даних (adversarial data requests), відстежувати спроби дистиляції, що порушують умови надання сервісу, і координувати припинення відповідних дій. Google публікував допис, у якому зазначив, що виявив зростання спроб вилучення (model extraction).

За повідомленням Bloomberg, такі моделі обміну інформацією відповідають усталеним практикам у сфері кібербезпеки, яка протягом тривалого часу посилювала захист, обмінюючись між компаніями даними про атаки та стратегіями опонентів.

Парламентський меморандум OpenAI та пов’язані звинувачення

Згідно з меморандумом, поданим OpenAI до Спеціального комітету Палати представників США з питань Китаю (House Select Committee on China) (лютий 2026 року), OpenAI звинувачує китайські AI-компанії DeepSeek у спробі «зайти в ролі пасажира (ride along)» на розроблених OpenAI та іншими американськими передовими лабораторіями технологіях, а також стверджує, що вона й надалі використовує технології дистиляції даних, щоб витягати результати з американських моделей для розробки нової версії чат-бота, і що застосовувані методи стають дедалі більш складними.

Anthropic у лютому 2026 року опублікував заяву, в якій ідентифікував три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — і висунув звинувачення, що вони незаконно витягують функціональність моделей Claude через протиправну дистиляцію. Раніше Anthropic у 2025 році заборонив китайським компаніям використовувати Claude. Bloomberg також повідомляв, що після того, як DeepSeek у січні 2025 року оприлюднив модель міркувань R1, Microsoft і OpenAI розпочали розслідування щодо того, чи DeepSeek незаконно вилучав дані моделей США.

Позиція адміністрації Трампа та обмеження комплаєнсу щодо антимонопольного законодавства

Згідно з оприлюдненими документами з політики, посадовці адміністрації Трампа заявили, що готові сприяти обміну інформацією між AI-компаніями, щоб протидіяти загрозам протиправної дистиляції. У《Плані дій щодо штучного інтелекту》, оприлюдненому президентом Трампом, прямо закликається створити центр обміну інформацією та аналітики; частина цілей — саме для протидії зазначеним діям.

За повідомленням Bloomberg, нинішній обсяг обміну інформацією про технічну дистиляцію між трьома компаніями залишається обмеженим через те, що вони не впевнені, які саме відомості можуть бути законно обмінені за чинними антимонопольними рекомендаціями; три компанії заявили, що мають намір розширити співпрацю після того, як у США уряд чітко визначить відповідні рамки керівництва.

Поширені запитання

OpenAI, Anthropic і Google — через яку організацію вони співпрацюють?

За повідомленням Bloomberg, три компанії здійснюють обмін інформацією через Frontier Model Forum — організацію, яку OpenAI, Anthropic, Google та Microsoft спільно заснували у 2023 році як галузеву неприбуткову організацію.

Що OpenAI подала до Конгресу США щодо проблеми AI-дистиляції?

Згідно з оприлюдненими даними OpenAI, OpenAI подала до Спеціального комітету Палати представників США з питань Китаю меморандум (лютий 2026 року), у якому звинуватила DeepSeek у тому, що вона на постійній основі витягує результати з американських моделей, використовуючи технології дистиляції даних, і розробляє на цій основі нову версію чат-бота.

Які оприлюднені дії зробила Anthropic у зв’язку з проблемою дистиляції китайських AI-лабораторій?

Згідно з оприлюдненою заявою Anthropic, Anthropic у 2025 році заборонила китайським компаніям використовувати модель Claude, а в лютому 2026 року виявила три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — та звинуватила їх у незаконному витягу од функціональності моделі Claude через протиправну дистиляцію.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Суддя відхиляє звинувачення у шахрайстві в позові Ілона Маска проти OpenAI; справа просувається до суду з двома залишеними твердженнями

Новини Gate, 24 квітня — Федеральний суддя відхилив звинувачення у шахрайстві з позову Ілона Маска проти OpenAI, Сема Альтмана, Грега Брокмана та Microsoft, відкривши шлях для розгляду справи в суді за двома залишеними твердженнями: порушення благодійної довіри та безпідставне збагачення. США.

GateNews1год тому

Гендиректор OpenAI Сем Альтман вибачається за те, що не повідомив поліції про заборонений акаунт стрільця в школі

Повідомлення Gate News, 25 квітня — генеральний директор OpenAI Сем Альтман вибачився перед громадою Тамборін у Канаді за те, що компанія не повідомила поліцію про заборонений акаунт, пов’язаний із Джессі Ван Рутселараром, який у лютому вбив восьмеро людей у школі, а потім наклав на себе руки. OpenAI

GateNews1год тому

ОАЕ оголошують перехід до моделі AI-держави протягом наступних двох років

Його Високість шейх Мохаммед бін Рашид Аль Мактум заявив, що метою було забезпечити роботу 50% державних секторів через автономний агентний ШІ. Перехід також включатиме навчання федеральних працівників, щоб «опанувати ШІ», і перебуватиме під наглядом шейха Мансура бін Зайєда. Ключові висновки:

Coinpedia1год тому

Платформа для ШІ-торгівлі Fere AI залучила $1,3 млн фінансування під проводом Ethereal Ventures

Повідомлення Gate News, 25 квітня — Fere AI, платформа для торгівлі цифровими активами з підтримкою ШІ, оголосила про завершення раунду фінансування на $1,3 млн під проводом Ethereal Ventures за участі Galaxy Vision Hill та Kosmos Ventures, повідомляє Globenewswire. Платформа підтримує кросчейн

GateNews2год тому

Google додає ще 40 мільярдів доларів інвестицій в Anthropic: спочатку 10 мільярдів, а потім, залежно від результатів, розблокують 30 мільярдів, а також надають обчислювальні потужності 5 ГВт TPU

Alphabet збільшує ставку для Anthropic до 40 млрд доларів США, у два етапи: перша частина — 10 млрд доларів США грошовою ін’єкцією, оцінка 380 млрд доларів США; решта 30 млрд доларів США буде поетапно вивільнена після досягнення цільових показників. Google Cloud протягом п’яти років надаватиме 5 GW обчислювальних ресурсів TPU; водночас Amazon також оголосила про інвестиції в обсязі до 25 млрд доларів США, що свідчить про паралельне посилення обчислювальної потужності Anthropic та підтримки капіталом.

ChainNewsAbmedia3год тому

IPO SpaceX, OpenAI та Anthropic можуть залучити понад $240 мільярд, потенційно вплинувши на ліквідність крипторинку

Повідомлення Gate News, 25 квітня — Згідно з ринковими повідомленнями, очікується, що SpaceX вийде на біржу в червні з цільовим обсягом збору коштів, який перевищить рекордний IPO Saudi Aramco на $29 мільярд, тоді як OpenAI та Anthropic планують розміститися у другій половині 2026 року. Очікується, що ці три компанії

GateNews4год тому
Прокоментувати
0/400
Немає коментарів