За ексклюзивним повідомленням Axios, Пентагон розглядає можливість припинення співпраці з Anthropic через те, що ця компанія наполягає на обмеженнях щодо використання моделі Claude для військових цілей, відмовляючись відкривати доступ до масштабного моніторингу та повністю автономної зброї. Варто зазначити, що OpenAI, Google і xAI вже погодилися з умовами Пентагону щодо «усіх законних цілей», і Anthropic залишається єдиною з чотирьох провідних лабораторій штучного інтелекту, яка зберігає свою позицію.
(Передісторія: новий амбіційний проект Маска «Лунна база Alpha»: створити на Місяці суперзавод з виробництва ШІ, запускати його до Сонячної системи за допомогою гігантського ракетного прискорювача)
(Додатковий фон: паніка через штучний інтелект і масове безробіття! Високопосадовці Microsoft попереджають: більшість біловоротних працівників будуть автоматизовані протягом «наступних 12-18 місяців»)
Зміст статті
За словами високопоставленого урядовця, цитованого Axios, Пентагон наполягає на тому, щоб чотири провідні лабораторії штучного інтелекту (OpenAI, Google, xAI, Anthropic) дозволили військовим використовувати їхні інструменти для «усіх законних цілей», включаючи розробку озброєнь, розвідку та бойові операції.
Ця вимога базується на Стратегії штучного інтелекту Міністерства оборони, оприлюдненій 9 січня цього року. Документ чітко наказує включити положення про «усі законні цілі» у всі контракти на закупівлю ШІ протягом 180 днів, що означає, що військове застосування ШІ буде відповідати стандартам застосування сили, без додаткових вимог щодо «людського контролю».
Однак, після кількох місяців важких переговорів, Anthropic досі не погодилася з цими умовами, і Пентагон вже виявляє до цього «засмучення». За словами урядовця:
Все можливо, включаючи зменшення співпраці з Anthropic або повне її припинення. Але якщо ми вважаємо, що це правильне рішення, потрібно знайти їм відповідну заміну.
Зіткнувшись із тиском Пентагону, Anthropic наполягає на двох непорушних принципах:
Високопосадовець зізнається, що існує значна «неясність» щодо того, які сценарії застосування потрапляють у ці заборони, а які — ні. Якщо Пентагон буде вести переговори з Anthropic щодо кожного окремого випадку використання або ж Claude випадково відмовить у застосуванні в конкретних ситуаціях, це буде «недоцільно».
Варто додати, що минулого літа Anthropic підписала з Пентагоном двовгодинний прототипний контракт із лімітами до 2 мільярдів доларів. Claude став першим комерційним ШІ, дозволеним працювати у секретних мережах Міноборони, застосовуваним для тестування озброєнь і оперативного зв’язку.
Причиною цієї кризи контракту стала подія, що сталася на початку цього місяця. За повідомленням Axios від 13 лютого, під час спецоперації США з арешту колишнього президента Венесуели Ніколаса Мадуро, платформа Palantir використовувала Claude для обробки оперативних розвідданих.
Зі слів високопосадовця Anthropic, після дізнання про це вони зв’язалися з Palantir і запитали, чи використовували Claude для цієї операції, натякаючи, що вони не схвалюють таке застосування, оскільки воно включало використання енергійних ударних систем (незброєних проникаючих засобів).
Після заперечення Claude, у Пентагоні виникли серйозні занепокоєння.
Представник Anthropic категорично заперечує, що компанія брала участь у військових операціях або обговорювала це з Міноборони.
На відміну від Anthropic, інші три лабораторії проявили більшу гнучкість щодо вимог Пентагону:
За даними, щонайменше одна з цих компаній вже повністю прийняла «усі законні цілі», інші дві — проявляють значно більшу гнучкість, ніж Anthropic. Це робить Anthropic єдиною компанією, яка залишилася на позиції безпеки, але ризикує бути відкинутою у цій військовій гонці ШІ, що може призвести до її ізоляції.
Розширення застосування ШІ у військових цілях — неминуче, і військовий аспект є найжорсткішим викликом у цій гонці.