Пентагон проти Anthropic! Повністю відкриває військовий Claude «інакше розірвання контракту та звільнення»

動區BlockTempo

За ексклюзивним повідомленням Axios, Пентагон розглядає можливість припинення співпраці з Anthropic через те, що ця компанія наполягає на обмеженнях щодо використання моделі Claude для військових цілей, відмовляючись відкривати доступ до масштабного моніторингу та повністю автономної зброї. Варто зазначити, що OpenAI, Google і xAI вже погодилися з умовами Пентагону щодо «усіх законних цілей», і Anthropic залишається єдиною з чотирьох провідних лабораторій штучного інтелекту, яка зберігає свою позицію.

(Передісторія: новий амбіційний проект Маска «Лунна база Alpha»: створити на Місяці суперзавод з виробництва ШІ, запускати його до Сонячної системи за допомогою гігантського ракетного прискорювача)

(Додатковий фон: паніка через штучний інтелект і масове безробіття! Високопосадовці Microsoft попереджають: більшість біловоротних працівників будуть автоматизовані протягом «наступних 12-18 місяців»)

Зміст статті

  • Дві червоні лінії Anthropic: заборона масштабного моніторингу та заборона автономної зброї
  • Неочікуваний напад Мадуро: спалах конфлікту
  • Інші три гіганти «не мають заперечень»

За словами високопоставленого урядовця, цитованого Axios, Пентагон наполягає на тому, щоб чотири провідні лабораторії штучного інтелекту (OpenAI, Google, xAI, Anthropic) дозволили військовим використовувати їхні інструменти для «усіх законних цілей», включаючи розробку озброєнь, розвідку та бойові операції.

Ця вимога базується на Стратегії штучного інтелекту Міністерства оборони, оприлюдненій 9 січня цього року. Документ чітко наказує включити положення про «усі законні цілі» у всі контракти на закупівлю ШІ протягом 180 днів, що означає, що військове застосування ШІ буде відповідати стандартам застосування сили, без додаткових вимог щодо «людського контролю».

Однак, після кількох місяців важких переговорів, Anthropic досі не погодилася з цими умовами, і Пентагон вже виявляє до цього «засмучення». За словами урядовця:

Все можливо, включаючи зменшення співпраці з Anthropic або повне її припинення. Але якщо ми вважаємо, що це правильне рішення, потрібно знайти їм відповідну заміну.

Дві червоні лінії Anthropic: заборона масштабного моніторингу та заборона автономної зброї

Зіткнувшись із тиском Пентагону, Anthropic наполягає на двох непорушних принципах:

  • Заборона масштабного моніторингу громадян США
  • Заборона повністю автономних озброєнь (тобто безлюдних автоматичних систем з ознаками смертоносної дії)

Високопосадовець зізнається, що існує значна «неясність» щодо того, які сценарії застосування потрапляють у ці заборони, а які — ні. Якщо Пентагон буде вести переговори з Anthropic щодо кожного окремого випадку використання або ж Claude випадково відмовить у застосуванні в конкретних ситуаціях, це буде «недоцільно».

Варто додати, що минулого літа Anthropic підписала з Пентагоном двовгодинний прототипний контракт із лімітами до 2 мільярдів доларів. Claude став першим комерційним ШІ, дозволеним працювати у секретних мережах Міноборони, застосовуваним для тестування озброєнь і оперативного зв’язку.

Неочікуваний напад Мадуро: спалах конфлікту

Причиною цієї кризи контракту стала подія, що сталася на початку цього місяця. За повідомленням Axios від 13 лютого, під час спецоперації США з арешту колишнього президента Венесуели Ніколаса Мадуро, платформа Palantir використовувала Claude для обробки оперативних розвідданих.

Зі слів високопосадовця Anthropic, після дізнання про це вони зв’язалися з Palantir і запитали, чи використовували Claude для цієї операції, натякаючи, що вони не схвалюють таке застосування, оскільки воно включало використання енергійних ударних систем (незброєних проникаючих засобів).

Після заперечення Claude, у Пентагоні виникли серйозні занепокоєння.

Представник Anthropic категорично заперечує, що компанія брала участь у військових операціях або обговорювала це з Міноборони.

Інші три гіганти «не мають заперечень»

На відміну від Anthropic, інші три лабораторії проявили більшу гнучкість щодо вимог Пентагону:

  • OpenAI (ChatGPT) погодилася зняти обмеження безпеки для військових застосувань
  • Google (Gemini) активно співпрацює
  • xAI (Grok) також демонструє готовність до співпраці

За даними, щонайменше одна з цих компаній вже повністю прийняла «усі законні цілі», інші дві — проявляють значно більшу гнучкість, ніж Anthropic. Це робить Anthropic єдиною компанією, яка залишилася на позиції безпеки, але ризикує бути відкинутою у цій військовій гонці ШІ, що може призвести до її ізоляції.

Розширення застосування ШІ у військових цілях — неминуче, і військовий аспект є найжорсткішим викликом у цій гонці.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів