The Wall Street Journal: Після введення Трампом заборони на Anthropic, США та Ізраїль продовжують повітряні удари по Ірану, залишаючись залежними від Claude

CryptoCity

Відповідно до інформації The Wall Street Journal, незважаючи на заборону Трампа, американські військові під час авіаудару по Ірану все ж використовували Claude. Через відмову від безлімітного військового застосування Anthropic втратила контракт на 200 мільйонів доларів і була внесена до списку «ризиків ланцюга постачання». Тепер Пентагон співпрацює з OpenAI.

Після заборони Трампа США і Ізраїль продовжують авіаудари по Ірану, і США все ще залежить від Claude?

Нещодавно США спільно з Ізраїлем здійснили авіаудар по Ірану, а також президент Трамп заборонив урядовому сектору використовувати Claude AI від Anthropic, що привернуло міжнародну увагу. Однак, за інформацією The Wall Street Journal, через кілька годин після заборони Трампа, американські військові під час авіаудару по Ірану все ж застосували систему Claude.

Інформовані джерела повідомляють, що минулого п’ятниці уряд Трампа дав інструкцію федеральним агентствам припинити співпрацю з компанією, а Міноборони було наказано вважати її потенційним ризиком безпеки. Проте, включно з Центральним командуванням США (CENTCOM), військові командування продовжували використовувати модель Claude AI від Anthropic для підтримки операцій, допомагаючи у розвідці, ідентифікації цілей та моделюванні бойових дій.

Причиною заборони на Claude з боку уряду США стало розірвання контрактних переговорів, оскільки Anthropic відмовилася від дозволу уряду на безлімітне використання їхнього AI у військових цілях, не порушуючи безпеки.

Чому Anthropic конфліктує з Пентагоном

Раніше Anthropic уклала багаторічний контракт із кількома великими компаніями у сфері AI на суму до 200 мільйонів доларів, зокрема через співпрацю з Palantir та Amazon Web Services, що дозволило використовувати Claude для секретних розвідок і бойових операцій.

За даними The Wall Street Journal, Claude також брав участь у ранніх військових операціях, зокрема у січні цього року у Венесуелі, де було затримано президента Ніколаса Мадуро. Його затримали американські військові і силою доставили до США, де він заперечував свою провину.

  • Додаткові матеріали: Мадуро у суді США наполягає на невинності! ООН терміново скликає засідання щодо Венесуели — позиції країн у одному огляді

Однак, після того, як міністр оборони США Піт Гесет заявив Anthropic, що військові мають безлімітний доступ до Claude, напруга між сторонами зросла. Генеральний директор Anthropic Dario Amodei відмовився задовольнити цю вимогу і заявив, що деякі застосування AI є моральним межами, які компанія не переступатиме, навіть якщо це означає втрату урядових контрактів.

У відповідь Пентагон почав пошук альтернативних постачальників і уклав угоду з OpenAI, щоб розгорнути модель ChatGPT у секретних військових мережах.

OpenAI отримує військовий контракт — викликає сумніви

Після укладення угоди з військовими, OpenAI швидко зіткнулася з критикою. Редактор Sreemoy Talukdar у «Firstpost» зазначив, що Anthropic раніше заявляла про незгоду з порушенням принципів щодо внутрішнього контролю та автономних озброєнь, тому Трамп і його військове відомство припинили співпрацю.

Однак тепер генеральний директор OpenAI Сам Альтман заявляє, що військові погодилися з цими ж принципами безпеки, що викликає дискусії щодо стандартів контрактів.

Джерело: X OpenAI отримала військовий контракт у США, що викликало сумніви

Anthropic стала першою американською компанією, яку офіційно внесли до списку «ризиків ланцюга постачання»

Anthropic через відмову дозволити військовим США без обмежень використовувати Claude наразі перебуває у конфлікті з Білим домом. Міністр оборони Піт Гесет офіційно визнав Anthropic «ризиком ланцюга постачання».

Це зробило Anthropic першою компанією в історії, яка публічно отримала таку позначку, зазвичай цю категорію застосовують до компаній із прямим зв’язком із іноземними ворогами.

Після внесення до списку ризиків уряд матиме право вимагати від усіх підрядників, що співпрацюють із військовими, підтвердження, що їхня військова діяльність не пов’язана з продуктами Anthropic. У відповідь Anthropic планує оскаржити цю оцінку у суді і заявляє:

«Це суперечить закону і створює небезпечний прецедент для будь-яких американських компаній, що ведуть переговори з урядом. Яким би не був тиск або покарання з боку військових, ми залишаємося при своїй позиції щодо масового внутрішнього контролю та автономної зброї.»

Додатково: Національна безпека проти етики: Anthropic відмовляється знімати безпеку Claude, конфліктуючи з Міноборони США

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів