Пентагон планує заблокувати Anthropic? Міністр оборони США: обмеження військового застосування може стати загрозою національній безпеці

ChainNewsAbmedia

Міністерство оборони США оцінює можливість внесення компанії штучного інтелекту Anthropic до «чорного списку ризиків ланцюга постачання», щоб заблокувати її флагманську модель Claude у системі оборони. Причиною конфлікту стали розбіжності щодо військового застосування: Anthropic наполягає на встановленні логічних обмежень, підкреслюючи, що продукти не можна використовувати для моніторингу та озброєнь; у той час як Пентагон вважає, що військовий ШІ має бути здатним служити для будь-яких цілей.

Розворот у військовому співробітництві: Anthropic стикається з перевіркою «ризиків ланцюга постачання»

Axios повідомляє, що Міністерство оборони США, яке базується у Пентагоні, розглядає можливість розірвання співпраці з Anthropic і планує внести її до «чорного списку ризиків ланцюга постачання». Це зазвичай є заходом покарання проти іноземних ворожих сил і може заборонити всім компаніям, що співпрацюють із Збройними силами США, використовувати системи штучного інтелекту Anthropic.

Наразі модель Claude від Anthropic вже інтегрована у кілька військових секретних систем. У разі примусового видалення, відповідні підрядники стикнуться з великими технічними та нормативними витратами, повідомляється, що потенційний обсяг залучених оборонних контрактів становить близько 200 мільйонів доларів.

Мадуро як каталізатор: межі військового застосування ШІ виходять на передній план

Одним із центрів суперечок є використання Claude у січні цього року для військової операції проти президента Венесуели Ніколаса Мадуро, яка була успішно проведена за співпраці Anthropic і компанії з аналізу даних Palantir.

За повідомленнями, керівництво Anthropic пізніше запитало про цільове застосування і натякнуло на занепокоєння щодо використання їхньої моделі у операціях із застосуванням реальної зброї. Це викликало невдоволення у Пентагоні, який вважає, що компанії не слід ставити під сумнів конкретне військове застосування у рамках підписаних угод. Після цього сторони почали кілька раундів переговорів щодо меж застосування ШІ, включаючи моніторинг, розвідку та розробку озброєнь.

Представник Пентагону Шон Парнелл підтвердив цю інформацію і визначив її як питання національної безпеки: «Партнери повинні бути готові допомагати нашим воїнам перемагати у будь-яких боях. В кінцевому підсумку, це стосується безпеки наших підрозділів і американського народу».

Коли етичні обмеження стикаються з національними інтересами: жорстка позиція Міноборони

Генеральний директор Anthropic Даріо Амодей постійно наголошує на необхідності встановлення чітких етичних меж для ШІ. У політиці компанії чітко заборонено використовувати моделі для розробки озброєнь, внутрішнього контролю та повністю автономних систем озброєнь, за винятком окремих випадків за окремими контрактами.

(Від інструментів авторитаризму до ризиків неконтрольованого розвитку: детальний аналіз Даріо Амодея про п’ять головних загроз потужного ШІ для людства)

Однак у Пентагоні вважають, що військовий ШІ має бути здатним використовуватися «для всіх легальних цілей», і наголошують, що реальні бойові ситуації часто мають сіру зону, а надмірне жорстке обмеження може знизити бойову гнучкість. Повідомляється, що Міноборони застосовує аналогічні стандарти до інших постачальників ШІ, таких як OpenAI, Google і xAI (Grok).

(SpaceX бере участь у конкурсі безпілотних технологій Пентагону, Ілон Маск готує виклик у військовому застосуванні ШІ)

Зростає конкуренція серед технологічних гігантів: Маск критикує Claude за «расизм»

Під час розгляду Міноборони Anthropic також стикається з відкритою критикою з боку конкурентів. Недавно засновник Tesla і xAI Ілон Маск звинуватив Claude у наявності ідеологічних упереджень і поставив під сумнів його вихідний контент щодо окремих рас. Оскільки xAI і Anthropic конкурують на ринку великих мовних моделей і у сфері військового співробітництва, ця критика сприймається як частина галузевої боротьби.

Наразі чиновники зізнаються, що у певних урядових і секретних сценаріях інші моделі все ще поступаються Claude, що ставить під питання швидкий перехід на інших постачальників. Якщо Пентагон остаточно включить Anthropic до списку ризиків ланцюга постачання, це стане першим випадком у США, коли через застосування ШІ буде запроваджено санкції проти вітчизняних технологічних компаній, що має символічне значення для моделі співпраці у сфері оборонних технологій.

Ця стаття «Пентагон планує заборонити Anthropic? Міністр оборони США: обмеження військового застосування може становити національну загрозу» вперше з’явилася на ABMedia.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів