3 березня, згідно з повідомленням CNBC, генеральний директор OpenAI Сэм Альтман визнав, що раніше укладена компанією угода про співпрацю в галузі штучного інтелекту з Міністерством оборони США була укладена поспіхом, і пообіцяв внести корективи до відповідних умов. Це заявлення прозвучало на тлі тривалої дискусії, оскільки раніше OpenAI оголосила про співпрацю з Пентагоном, що викликало широкі обговорення етики ШІ, військового застосування та безпеки даних.
Згідно з відкритими даними, ця угода була оголошена минулого п’ятниці, тоді як у цей самий час уряд США просував кілька рішень, пов’язаних із національною безпекою. Після розголосу деякі представники технологічної спільноти та користувачі висловили занепокоєння щодо можливого використання технологій ШІ у військових цілях. Сэм Альтман у відповідь на своїй сторінці у соцмережах заявив, що компанія додасть до угоди нові обмежувальні умови, зокрема чітко заборонивши використання систем ШІ для внутрішнього контролю громадян або мешканців США.
Альтман також зазначив, що Міністерство оборони США підтвердило, що інструменти штучного інтелекту OpenAI не будуть безпосередньо використовуватися Агентством національної безпеки (NSA) або іншими розвідувальними структурами для збору розвідувальних даних. Водночас OpenAI планує разом із Пентагоном розробити додаткові технічні заходи безпеки, щоб зменшити ризики зловживання ШІ у чутливих сферах.
Генеральний директор також визнав, що компанія допустила помилку у своїх оцінках під час укладання угоди. Він зазначив, що тоді команда прагнула швидко зняти напругу і уникнути більш серйозних політичних конфліктів, але з часом ця рішення здавалося поспішним і могло бути неправильно зрозуміле як спекулятивне.
Цей конфлікт також пов’язаний з іншою компанією у сфері штучного інтелекту — Anthropic. Раніше Anthropic і уряд США мали розбіжності щодо меж використання їхньої моделі Claude і прагнули отримати чіткі гарантії, що їхня система не буде застосовуватися для внутрішнього контролю або розробки автономної зброї. За повідомленнями, переговори між сторонами згодом зірвалися.
Водночас у мережі спостерігається явне коливання настроїв користувачів. Деякі з них зменшили використання ChatGPT і перейшли на конкурента, наприклад Claude, що сприяє подальшому загостренню етичних дискусій у галузі ШІ.
У відповідь Альтман також зазначив, що не вважає Anthropic ризиком для ланцюга поставок і сподівається, що Міністерство оборони США надасть їй умови співпраці, подібні до тих, що з OpenAI. Ця подія ще раз підкреслює, що в умовах швидкого розвитку технологій штучного інтелекту питання меж між ШІ, національною безпекою, військовим застосуванням і суспільним регулюванням стають однією з головних тем уваги світової технологічної спільноти.