OpenAI співпрацює з Міністерством оборони США, що викликало суперечки, Сам Альтман визнав, що угода була занадто поспішною, і терміново внесли зміни до умов

GateNews

3 березня, згідно з повідомленням CNBC, генеральний директор OpenAI Сэм Альтман визнав, що раніше укладена компанією угода про співпрацю в галузі штучного інтелекту з Міністерством оборони США була укладена поспіхом, і пообіцяв внести корективи до відповідних умов. Це заявлення прозвучало на тлі тривалої дискусії, оскільки раніше OpenAI оголосила про співпрацю з Пентагоном, що викликало широкі обговорення етики ШІ, військового застосування та безпеки даних.

Згідно з відкритими даними, ця угода була оголошена минулого п’ятниці, тоді як у цей самий час уряд США просував кілька рішень, пов’язаних із національною безпекою. Після розголосу деякі представники технологічної спільноти та користувачі висловили занепокоєння щодо можливого використання технологій ШІ у військових цілях. Сэм Альтман у відповідь на своїй сторінці у соцмережах заявив, що компанія додасть до угоди нові обмежувальні умови, зокрема чітко заборонивши використання систем ШІ для внутрішнього контролю громадян або мешканців США.

Альтман також зазначив, що Міністерство оборони США підтвердило, що інструменти штучного інтелекту OpenAI не будуть безпосередньо використовуватися Агентством національної безпеки (NSA) або іншими розвідувальними структурами для збору розвідувальних даних. Водночас OpenAI планує разом із Пентагоном розробити додаткові технічні заходи безпеки, щоб зменшити ризики зловживання ШІ у чутливих сферах.

Генеральний директор також визнав, що компанія допустила помилку у своїх оцінках під час укладання угоди. Він зазначив, що тоді команда прагнула швидко зняти напругу і уникнути більш серйозних політичних конфліктів, але з часом ця рішення здавалося поспішним і могло бути неправильно зрозуміле як спекулятивне.

Цей конфлікт також пов’язаний з іншою компанією у сфері штучного інтелекту — Anthropic. Раніше Anthropic і уряд США мали розбіжності щодо меж використання їхньої моделі Claude і прагнули отримати чіткі гарантії, що їхня система не буде застосовуватися для внутрішнього контролю або розробки автономної зброї. За повідомленнями, переговори між сторонами згодом зірвалися.

Водночас у мережі спостерігається явне коливання настроїв користувачів. Деякі з них зменшили використання ChatGPT і перейшли на конкурента, наприклад Claude, що сприяє подальшому загостренню етичних дискусій у галузі ШІ.

У відповідь Альтман також зазначив, що не вважає Anthropic ризиком для ланцюга поставок і сподівається, що Міністерство оборони США надасть їй умови співпраці, подібні до тих, що з OpenAI. Ця подія ще раз підкреслює, що в умовах швидкого розвитку технологій штучного інтелекту питання меж між ШІ, національною безпекою, військовим застосуванням і суспільним регулюванням стають однією з головних тем уваги світової технологічної спільноти.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів