Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Переслідування AGI OpenAI є складною концепцією та контрактом
НОВИЙ ЙОРК, 16 березня (Reuters Breakingviews) — Уявіть собі надзвичайно успішне партнерство, яке розпадається, щойно трапляється щось. Але неясно, що саме це за подія, чи вона вже сталася, або навіть чи можлива вона взагалі. Це виклик, з яким стикаються OpenAI та Microsoft (MSFT.O), відкриваючи нову вкладку, розглядаючи можливий прихід штучного загального інтелекту. Непрозорість їхньої угоди та великі суми грошей, що на кону, роблять майже неминучим, що теоретична дискусія переросте у контрактний спір.
Концепція, відома як AGI, — це точка, де автономні системи можуть відповідати або перевищувати людські можливості у розумових завданнях. У Кремнієвій долині це одночасно і прагнення, і екзистенційна загроза. Створення самонавчальної системи теоретично може призвести до результатів, що коливаються від золотого віку для людства до його зникнення.
Рейтерівський бюлетень Iran Briefing тримає вас у курсі останніх подій та аналізу війни в Ірані. Підпишіться тут.
OpenAI було засновано у 2015 році з цілеспрямованою метою. Сем Альтман, Ілля Сутскевер, Ілон Маск та інші прагнули створити AGI, яку вони визначили як «високо автономні системи, що перевищують людину у більшості економічно цінних робіт, на благо всього людства». Відповідно до ідеї, що любов до грошей — це корінь зла, OpenAI було засновано як неприбуткова організація.
Однак его та доброзичливість були недостатніми: гонка за штучним інтелектом також вимагала величезних фінансових ресурсів. Тому компанія створила комерційний підрозділ у 2019 році та уклала партнерство з Microsoft. Гігант програмного забезпечення інвестував 1 мільярд доларів і надав обчислювальну інфраструктуру в обмін на доступ до технологій OpenAI. Старт-ап наполягав, що після досягнення AGI ексклюзивні права на технологію повернуться до нього.
Це, ймовірно, було легким поступкою на той час. Однак, оскільки системи штучного інтелекту швидко ставали більш здатними, визначення AGI стало менш абстрактним питанням. За показниками, такими як візуальне мислення, розуміння англійської мови або рівень математичних змагань, просунуті системи перевищили середні людські стандарти, згідно з Інститутом людсько-центричного ШІ Стенфордського університету.
Тут концептуальна дискусія перетворюється у контрактну. Як суддя Верховного суду Поттер Стюарт у своїй суб’єктивній дефініції непристойності — «Я знаю це, коли бачу» — AGI було погано визначено. Положення OpenAI не було ні конкретним, ні легко спостережуваним, як зазначили дослідники Google у статті 2023 року, яка намагалася окреслити рамки таких заяв.
Зокрема, положення про те, що цей етап буде досягнуто, коли системи зможуть перевищувати більшість людей у економічно цінній роботі. Що означає «більшість людей»? Чи можна це виміряти без розгортання у реальному світі або якщо використання буде уповільнене через юридичні або етичні причини? Нарешті, економічна цінність багатьох робіт важко визначити.
Тим часом, навчання та розгортання моделей штучного інтелекту вимагає жадібних обсягів грошей. Microsoft, Alphabet (GOOGL.O), Meta Platforms (META.O) та Oracle (ORCL.N) суттєво збільшили капітальні витрати у відповідь на ці потреби і планують витратити понад 700 мільярдів доларів цього року. Як стартап без існуючих джерел доходу, OpenAI потребувало підтримки.
Microsoft у підсумку влив у компанію 13 мільярдів доларів. Це було недостатньо для OpenAI, і все більш складна угода між двома компаніями, частини якої залежали від положення про AGI, викликала напруження з обох сторін.
Інші галузі вже зрозуміли, що нечіткі угоди і великі суми грошей — погане поєднання. Візьмемо катастрофічні облігації, які допомагають компаніям зменшити фінансовий ризик у разі ураганів, повеней або пандемій. Ці події рідкісні, але рахунок у 1,4 трильйона доларів за шторм, що вдарить по великому американському місту, наприклад, Маямі, може поставити під загрозу всю страхову індустрію. Тому компанії залучають сторонніх, готових взяти на себе величезні, але малоймовірні ризики, за плату. Спочатку нечіткі угоди призводили до гірких спорів, наприклад, п’ятирічної судової боротьби між перестраховиком і тримачами облігацій щодо того, що саме покривалося після урагану 2008 року.
Згодом катастрофічні облігації перейшли до більш конкретних і легко спостережуваних тригерів, зменшуючи невизначеність і уникаючи спорів. Наприклад, вимірювання швидкості вітру в конкретному місці, а не загальні збитки страхової галузі або оголошення урядом надзвичайного стану.
У біотехнологічних злиттях компанії використовують умовні платежі для зменшення розриву у оцінці експериментальних ліків. Зазвичай вони містять непорушні тригери, наприклад, схвалення лікування FDA до певної дати.
З того часу OpenAI і Microsoft досягли певної розрядки, ймовірно, тому що тривалі переговори могли закінчитися програшем обох сторін. Нова угода, підписана наприкінці минулого року, вимагає, щоб незалежна комісія підтвердила будь-яке твердження OpenAI про досягнення AGI.
Microsoft зберігає 27% частки у компанії, остання оцінюється у 840 мільярдів доларів, і має право на деякі технології до 2032 року, навіть якщо AGI буде досягнуто. Компанія Сем Альтмана тепер може шукати партнерства або вихід на біржу. Однак залишається причина для напруженості. OpenAI перераховує близько 20% своїх доходів Microsoft, і це фактично зникає, якщо настає AGI. Така велика фінансова зміна могла б суттєво вплинути на фінанси OpenAI, оскільки вона готується продавати акції публічно.
Ще не вирішено, як саме визначати AGI. Сем Альтман наприкінці минулого року у подкасті сказав, що люди цього майже не помітили і це не змінило світ, але «ми створили AGI». Генеральний директор Microsoft Сатья Наделла більше зосереджений на великих ефектах, стверджуючи минулого року, що AGI буде «безглуздим хакінгом бенчмарків», і справжнім показником успіху стане зростання світової економіки на неймовірні 10%.
Дискусія також перейшла далі. Навіть такі ентузіасти ШІ, як Альтман, визнають, що ШІ ще погано виконує деякі завдання, наприклад, складне мислення та здатність навчатися. Тепер він пропагує ідею суперінтелекту та систем штучного інтелекту, що роблять речі, які не можуть зробити люди, або систем, що виконують роботу, наприклад, бути президентом США, краще за людину. Це все ще дуже розпливчасте визначення.
Альтман все ще прагне. Останнє залучення OpenAI до збору 110 мільярдів доларів включало значний внесок від Amazon (AMZN.O), що, за повідомленнями, може залежати від того, чи компанія вийде на публічний ринок або досягне AGI, повідомляє The Information.
У інтерв’ю CNBC після укладення угоди Альтман сказав, що прогрес у ШІ залишається швидким, і оскільки AGI — це «ближча перспектива», компанія не укладає нових угод, які припиняються після досягнення цієї мети. Цей термін може бути оптимістичним, але якщо так, то конфлікт ще має час і стимул знову спалахнути.
Слідкуйте за Робертом Сиреном у Bluesky.
Для додаткових аналітичних матеріалів натисніть тут, щоб спробувати Breakingviews безкоштовно.
Редагування: Пітер Талер Ларсен; Продакшн: Майя Нандхіні