Google DeepMind виконавчий директор Demis Hassabis та виконавчий директор Anthropic Dario Amodei 20/1 у Давосі, Швейцарія, на Всесвітньому економічному форумі (WEF) обговорювали майбутнє загального штучного інтелекту (AGI). Весь діалог проходив у раціональній та дружній атмосфері, але щодо трьох ключових питань вони продемонстрували явні розбіжності.
Що таке загальний штучний інтелект (AGI)?
AGI — це гіпотетична форма штучного інтелекту, здатна розуміти, навчатися та виконувати різноманітні раціональні завдання, які може виконувати людина, з метою імітації когнітивних здібностей людського мозку. На відміну від більшості існуючих AI, які здебільшого здатні виконувати лише одну задачу, AGI має здатність до міждисциплінарної узагальненості, застосовуючи знання, отримані в одній галузі, до нових ситуацій, а також володіє близьким до людського рівнем здорового глузду та розуміння світу для логічних висновків і прийняття рішень.
Розвиток AGI залежить від міждисциплінарних досліджень у галузях комп’ютерних наук, нейронаук і когнітивної психології. Наразі справжній AGI ще не створено, але відповідні дослідження та розробки тривають.
Коли очікувати реалізацію AGI? Розбіжності у думках керівників DeepMind і Anthropic
Amodei з Anthropic підтвердив свою минулорічну оцінку, що можливо вже у 2026–2027 роках з’явиться AI, здатний досягти рівня, що порівнюється з «Нобелівською премією» у більшості галузей.
«Якщо AI вже може писати програми, займатися дослідженнями у сфері AI, він зможе почати самостійно проектувати наступне покоління моделей, створюючи цикл самовдосконалення AI. Як тільки цей цикл почне працювати гладко, AGI матиме експоненційний прорив.»
Він навіть зазначив, що у внутрішніх командах Anthropic майже не залишилось програмістів, які самостійно пишуть код, натомість вони використовують моделі для генерації коду, а потім перевіряють людині. Це свідчить, що цей шлях уже починає формуватися.
Проте, керівник Google DeepMind Hassabis дотримується більш обережної позиції, вважаючи, що ймовірність появи повного AGI до кінця цього століття становить 50%. Він вважає, що сфери, де швидко можна перевірити результати, наприклад, програмування та математика, справді піддаються автоматизації, але природничі науки, створення теорій і постановка важливих питань — поки що залишаються критичними навичками, яких бракує. Також довгі цикли перевірки та складність реального світу ускладнюють швидке вирішення цих проблем за допомогою самовдосконалювальних циклів.
Як швидко AI вплине на зайнятість? Amodei попереджає про терміновість, Hassabis наголошує на буфері
Щодо впливу на ринок праці, розбіжності також очевидні. Amodei відкрито заявляв, що протягом 1–5 років можливо зникнення половини початкових білого воротничкового персоналу. На форумі він пояснив, що хоча загальні дані про зайнятість ще не відображають повною мірою цієї тенденції, вже можна побачити початкові впливи у сферах програмування та інженерії. Попит на початковий та середній рівень кадрів, ймовірно, спершу знизиться через «зменшення темпів зростання», а потім з’являться більш очевидні заміни. Основна тривога Amodei — це те, що прогрес AI є експоненційним, тоді як адаптація суспільства — лінійною, і в результаті з’явиться розрив.
Hassabis, у свою чергу, дотримується більш традиційної економічної точки зору. Він вважає, що у короткостроковій перспективі повториться сценарій попередніх технологічних революцій: «Деякі роботи зникнуть, але водночас з’являться нові, більш цінні вакансії, і початкові позиції або стажування можуть постраждати першими.»
Водночас він підкреслює, що сучасні інструменти AI майже «доступні кожному», і молодь, яка швидко їх освоїть, може навіть швидше накопичити досвід, ніж у традиційних стажуваннях.
Чи потрібно знижувати швидкість розвитку AI? Amodei виступає за повільний підхід, Hassabis — за стабільний прогрес
Щодо ризиків і геополітичних аспектів, розбіжності ще більш очевидні. Amodei прямо заявляє, що він хоче, щоб світ рухався «повільніше» у розвитку AI, щоб дати людству більше часу для створення безпечних та регуляторних механізмів. Він наполягає на обмеженні витоку передових чипів і вважає, що стратегічне значення AI вже наближається до рівня ядерної зброї і не має оцінюватися лише з комерційної або ланцюгової логіки. Навіть порівнює цю ситуацію з торгівлею ядерною зброєю, наголошуючи, що не можна заради короткострокових вигод ризикувати довгостроковими наслідками.
Hassabis, у свою чергу, не заперечує цінність «повільнішого» підходу, але підкреслює, що реальні умови — геополітична конкуренція та бізнес-інтереси — ускладнюють можливість справжнього «застою». У такій ситуації більш реалістичним є питання:
«Як у високошвидкісній гонці AI максимально синхронізувати заходи безпеки для мінімізації ризиків.»
Різниця у поглядах визначає темп майбутнього розвитку AI
Варто зазначити, що у багатьох ключових напрямках керівники DeepMind і Anthropic мають високий рівень згоди. Вони обидва вважають, що AI кардинально змінить світ, і визнають реальні ризики безпеки, виступаючи проти сценаріїв «загибелі через долю». Але щодо швидкості прогресу їхні відповіді суттєво різняться. Ця різниця ілюструє актуальні питання епохи AI: чи потрібно прискорювати рух до AGI, чи стримувати його.
(AI починає самостійно діяти, Anthropic пояснює: як людині оцінити, наскільки добре він виконує свою роботу?)
Ця стаття: Давоський форум|Розбіжності у розвитку AGI? Google DeepMind і Anthropic — три основні позиції у одному огляді вперше з’явилася на Chain News ABMedia.