Коротко
Anthropic скасувала основну обіцянку щодо безпеки у своїй Політиці відповідального масштабування, повідомляє TIME. Це послаблює зобов’язання, яке раніше забороняло розробнику Claude AI тренувати передові системи штучного інтелекту без гарантій безпеки. Цей крок змінює позицію компанії у гонці за штучним інтелектом проти конкурентів OpenAI, Google і xAI. Anthropic довго позиціонувала себе як один із найбезпечніших лабораторій у галузі, але за новою політикою Anthropic більше не обіцяє зупинити тренування, якщо ризики не будуть повністю зменшені. «Ми вважали, що зупинка тренування моделей штучного інтелекту насправді нікому не допоможе», — сказав головний науковий співробітник Anthropic, Jared Kaplan, TIME. «З урахуванням швидкого розвитку ШІ, нам не здавалося доцільним давати односторонні зобов’язання… якщо конкуренти йдуть попереду».
Цей крок відбувається на тлі того, що Anthropic опинилася у публічному конфлікті з міністром оборони США Петом Хегсетом через відмову надати Пентагону повний доступ до Claude, що робить її єдиною великою лабораторією штучного інтелекту серед Google, xAI, Meta та OpenAI, яка займає таку позицію. Едвард Гайст, старший дослідник політики в RAND Corporation, зазначив, що раніше «безпека ШІ» виникла з певної інтелектуальної спільноти, яка існувала ще до появи великих мовних моделей. «Кілька років тому існувала сфера безпеки ШІ», — сказав Гайст у Decrypt. «Безпека ШІ була пов’язана з певним набором поглядів, що виникли з спільноти людей, які переймалися потужним ШІ ще до появи цих LLM». Гайст зазначив, що ранні прихильники безпеки ШІ мали зовсім інше уявлення про те, яким має бути передовий штучний інтелект.
«Вони в кінцевому підсумку концептуалізували проблему так, що вона у деяких аспектах передбачала щось якісно відмінне від сучасних LLM, що добре, а що погано», — сказав Гайст. Гайст додав, що зміна мови також посилає сигнал інвесторам і політикам. «Частково це сигнал для різних зацікавлених сторін, що багато з цих компаній прагнуть створити враження, ніби вони не стримуються у економічній конкуренції через побоювання щодо ‘безпеки ШІ’», — пояснив він, додавши, що сама термінологія змінюється відповідно до часу. Anthropic не є єдиною, хто переглядає свою політику щодо безпеки. Що таке безпека ШІ? Останній звіт неприбуткової новинної організації The Conversation зазначає, що OpenAI також змінила свою місію у податковій декларації за 2024 рік, видаливши слово «безпечно». Раніше компанія обіцяла створити універсальний ШІ, який «безпечно приносить користь людству, не обмежуючись фінансовими цілями». Оновлена версія тепер стверджує, що її мета — «забезпечити, щоб штучний загальний інтелект приносив користь усій людності». «Проблема з терміном ‘безпека ШІ’ у тому, що ніхто точно не знає, що він означає», — сказав Гайст. «З іншого боку, термін ‘безпека ШІ’ також був спірним». Нова політика Anthropic підкреслює прозорість, зокрема публікацію «дорожніх карт безпеки передових технологій» та регулярних «звітів про ризики», і заявляє, що вона затримає розробки, якщо вважатиме, що існує значний ризик катастрофи.
Зміни у політиці Anthropic і OpenAI відбуваються на тлі прагнення компаній зміцнити свої комерційні позиції. Раніше цього місяця Anthropic повідомила, що залучила 30 мільярдів доларів при оцінці близько 380 мільярдів доларів. У той же час OpenAI завершує раунд фінансування за підтримки Amazon, Microsoft і Nvidia, який може досягти 100 мільярдів доларів. Anthropic і OpenAI, разом із Google і xAI, отримали вигідні урядові контракти з Міністерством оборони США. Однак контракт Anthropic під сумнівом, оскільки Пентагон розглядає можливість розірвати співпрацю через скарги на доступ. Зі зростанням інвестицій у секторі та посиленням геополітичної конкуренції, Хамза Чаудрі, керівник з питань ШІ та національної безпеки у Future of Life Institute, сказав, що зміна політики відображає змінювану політичну динаміку, а не спробу отримати бізнес від Пентагону. «Якщо б це було так, вони просто відступили б від того, що сказав Пентагон тиждень тому», — сказав Чаудрі у Decrypt. «Даріо [Амоуді] не прийшов би на зустріч». Замість цього Чаудрі зазначив, що перезапис відображає поворотний момент у тому, як компанії з ШІ говорять про ризики на тлі зростаючого політичного тиску та конкуренції. «Anthropic тепер каже: “Дивіться, ми не можемо більше говорити про безпеку, не можемо безумовно зупинятися, і будемо просувати більш легкий регуляторний режим,”» — сказав він.