Генеральный директор OpenAI Сэм Альтман обвинил конкурирующую Anthropic в использовании «маркетинга, основанного на страхе», чтобы продвигать свою модель Claude Mythos AI, согласно комментариям, сделанным в подкасте Core Memory, который ведет технологический журналист Эшли Вэнс. Альтман утверждал, что страховая риторика предназначена для обоснования сохранения передовых систем ИИ под контролем «небольшой группы людей», хотя он признал, что некоторые опасения по поводу безопасности являются обоснованными.
Альтман заявил, что, хотя существуют обоснованные опасения по поводу безопасности ИИ, «это, очевидно, невероятный маркетинг — говорить: “Мы построили бомбу. Мы собираемся сбросить ее вам на голову. Мы продадим вам бункер за $100 миллионов. Вам нужно будет запустить его на всех ваших системах, но только если мы выберем вас в качестве клиента”». Он отметил, что «не всегда легко» балансировать новые возможности ИИ с убеждением, что технология должна быть доступной.
Альтман признал, что «уже будут законные вопросы по безопасности», но предположил, что сообщения, основанные на страхе, могут быть использованы в качестве оружия для оправдания централизованного контроля. Он заявил: «если вы хотите что-то вроде “нам нужен контроль над ИИ, только у нас, потому что мы заслуживающие доверия люди”, я думаю, маркетинг, основанный на страхе, — вероятно, самый эффективный способ это обосновать».
Модель Anthropics Claude Mythos была раскрыта в прошлом месяце и привлекла значительное внимание со стороны исследователей, правительств и кибербезопасностной отрасли. Согласно тестированию, модель может автономно выявлять уязвимости в программном обеспечении и выполнять сложные кибероперации. Во время тестирования Mythos выявил сотни уязвимостей в браузере Mozilla Firefox и продемонстрировал способность проводить многоступенчатые симуляции кибератак.
Anthropic ограничила доступ к системе через Project Glasswing — ограниченную программу, предоставляющую избранным компаниям, включая Amazon, Apple и Microsoft, возможность тестировать ее возможности. Компания также выделила значительные ресурсы на поддержку инициатив по открытой исходной безопасности, утверждая, что защитникам следует получить выгоду от технологии до того, как она станет более широко доступной.
Anthropic представила возможности Mythos как прорыв как в обороне — позволяющий быстрее выявлять критические недостатки ПО, — так и потенциальный риск в наступательных действиях, если технология будет использована неправильно. Модель также выявила ограничения в существующих системах оценки ИИ: Anthropic признает, что многие текущие кибербезопасностные бенчмарки больше не достаточны для измерения возможностей ее последней системы.
Несмотря на призывы в некоторых частях правительства США остановить использование технологии из-за опасений по поводу ее возможных применений в войне и наблюдении, Национальное агентство безопасности, как сообщается, начало тестирование предварительной версии модели на классифицированных сетях. На прогнозном рынке Myriad пользователи поставили 49%-ную вероятность того, что Claude Mythos будет выпущен для широкой публики к 30 июня.
Группа исследователей заявила на прошлой неделе, что им удалось воспроизвести результаты Mythos, используя общедоступные модели.
Альтман предположил, что риторика вокруг высокоопасных систем ИИ может усиливаться по мере улучшения возможностей, но при этом утверждал, что не все такие заявления следует воспринимать буквально. Он заявил: «Будет гораздо больше риторики о моделях, которые слишком опасны для выпуска. Также будут очень опасные модели, которые придется выпускать разными способами. Я уверен, Mythos — отличная модель для кибербезопасности, но я думаю, у нас есть план, которым мы довольны, относительно того, как мы выводим такого рода возможности в мир».
Альтман также отверг предположения о том, что OpenAI сокращает расходы на свою инфраструктуру, сказав, что компания продолжит расширять свои вычислительные мощности. Он отметил: «Я не знаю, откуда это берется… люди действительно хотят написать историю о том, как компания отступает назад. Но очень скоро это снова будет так, как будто: “OpenAI настолько безрассудна. Как они могут тратить такое сумасшедшее количество денег?”»