Nvidia будет поставлять Amazon Web Services огромное количество GPU до 2027 года, поскольку облачный провайдер расширяет свою инфраструктуру ИИ и стремится удовлетворить растущий спрос. AWS на этой неделе объявила о планах развернуть около 1 миллиона GPU Nvidia в рамках расширения своей инфраструктуры ИИ. Представитель Nvidia подтвердил Reuters в четверг, что запуск ожидается до конца 2027 года. Начиная с этого года, в глобальных облачных регионах AWS будет внедряться это решение вместе с расширением сотрудничества с Nvidia по сетевым технологиям и другим инфраструктурным компонентам для создания систем, способных к самостоятельному рассуждению, планированию и действию в сложных рабочих процессах, — заявила AWS, указывая на работу по созданию агентных систем ИИ.
AWS продолжает разрабатывать чипы для ИИ как для обучения, так и для вывода. Такое сотрудничество говорит о том, что спрос может смещаться по всему стеку ИИ, в то время как все большая часть активности связана с запуском моделей в реальных сервисах. Сделка происходит на фоне того, что прокуроры США ведут дело о предполагаемом контрабандном ввозе чипов Nvidia в Китай, что вновь привлекает внимание к глобальным поставкам и контролю за компанией. С 2022 года самые передовые чипы Nvidia находятся под строгим контролем в рамках более широкой стратегии США по ограничению прогресса Китая в области передовых вычислений и ИИ.
Развитие в ближайшей перспективе может значительно расширить этот разрыв. Изменения в темпе Наблюдатели отмечают, что структура сделки дает подсказки о том, где растет спрос и как быстро меняется инфраструктура. «Nvidia становится инфраструктурным слоем под облачными провайдерами, а не просто поставщиком чипов», — сказал Decrypt Дермот МакГрат, соучредитель студии стратегии и роста ZenGen Labs. Чипы в рамках сделки ориентированы на масштабное выполнение моделей ИИ с акцентом на снижение стоимости использования, отметил МакГрат, добавив, что выводы сейчас составляют примерно две трети вычислений ИИ, тогда как в 2023 году — около трети. Ожидается, что рынок чипов, ориентированных на выводы, превысит 50 миллиардов долларов к 2026 году, по оценкам Deloitte. AWS может использовать как чипы Nvidia, так и собственные в одних и тех же системах, что дает клиентам больше выбора по сравнению с конкурентами, которые держат свои решения закрытыми, объяснил МакГрат, добавив, что эта гибкость «является отличительной чертой». «Теперь Nvidia делает то же самое на более низком уровне, с сетевыми технологиями и архитектурой стоек вместо программной модели», — сказал он. Чипы для вывода предназначены для запуска обученных моделей ИИ в реальном времени, без необходимости повторного обучения.
Спрос на выводы «стимулирует долгосрочные обязательства» по увеличению вычислительных мощностей и создает более тесные связи между облачными провайдерами и производителями чипов, заявил Decrypt Пичапен Пратепаванич, стратег по политике и основатель инфраструктурной компании Gather Beyond. «Облачные провайдеры хотят долгосрочной независимости, но в ближайшее время им нужно, чтобы Nvidia оставалась конкурентоспособной», — отметила она, подчеркнув, что это создает динамику, при которой сотрудничество и конкуренция происходят одновременно. Тем не менее, контроль над инфраструктурой ИИ также меняется. Что происходит — это «инфраструктурный переворот», — сказала Берна Миса, партнер по сделкам в Boardy Ventures, инвестиционном фонде, ориентированном на ИИ. Nvidia «внедряет весь свой стек в дата-центры AWS, где ранее использовалось собственное оборудование», — пояснила она. Однако, несмотря на то, что AWS разрабатывает собственные чипы для ИИ, «это не меняет математику», — добавила она, отметив, что выводы зависят от множества компонентов по всему стеку, большинство из которых поставляет Nvidia. «Когда вы настолько глубоко интегрированы в стек клиента, стоимость переключения и слой контекста, который из этого выходит, становятся защитным рвом», — сказала она.