xAI надасть Cursor масивні обчислювальні потужності GPU для тренування AI-моделі коду

Повідомлення Gate News, 17 квітня — AI-компанія Ілона Маска xAI планує надати інструменту для програмування Cursor великомасштабні обчислювальні потужності, при цьому Cursor, як очікується, використає тисячі GPU, отриманих xAI від постачальників на кшталт Nvidia, щоб навчити свою наступну кодову модель Composer 2.5.

Ця співпраця знаменує перехід xAI від компанії з дослідженням моделі з одним фокусом до ролі, що охоплює послуги з надання обчислювальної потужності, позиціонуючи себе як потенційну альтернативу великим хмарним провайдерам, зокрема Microsoft, Google, CoreWeave та Nebius. Для xAI оренда обчислювальних ресурсів може зменшити високі витрати на будівництво та експлуатацію дата-центрів, одночасно зміцнюючи зв’язки з екосистемами розробників. Cursor, який має значні масиви даних від розробників, має стратегічну цінність, оскільки конкуренція в галузі AI-кодування посилюється.

Очікується, що партнерство збільшить потоки доходів xAI та допоможе зняти занепокоєння інвесторів щодо триваючого процесу IPO SpaceX. xAI, яка завершила придбання SpaceX ще до IPO, перебуває у фазі інтенсивних інвестицій у R&D із щомісячними операційними збитками, що перевищують $300 мільйона, та чистими збитками понад $4 мільярда у 2025 році. Підвищення ефективності використання ресурсів є критичною першочерговою задачею — поточний рівень завантаження GPU xAI під час тренування моделей становить приблизно 11%, що значно нижче галузевого стандарту 35%–45%.

XAI розгорнула приблизно 200,000 GPU як частину свого проєкту дата-центру «Colossus» і планує розширитися до 1 мільйона одиниць. Cursor, який минулого місяця згенерував $2 мільярда щорічного регулярного доходу з темпом, удвічі вищим, ніж за три місяці до цього, оцінюють приблизно в $50 мільярда під час поточних розмов про фінансування. За менш ніж п’ять років від заснування стартап виріс до однієї з компаній із найшвидшими темпами зростання в історії — близько 60% доходу надходить від корпоративних клієнтів.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

DeepSeek запустила V4 відкриту прев’ю-версію, технічний рейтинг 3206 перевершив GPT-5.4

DeepSeek 24 квітня офіційно випустив серію прев’ю-версій V4, відкривши її як open source за ліцензією MIT; ваги моделей уже синхронно завантажено на Hugging Face та ModelScope. Згідно з технічним звітом DeepSeek V4, V4-Pro-Max (найпотужніший режим інференсу) на бенчмарку Codeforces набрав 3206 балів, перевершивши GPT-5.4.

MarketWhisper5хв. тому

Cambricon завершує адаптацію Day 0 для DeepSeek-V4, позначаючи важливу віху для екосистеми AI-чипів Китаю

Повідомлення Gate News, 24 квітня — сьогодні Cambricon оголосила, що завершила адаптацію Day 0 для DeepSeek-V4, останньої великої мовної моделі від DeepSeek, використовуючи власну програмну екосистему NeuWare та фреймворк vLLM. Код адаптації було відкрито одночасно, що

GateNews22хв. тому

Tencent випустила Hy3 у прев’ю-версії з відкритим кодом, тест продуктивності коду порівняно з попередньою версією покращено на 40%

Tencent 4 травня 23 числа офіційно відкрив вихідний код попередньої версії великої мовної моделі Hy3 на платформах GitHub, Hugging Face та ModelScope, а також паралельно надає платні API-послуги через Tencent Cloud. За повідомленням Decrypt від 24 квітня, попередня версія Hy3 розпочала навчання наприкінці січня, і на момент дати публікації минуло менше ніж три місяці.

MarketWhisper29хв. тому

Інвестиції портфеля FTX на суму 158 трильйонів вонів, якщо б вона не збанкрутувала

FTX, централізована криптовалютна біржа, яка подала на захист від банкрутства згідно з Chapter 11 у листопаді 2022 року через нестачу ліквідності та відплив капіталу, мала б утримувати інвестиції вартістю приблизно 158.796 трлн вонів, якби вона не збанкрутувала, згідно з аналізом, на який посилається Парк

CryptoFrontier32хв. тому

Xiaomi Reveals MiMo-V2-Pro Training Details: 1T Model Parameters, Thousands of GPUs Deployed

Gate News message, April 24 — Xiaomi's large language model team lead Luo Fuli disclosed in an in-depth interview that the MiMo-V2-Pro model has 1 trillion parameters in total and required thousands of GPUs for training. She noted that the 1T scale represents the minimum threshold to achieve

GateNews46хв. тому

DeepSeek V4 Досягає Ідеального Результату на Putnam-2025, Порівнюється з Axiom у Формальному Математичному Міркуванні

Новини Gate, 24 квітня — DeepSeek V4 опублікував результати оцінювання формального математичного міркування, досягнувши ідеального результату 120/120 на Putnam-2025, поділивши перше місце з Axiom. У практичному режимі із використанням LeanExplore та обмеженого семплінгу V4-Flash-Max набрав 81.00 на

GateNews54хв. тому
Прокоментувати
0/400
Немає коментарів