Gate Booster 第 4 期:發帖瓜分 1,500 $USDT
🔹 發布 TradFi 黃金福袋原創內容,可得 15 $USDT,名額有限先到先得
🔹 本期支持 X、YouTube 發布原創內容
🔹 無需複雜操作,流程清晰透明
🔹 流程:申請成為 Booster → 領取任務 → 發布原創內容 → 回鏈登記 → 等待審核及發獎
📅 任務截止時間:03月20日16:00(UTC+8)
立即領取任務:https://www.gate.com/booster/10028?pid=allPort&ch=KTag1BmC
更多詳情:https://www.gate.com/announcements/article/50203
在CES大会期間,英偉達全新推出的Rubin架構成了最近市場討論的焦點,什麼MOE架構之外另一重大突破,什麼為Agentic AI時代量身設計等等,我深入看了下,的確感受到老黃“自我革命”那味了:
1)過去英偉達依附的是GPU硬體優勢,踩上了各大AI巨頭都在瘋狂採購算力訓練大模型的紅利期。那時候邏輯很簡單,誰的顯卡多誰就能訓練出最好的模型。
但現在AI戰爭已經從“算力”戰場轉移到“推理”,尤其是Agentic時代到來後,AI需要處理高頻、多步、超長上下文的推理。
這個時候,模型參數動輒萬億,資料吞吐量極大,GPU 算得再快,如果內存傳資料不夠快,GPU 就得空轉,這就是“存力牆”,換句話說,顯卡多已經解決不了問題了,还需要高顯存和帶寬來支撐。Rubin要解決的就是這個問題。
2)所以 Rubin首發的HBM4就好撐第四代高帶寬內存,可以讓帶寬到達22TB/s。但更關鍵的是它配合NVLink 6技術(機架內帶寬260TB/s),把72張卡在邏輯上變成了“一顆巨型晶片”。
這意味著什麼?以前你買顯卡,買的是一個個獨立元件,資料在卡與卡之間傳輸就像快遞要經過好幾個中轉站。現在Rubin通過極高密度的互連,讓資料在不同GPU之間流轉時幾乎感覺不到物理距離,72個工人不再各幹各的,而是共享一個大腦。
我想這才是Rubin真正的殺招:不是單純堆硬體參數,而是讓整個系統資料流轉的重構。
3)如果說MOE( 混合專家模型架構 )是英偉達被DeepSeek等後起之秀堆英偉達“暴力堆卡”商業模式的一次降維打擊,那Rubin怎麼看都是老黃的一次戰略反擊,不在跟你們比誰更省卡,而是直接重構AI的使用成本。当然,出此奇招也意味着英偉達徹底要和暴力堆卡的舊模式說再見了。
老黃算的是另一筆帳,Agentic時代要真正落地到千行百業,就必須跨過Token成本這道坎,這是英偉達守不住的大勢所趨。
在老黃看来,与其等着被谷歌、Meta等大廠自研芯片蚕食市場,又或者被DeepSeek等用模式顛覆供給側市場,还不如主动做破局的那個人。
4)問題來了,自我革命後的英偉達要如何自處?路徑也很清晰,從"賣顯卡"變成"賣系統",從服務少數大廠變成讓AI真正普及。
以前你買H100,英偉達賺的永遠是那一份顯卡的錢,以後的Rubin會告訴你:你得買整套NVL72機架——72張GPU、NVLink Switch、全液冷系統、機櫃,甚至包括配套的軟體棧,全部打包賣給你。
老黃的算盤也很清楚,看起來打包後的硬體成本更貴了,但附加了極致的推理效率,把採購方AI使用的單元成本給拉下來了,也自然不會丟失市場份額。
但但但,這套玩法對中小玩家的門檻也更高了。只有大廠和雲服務商才能玩得起,會進一步加劇算力壟斷。在當前競爭形勢下堪稱一次豪賭,因為一旦HBM4量產存在問題,就會被AMD、谷歌TPU等抓住窗口期推出的替代方案給取代,那英偉達賣系統的美夢可能沒那麼容易實現了。