穩定幣發行商 Tether 今(17)日宣布,其 AI 基礎設施 QVAC Fabric 推出重大技術突破:全球首個支援跨平台的 BitNet LoRA 微調框架,讓過去需要企業級 GPU 與雲端算力的大型語言模型,如今可在一般消費級硬體上完成訓練與推論,甚至包括智慧型手機。
手機也能訓練 LLM:1B 模型 1 小時內完成
根據 Tether 公布數據,該框架已成功在多種裝置上實現 BitNet 模型微調,包括常見的 Sansung S25、iPhone 16。
Samsung S25(Adreno GPU):
1.25 億參數模型:約 10 分鐘完成微調
10 億參數模型:約 1 小時 18 分鐘
iPhone 16(Apple GPU):
10 億參數:約 1 小時 45 分鐘
極限測試最高可達 130 億參數模型微調
過去都是用 NVIDIA 高階 GPU 執行的 AI 訓練任務,已被壓縮到手機等邊緣設備上。
關鍵技術 BitNet + LoRA:將 AI 成本砍到骨折
此次突破的核心在於兩項技術的結合:
BitNet(1-bit LLM)
將傳統高精度權重壓縮為僅 -1、0、1 三種值,大幅降低記憶體與計算需求。
LoRA(低秩適應)
僅訓練少量參數(可減少高達 99% 訓練量),大幅降低微調成本?
兩者結合後,使模型能在極低資源環境下運行。
實測顯示 BitNet-1B 比 Gemma-3-1B 少 77.8% VRAM,比 Qwen3-0.6B 少 65.6% VRAM。同等硬體下,可運行約 2 倍更大模型
GPU 解鎖手機 AI:效能最高提升 11 倍
QVAC 另一個關鍵突破,是讓 BitNet 真正跑在「非 NVIDIA」生態上。支援來自 AMD、 Intel、Apple Silicon 的 GPU,甚至是手機 GPU:Adren、Mali、Apple Bionic。
大型語言模型不再是科技巨頭專利,AI 也能去中心化
Tether 執行長 Paolo Ardoino 表示:「智慧將是未來社會發展的關鍵決定因素。它有潛力提升社會穩定性,成為連接社會的紐帶,或進一步賦能少數精英。人工智慧的未來應該是人人可及、人人可用、人人可及的,而不應佔用只有少數雲端服務提供者才能獲取的巨額資源。」
傳統 AI 開發高度依賴雲端與大型 GPU 叢集,成本高昂、技術集中於少數科技巨頭。Tether 的 QVAC 平台支援在包括智慧型手機在內的消費級硬體上進行有意義的大型模式訓練,證明了先進的人工智慧可以去中心化、包容性強。在未來幾個月內。將繼續投入大量資源和資金,以確保人工智慧能夠隨時隨地在本地設備上使用。
這篇文章 AI 不再是科技巨頭專利!Tether 推 QVAC,人手一個 LLM 的時刻到了? 最早出現於 鏈新聞 ABMedia。