Tether BitNet LoRA フレームワークをリリース、モバイルデバイスでの大規模言語モデルトレーニングをサポート
Gate Newsの報道によると、3月17日、Tether傘下のQVAC Fabricは、Microsoft BitNet(1ビットLLM)向けの世界初のクロスプラットフォームLoRA微調整フレームワークを発表しました。このフレームワークは、大規模モデルのトレーニングにおけるVRAMと計算能力のハードルを大幅に下げます。さらに、Intel、AMD、Apple Silicon Mシリーズ、そしてモバイルGPU(Adreno、Mali、Apple Bionicを含む)上でのLoRA微調整と推論の高速化をサポートしています。