La plateforme BitNet LoRA de Tether permet la formation de modèles d’IA sur smartphones, GPU et appareils grand public.
Le système réduit la consommation de mémoire et améliore les performances, avec jusqu’à 77,8 % de VRAM en moins.
Les utilisateurs peuvent affiner des modèles jusqu’à 13 milliards de paramètres sur des appareils mobiles, élargissant les capacités de l’IA en périphérie.
Tether a annoncé une nouvelle plateforme d’IA via sa plateforme QVAC Fabric, permettant une formation BitNet LoRA multiplateforme sur des appareils grand public. La mise à jour permet aux modèles de milliards de paramètres de fonctionner sur smartphones et GPU. Le PDG Paolo Ardoino a partagé cette avancée, soulignant la réduction des coûts et un accès plus large aux outils d’IA.
La mise à jour QVAC Fabric introduit la prise en charge multiplateforme pour l’affinement BitNet LoRA. Cela permet aux modèles d’IA de fonctionner sur différents matériels et systèmes d’exploitation.
Notamment, le cadre supporte les GPU d’AMD, Intel et Apple, y compris les chipsets mobiles. Il utilise également Vulkan et Metal comme backend pour la compatibilité.
Selon Tether, c’est la première fois que BitNet LoRA fonctionne sur une gamme aussi large d’appareils. En conséquence, les utilisateurs peuvent entraîner des modèles sur du matériel courant.
Le système réduit les besoins en mémoire et en calcul en combinant les techniques BitNet et LoRA. BitNet compresse les poids du modèle en valeurs simplifiées, tandis que LoRA limite les paramètres entraînables.
Ensemble, ces méthodes réduisent considérablement les exigences matérielles. Par exemple, l’inférence GPU est deux à onze fois plus rapide que sur CPU sur des appareils mobiles.
De plus, l’utilisation de mémoire diminue fortement par rapport aux modèles en précision totale. Les benchmarks montrent jusqu’à 77,8 % de VRAM en moins par rapport à des systèmes comparables.
Tether a également démontré l’affinement sur smartphones. Des tests ont montré que des modèles de 125 millions de paramètres peuvent être entraînés en quelques minutes sur des appareils comme le Samsung S25.
Le cadre permet d’exécuter des modèles plus volumineux sur des appareils en périphérie. Tether a rapporté un affinement réussi de modèles jusqu’à 13 milliards de paramètres sur l’iPhone 16.
De plus, le système supporte des GPU mobiles tels qu’Adreno, Mali et Apple Bionic. Cela étend le développement d’IA au-delà du matériel spécialisé.
Selon Paolo Ardoino, le développement d’IA dépend souvent d’infrastructures coûteuses. Il a déclaré que ce cadre déplace les capacités vers les appareils locaux.
Tether a ajouté que le système réduit la dépendance aux plateformes centralisées. Il permet également aux utilisateurs d’entraîner et de traiter des données directement sur leurs appareils.