Tether lance le premier « Framework de formation IA au niveau du milliard » pour mobile au monde, LoRA peut fonctionner sur iPhone et Samsung

Tether, la branche de données et d’IA, a annoncé le 17 mars une avancée technologique majeure en lançant le premier cadre de fine-tuning LoRA multiplateforme supportant l’architecture BitNet (LLM 1-bit) de Microsoft. Cette technologie intégrée à QVAC Fabric réduit considérablement la consommation de mémoire et la puissance de calcul, rendant les modèles de milliards de paramètres accessibles aux GPU d’entreprise, et permettant une formation « locale et entièrement privée » sur des smartphones et ordinateurs portables classiques.
(Précédent contexte : Tether investit dans Axiym pour étendre ses infrastructures de paiement : promouvoir l’intégration de USDT dans un réseau mondial de paiements conformes)
(Informations complémentaires : Tether investit dans la technologie IA pour le sommeil ! Investissement principal dans Eight Sleep avec 50 millions de dollars, valorisation atteignant 1,5 milliard de dollars)

Table des matières

Toggle

  • La magie de l’architecture 1-bit : faire « grand » avec « peu » sur mobile
  • Données de tests révélées : la vitesse impressionnante du Samsung S25 et de l’iPhone 16
  • Dire adieu aux clés API, créer une IA personnelle 100 % privée

Dans le domaine de l’intelligence artificielle (IA), entraîner des modèles puissants a toujours été considéré comme une activité coûteuse, dépendant fortement de systèmes NVIDIA coûteux ou de ressources cloud. Cependant, le géant stablecoin Tether cherche à changer cette règle grâce à la technologie. La division technique de Tether, « Tether Data », a annoncé le 17 mars le lancement du premier cadre multiplateforme de fine-tuning LoRA pour leur plateforme QVAC (QuantumVerse Automatic Computer).

La valeur centrale de cette technologie réside dans sa capacité à permettre à des modèles d’IA de « milliards de paramètres » de s’adapter et d’apprendre directement sur le smartphone de chaque utilisateur.

La magie de l’architecture 1-bit : faire « grand » avec « peu » sur mobile

Cette avancée révolutionnaire repose sur l’architecture BitNet 1-bit LLM de Microsoft. Grâce à l’optimisation de QVAC Fabric, la mémoire et la puissance de calcul requises par le modèle BitNet sont réduites à un niveau extrêmement faible. Selon l’annonce, ce cadre supporte non seulement les GPU NVIDIA courants, mais est également compatible avec les processeurs Intel, AMD, Apple M1/M2, ainsi que les GPU mobiles Adreno (Android), Mali et Apple Bionic.

Cela signifie que l’IA, qui était auparavant limitée aux centres de données, peut désormais être fine-tunée directement sur votre téléphone via la technique « Low-Rank Adaptation (LoRA) ». Tether indique que cette technologie permet à des appareils en périphérie de traiter des modèles deux fois plus grands que ceux quantifiés en Q4, démontrant une supériorité en termes de mémoire.

Données de tests révélées : la vitesse impressionnante du Samsung S25 et de l’iPhone 16

L’équipe de Tether a partagé dans l’annonce des données de tests enthousiasmantes, illustrant la capacité du cadre à fonctionner sur des smartphones modernes :

  • Modèle de 125 millions de paramètres : fine-tuning sur un dataset de 300 documents biomédicaux en seulement environ 10 minutes sur le Samsung S25.
  • Modèle de 1 milliard (1B) de paramètres : réalisation de la même tâche en 1 heure 18 minutes sur le Samsung S25, et en 1 heure 45 minutes sur l’iPhone 16.
  • Défi ultime : l’équipe a réussi à faire fonctionner un modèle de 13 milliards (13B) de paramètres sur l’iPhone 16 pour le fine-tuning, poussant les limites physiques des appareils mobiles.

Dire adieu aux clés API, créer une IA personnelle 100 % privée

Le PDG de Tether, Paolo Ardoino, insiste : « Si vous avez besoin d’une clé API pour utiliser l’IA, alors elle ne vous appartient pas vraiment. » La philosophie centrale de QVAC est « Local-first » (priorité à l’exécution locale).

Grâce au cadre BitNet LoRA, les utilisateurs peuvent faire apprendre directement à leur IA leurs emails, notes et messages locaux, sans jamais uploader aucune donnée sur le cloud. Cela élimine non seulement les inquiétudes concernant l’utilisation abusive de données sensibles par des entreprises, mais brise aussi le monopole de quelques géants dans le développement de l’IA. Actuellement, le LLM QVAC Fabric est publié en open source (licence Apache 2.0), avec des adaptateurs préconfigurés disponibles sur Hugging Face, permettant aux développeurs du monde entier de lancer immédiatement cette révolution de l’edge computing.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire