Résultats de la recherche pour "SFT"
2025-11-27
05:38

Prime Intellect a lancé le modèle INTELLECT-3

Le protocole Décentralisation AI Prime Intellect a lancé un modèle d'expert hybride INTELLECT-3 avec 106B de paramètres, basé sur le modèle GLM 4.5 Air Base, et entraîné par SFT et RL. Prime Intellect a terminé un financement de 15 millions de dollars en mars de cette année.
Plus
04:28

🔥StartupMining ces activités sont en cours : $UNIO, $SFT, $X, $CYCON, $CYRUS, $CROS ✅$UNIOMining prend en charge $UNIO et $USDTPool de minage, le taux de rendement annuel de $UNIOPool de minage atteint jusqu'à 1898,32%. ✅Le minage $SFT supporte les pools de minage $SFT et $ETH, avec un taux de rendement annuel allant jusqu'à 518.2% pour le pool de minage $SFT ; ✅ Le taux de rendement annuel de l'extraction de $X atteint jusqu'à 508.06% ; ✅La fonction d'extraction de $CYCON prend en charge $CYCON et $GTPool de minage, le taux de rendement annuel de $CYCONPool de minage peut atteindre 596,86 %; ✅Mining de la phase 2 de $CYRUS, avec un taux annuel en pourcentage allant jusqu'à 282.41%; ✅ Le minage de $CROS prend en charge $CROS et $BTC, le taux de rendement annuel du pool de minage de $CROS atteint 576.19% ; 💰Commencer le mining maintenant: https://www.gate.io/zh/startup-mining
Plus
X10,01%
08:30

zCloak Network et Solv Protocol ont annoncé un partenariat stratégique

Dans l’après-midi du 12 janvier 2024, le premier Forum de l’innovation SFT a été officiellement lancé. Au cours de la réunion, les fondateurs de zCloak Network et de Solv Protocol ont annoncé conjointement qu’ils étaient officiellement devenus des partenaires stratégiques. En novembre 2023, DESFT, un projet conçu et incubé conjointement par zCloak et Solv, a été repéré au Singapore FinTech Festival, qui est soutenu conjointement par l’Autorité monétaire de Singapour (MAS) et la Banque centrale du Ghana, qui vise à aider les micro, petites et moyennes entreprises (MPME) des régions en développement à participer au commerce international par le biais de l’identité numérique d’entreprise, des justificatifs d’identité numériques et de la technologie ERC3525, et à obtenir des services financiers équitables, précis et abordables dans les activités transfrontalières de l’économie numérique. Dans le cadre de la coopération approfondie dans le cadre du projet DESFT, les deux parties ont convenu que la technologie d’identité numérique Zero-Knowledge de zCloak et la norme ERC-3525 du protocole Solv présentent une très bonne complémentarité, une forte combinaison dans le développement d’applications pratiques et un large espace d’innovation. Afin de mieux explorer la voie de la tokenisation des actifs dans le monde réel, les deux parties ont officiellement établi un partenariat stratégique commercial afin d’élargir conjointement la coopération technique future et les scénarios d’atterrissage commercial.
Plus
03:59

Flag_ Grande évaluation du modèle de langage Liste de septembre : Baichuan 2 se classe premier

Selon le rapport de TechWeb du 19 septembre, le système d'évaluation national faisant autorité Flag_ (Libra) a annoncé les résultats de l'évaluation des derniers grands modèles de la liste de septembre. Basée sur le dernier ensemble de données d'évaluation subjective CLCC v2.0, la liste Flag_ (Libra) de septembre se concentre sur l'évaluation de 7 modèles de dialogue open source qui sont devenus populaires récemment. À en juger par les résultats globaux, Baichuan2-13 b-chat, Qwen-7 b-chat et Baichuan2-7 b-chat sont parmi les meilleurs, avec des taux de précision supérieurs à 65 %. Dans la liste des modèles de base, les résultats objectifs de l'évaluation de Baichuan 2, Qwen, InternLM et Aquila ont tous dépassé les modèles Llama et Llama2 du même niveau de paramètres. Dans la liste des modèles SFT, Baichuan 2-13 B-chat, YuLan-Chat-2-13 B et AquilaChat-7 B se classent parmi les trois premiers. Dans les deux listes d'évaluation objective, Baichuan 2 a montré d'excellentes performances et le test du modèle de base a surpassé Llama 2 dans les domaines chinois et anglais. Il est rapporté que Flag_ (Libra) est un grand système d'évaluation de modèles et une plate-forme ouverte lancée par l'Institut de recherche sur l'intelligence artificielle Zhiyuan de Pékin. Il vise à établir des références, des méthodes et des outils d'évaluation scientifiques, équitables et ouverts pour aider les chercheurs à évaluer de manière globale les modèles de base et Performance des algorithmes de formation. Flag_ Le grand système d'évaluation de modèles de langage comprend actuellement 6 tâches d'évaluation majeures, près de 30 ensembles de données d'évaluation et plus de 100 000 questions d'évaluation.
Plus