La Fondation Reppo obtient un engagement de $20M de la part de Bolts Capital pour une infrastructure de données d’entraînement pour l’IA

Message de Gate News, 23 avril — La Fondation Reppo a annoncé avoir reçu un engagement de financement stratégique de $20 million de la part de Bolts Capital afin de faire avancer le développement du protocole et l’expansion de l’écosystème, avec un accent sur la construction d’une infrastructure de données d’entraînement pour l’IA alimentée par des marchés de prédiction.

L’approche centrale de Reppo s’appuie sur des mécanismes de marchés de prédiction pour transformer le jugement humain en sources de données vérifiables, incitées, en répondant au défi d’obtenir des données de haute qualité pour l’entraînement de l’IA. Le projet construit un réseau décentralisé (Datanets) prenant en charge le traitement de données multimodal, notamment le texte, les images, l’audio et la vidéo, afin de permettre l’entraînement des modèles, l’évaluation et l’affinage.

Le cofondateur de Reppo Labs, RG, a souligné que le secteur des marchés de prédiction devrait atteindre $1 mille de milliards de dollars de volume de négociation annuel d’ici la fin de cette décennie, s’étendant au-delà du sport et des événements vers les marchés d’informations et d’opinions. La plateforme a déjà dépassé $2 million en volume de négociation au cours du mois écoulé, validant la viabilité du modèle. Le projet introduit également une approche novatrice selon laquelle des agents d’IA et des robots peuvent directement rémunérer les humains pour leurs opinions et leurs retours via des incitations cryptoeconomiques, réduisant la dépendance aux fournisseurs de données centralisés. Reppo a déjà obtenu le soutien d’institutions, notamment Protocol Labs et CMS Holdings.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

OpenAI lance GPT-5.5 : 12M de contexte, l’indice AA atteint le sommet, Terminal-Bench 82,7 % reconfigure la référence des agents

OpenAI publie GPT-5.5, axé sur le travail basé sur des agents et le traitement des connaissances en entreprise, et le lance simultanément dans ChatGPT et Codex. Les points clés incluent une fenêtre contextuelle de 12 millions de tokens, l’AA Intelligence Index 60, en avance sur Claude Opus 4.7 et Gemini 3.1 Pro ; le prix est de 5 dollars pour l’entrée de 1 million de tokens et de 30 dollars pour la sortie de 1 million de tokens, la sortie de tokens diminuant d’environ 40 %, tandis que le coût réel augmente d’environ 20 %.

ChainNewsAbmediaIl y a 36m

Cluster Protocol lève $5M pour accélérer CodeXero, un IDE d’IA natif du navigateur pour EVM

Message de Gate News, 23 avril — Cluster Protocol, une société de deeptech IA et d’infrastructure Web3, a annoncé avoir levé $5 millions lors d’un nouveau tour de financement mené par DAO5, avec la participation de Paper Ventures, JPEG Trading et Mapleblock Capital, portant le financement total à 7,75 millions $. Le capital wi

GateNewsIl y a 48m

Nvidia élargit ses partenariats en matière d’IA au Royaume-Uni, en Chine et dans le secteur automobile malgré les défis de la chaîne d’approvisionnement

Message de Gate News, 23 avril — Malgré la concurrence de Google et les perturbations de la chaîne d’approvisionnement, Nvidia reste le principal acteur sur le marché du matériel pour l’IA. TD Cowen a réaffirmé sa recommandation « achat » sur Nvidia jeudi, citant le leadership de l’entreprise en matière de performances et l’étendue de son écosystème logiciel. L’aval

GateNewsIl y a 49m

Anthropic révèle l’empilement de trois bugs de Claude Code : dégradation du raisonnement, oubli du cache, contrecoup d’une instruction de 25 caractères

Anthropic publie un cumul de trois pannes de Claude Code : du 3/4 au 4/7, le niveau de raisonnement est abaissé à medium, entraînant une latence de réponse et une impression d’être plus « bête » ; du 3/26 au 4/10, des erreurs de nettoyage du cache provoquent un oubli lors des longues conversations ; du 4/16 au 4/20, l’ajout d’une instruction de « commande d’outil en moins de 25 caractères », puis un retour en arrière après le 4/20. Les éléments touchés sont Claude Code, Agent SDK, Cowork ; le modèle est Sonnet 4.6, Opus 4.6/4.7 ; l’API n’est pas affectée. Le 4/23, réinitialisation de l’utilisation et renforcement de l’évaluation et des tests de non-régression.

ChainNewsAbmediaIl y a 2h

La Maison-Blanche accuse la Chine de vol de modèles d’IA à « grande échelle industrielle »

La Maison-Blanche a averti le 23 avril 2026 que des entités étrangères, principalement en Chine, mènent des campagnes « à grande échelle industrielle » afin de copier des modèles d’intelligence artificielle américains, selon une note du mémo de Michael Kratsios, Assistant de

CryptoFrontierIl y a 4h

OpenClaw 2026.4.22 unifie le cycle de vie des plugins entre les harness Codex et Pi, réduisant le temps de chargement des plugins jusqu’à 90 %

Message de Gate News, 23 avril — OpenClaw, une plateforme open source d’agent IA, a publié la version 2026.4.22 le 22 avril, dont le plus grand changement est l’alignement des cycles de vie du harness Codex et du harness Pi. Auparavant, les plugins se comportaient de façon incohérente entre les deux voies de harness, certains hooks étant absents dans certains environnements. La nouvelle version consolide les hooks critiques, notamment before_prompt_build, before_compaction/after_compaction, after_tool_call, before_message_write, et llm_input/llm_output/agent_end, éliminant la nécessité pour les développeurs de maintenir des implémentations distinctes pour chaque voie. La mise à jour introduit aussi la prise en charge du middleware async tool_result pour les extensions de plugin côté Codex. Les améliorations de performance sont considérables : le chargement des plugins utilise désormais Jiti natif, réduisant le temps de démarrage de 82 % à 90 %, tandis que l’exécution de doctor --non-interactive a diminué d’environ 74 %. Le niveau de réflexion par défaut pour les modèles d’inférence a été relevé de désactivé/faible à moyen, permettant des sorties de raisonnement par défaut pour les configurations non modifiées. D’autres correctifs incluent le fait que les appels d’agent multi-tours de Kimi K2.6 n’interrompent plus en raison d’une corruption de l’ID tool_call, une meilleure gestion de la mémoire des sous-processus Linux avec un ajustement automatique de oom_score_adj, et un nouveau système de récupération de configuration last-known-good pour empêcher que les crashs de Gateway ne soient causés par des écrasements accidentels de configuration. Les nouvelles intégrations de fournisseurs incluent la génération d’images de xAI grok-imagine-image et grok-imagine-image-pro, ainsi que les capacités TTS et STT ; Tencent Cloud en tant que plugin fournisseur officiel avec des modèles de prévisualisation Hy3 et une tarification ; et l’outil natif web_search d’OpenAI, remplaçant le canal de recherche géré d’OpenClaw lorsque la recherche web est activée.

GateNewsIl y a 5h
Commentaire
0/400
Aucun commentaire