L’agent Hermes, une solution d’IA agent open source, fait son apparition ; grâce à sa mémoire à long terme, il pourrait remplacer OpenClaw.

MarketWhisper

Hermes Agent

Nous Research publie officiellement un framework open source d’agent IA, Hermes Agent, qui se positionne directement en face d’OpenClaw. L’équipe fournit également, en parallèle, des outils complets de migration de la mémoire et des compétences d’OpenClaw. Hermes Agent dispose d’un mécanisme de mémoire long terme basé sur SQLite, ainsi que d’une architecture d’auto-évolution via « Closed Learning Loop ».

Cœur technique de Hermes Agent : un agent durable et une architecture d’auto-évolution

Les chatbots traditionnels reposent sur une conception de questions-réponses ; à la fin de chaque conversation, le contexte est effacé. La finalité de Hermes Agent est fondamentalement différente : c’est un « système d’agent persistant », qui fonctionne sur le long terme dans l’environnement de l’utilisateur, en conservant des informations d’une session à l’autre grâce à un mécanisme de mémoire reposant sur SQLite + FTS5 (recherche plein texte), ce qui permet à l’agent de ne pas reconstruire le contexte depuis zéro à chaque fois.

La principale différence de Hermes Agent réside dans la boucle d’apprentissage en circuit fermé : après l’exécution de chaque tâche, le système organise automatiquement le processus d’exécution et génère un fichier de compétences (Skills) réutilisable. Dans des situations similaires ultérieures, il l’appelle directement, et forme progressivement une compréhension approfondie des comportements et préférences de l’utilisateur. Côté fournisseurs de modèles, il prend en charge OpenAI, Anthropic, OpenRouter, Ollama, ainsi que tous les endpoints personnalisés (Custom Endpoint) au format d’API compatible OpenAI, y compris vLLM et SGLang, ce dernier étant particulièrement utile pour les développeurs ayant besoin de déployer des modèles localement.

Installation en 9 étapes : de la configuration d’environnement à l’intégration d’outils avancée

Le processus d’installation de Hermes Agent s’appuie principalement sur le Quickstart officiel. Les neuf étapes couvrent la configuration d’environnement, le choix du modèle, l’intégration de plateformes et l’extension des outils :

Étape un : installer l’environnement de base : exécuter la commande d’installation officielle curl. Une fois terminé, recharger le chemin du Shell (source ~/.bashrc ou ~/.zshrc)

Étape deux : configurer le fournisseur de modèle : à l’aide de la commande hermes model, sélectionner le fournisseur LLM. Prend en charge Nous Portal, OpenAI, Anthropic, OpenRouter, ou l’accès à un modèle local via Custom Endpoint

Étape trois : démarrer la conversation CLI : exécuter hermes pour entrer dans l’interface d’agent. Le système charge automatiquement des outils comme la recherche web, les opérations de fichiers et les commandes de terminal

Étape quatre : tester la capacité d’exécution du cœur : déclencher des commandes de terminal via un langage naturel (par ex. consulter l’utilisation du disque) afin de vérifier la capacité d’exécution des outils ; utiliser hermes -c pour restaurer le contexte de la conversation précédente

Étape cinq : connecter la plateforme de messages : exécuter hermes gateway setup pour terminer la configuration interactive des plateformes telles que Telegram, Discord, Slack, WhatsApp, etc.

Étape six : activer le mode vocal : après avoir installé le paquet voice, activer avec /voice on. Prend en charge l’entrée micro et la sortie vocale TTS, avec possibilité d’étendre vers des canaux vocaux sur Discord

Étape sept : installer Skills et automatisation de planification : installer les modules de fonctionnalités avec hermes skills install ; créer un Cron Job avec un langage naturel, par exemple « tous les jours à 9h du matin, consulter les actualités IA et les envoyer sur Telegram »

Étape huit : intégrer l’éditeur pour développeurs (ACP) : après avoir installé ACP, exécuter hermes acp afin que l’agent puisse fournir des capacités directement dans des éditeurs comme VS Code, Zed, JetBrains, etc.

Étape neuf : connecter des outils externes via MCP : ajouter un MCP Server (par ex. GitHub) dans le fichier de configuration ; étendre l’intégration des outils externes via Model Context Protocol

Concernant la sécurité, l’officiel recommande de basculer le backend d’exécution du terminal vers un conteneur Docker, afin de garantir que toutes les commandes de l’agent s’exécutent dans un environnement isolé, sans affecter le système hôte.

Migration en un clic OpenClaw : transfert complet de mémoire, compétences et paramètres

Hermes Agent fournit officiellement la commande hermes claw migrate, qui permet de lire les données depuis ~/.openclaw/ et d’importer en une fois dans le nouveau système : la personnalité (SOUL), la mémoire long terme, les modules de compétences, la configuration du modèle, les plateformes de communication et les clés API. Avant l’exécution, vous pouvez ajouter le paramètre --dry-run pour prévisualiser les modifications, confirmer ensuite, puis exécuter la migration complète.

Pendant la migration, plusieurs fichiers de mémoire sont fusionnés et dédupliqués avant d’être écrits dans l’architecture de mémoire de Hermes. Les éléments de configuration incompatibles de l’ancien système (par ex. plugins ou des configurations de channel complexes) sont stockés dans archive pour un ajustement manuel. Une fois la migration terminée, l’officiel recommande de vérifier l’efficacité des clés API, de redémarrer gateway et de tester les fonctionnalités de communication, afin de garantir que tout l’agent fonctionne correctement dans l’environnement Hermes.

Questions fréquentes

Quelle est la différence fondamentale entre Hermes Agent et OpenClaw ?

Tous deux sont des frameworks open source d’agents IA, mais Hermes Agent possède un mécanisme de mémoire long terme basé sur SQLite + FTS5 ainsi qu’une boucle d’apprentissage en circuit fermé, permettant à l’agent de conserver l’expérience d’une session à l’autre et de progresser de manière évolutive. L’équipe fournit également un outil complet de migration en un clic, afin que les utilisateurs d’OpenClaw puissent transférer sans perte leurs configurations de mémoire existantes et leurs modules de compétences.

Hermes Agent prend-il en charge le déploiement local d’un modèle, sans dépendre d’API cloud ?

Oui. En configurant Custom Endpoint, Hermes Agent peut se connecter à des services d’inférence locaux comme Ollama, vLLM, SGLang ou tout service local au format d’API compatible OpenAI. Cela convient aux utilisateurs soucieux de la confidentialité des données ou nécessitant un environnement hors ligne, et ne requiert aucune modification de code pour changer de fournisseur.

Comment s’assurer de la sécurité du système hôte lors de l’exécution de commandes terminal dans Hermes Agent ?

L’officiel recommande de basculer le backend du terminal en mode conteneur Docker, afin que toutes les commandes de l’agent s’exécutent dans un environnement totalement isolé, sans affecter les fichiers de l’hôte ni la configuration système. Pour les scénarios nécessitant une isolation de sécurité encore plus élevée, le basculement vers un backend SSH pour une exécution à distance est également pris en charge.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Gemini lance le trading agentique pour le trading automatisé alimenté par l’IA

L’exchange de cryptomonnaies Gemini a lancé l’Agentic Trading, marquant la première fois qu’une bourse américaine réglementée propose une intégration directe d’agents d’IA pour le trading automatisé. La plateforme permet aux utilisateurs de connecter Claude, ChatGPT et d’autres modèles d’IA afin d’automatiser des stratégies de trading allant d’ordres simples à

CryptoFrontierIl y a 2h

Consensys, Joseph Lubin contribuent 30 000 ETH à DeFi United

Consensys et le cofondateur d’Ethereum, Joseph Lubin, ont confirmé qu’ils contribueront 30 000 ETH à DeFi United, un effort coordonné de secours visant à traiter les pertes découlant de l’exploit du Kelp DAO. D’après l’annonce de lundi d’Aave, il s’agit de l’une des plus importantes offres dans le cadre de l’initiative en cours, ce qui

CryptoFrontierIl y a 4h

Alphea lance une blockchain Layer 1 native de l’IA avec une exécution par agent autonome

Message de Gate News, 27 avril — Alphea, une plateforme blockchain Layer 1 nouvellement dévoilée, conçue pour l’infrastructure IA, a officiellement présenté son environnement d’exécution décentralisé au Hong Kong Web3 Festival 2026. La plateforme intègre l’exécution, la mémoire persistante et le calcul vérifiable comme fonctionnalités fondamentales au niveau de la blockchain plutôt que comme des composants optionnels de la couche applicative, permettant aux agents IA autonomes de fonctionner indépendamment.

GateNewsIl y a 5h

Gate organise une table ronde Space sur le trading avec l’IA le 28 avril : explorer l’IA comme moteur du prochain cycle Web3

Message d’actualités Gate, 27 avril — Gate organisera une table ronde en direct sur Space consacrée au Trading avec l’IA le 28 avril à 20h, réunissant des experts du secteur pour explorer si l’intégration approfondie de l’IA dans les flux de travail de trading marque le véritable point de départ du prochain cycle Web3. La discussion examinera A

GateNewsIl y a 8h

Ant Group lance Ling-2.6-1T : modèle à billion de paramètres optimisé pour l’exécution des tâches avec une efficacité élevée en jetons

Message de Gate News, 27 avril — Ant Group's inclusionAI a publié Ling-2.6-1T, un nouveau modèle phare d’instruction de l’ordre du billion de paramètres dans la série Ling. Contrairement aux modèles de raisonnement à longue chaîne, Ling-2.6-1T utilise un mécanisme « Fast-Thinking » conçu pour exécuter les tâches avec précision en consommant un nombre minimal de jetons

GateNewsIl y a 9h

L’API Nansen prend désormais en charge le protocole MPP de Tempo, permettant aux agents IA de payer par appel

Message de Gate News, 27 avril — L’API Nansen prend désormais en charge le protocole Machine Payments Protocol (MPP), une norme pour des paiements autonomes de machine à machine soutenus par Tempo et Stripe. L’intégration permet aux agents IA de payer directement depuis leurs portefeuilles, sur une base par appel. La fonctionnalité fonctionne en parallèle avec

GateNewsIl y a 9h
Commentaire
0/400
Aucun commentaire