C’est à nouveau la saison des prévisions de fin d’année. Les investisseurs en capital-risque proposent des tendances spectaculaires, les médias se contentent de les relayer, tandis que les bâtisseurs — nous, ceux qui transforment réellement les concepts en réalité — froncent souvent les sourcils devant une feuille de route floue. Lorsque l’équipe crypto d’a16z évoque en 2026 une AI confrontée à une « révolution paradigmique de la recherche », une « crise d’identité des agents » et une « taxe invisible sur le réseau ouvert », ce que nous voyons n’est pas une manchette, mais une liste de trois problèmes techniques urgents à résoudre.
Cet article n’a pas pour but de répéter ces prévisions. Au contraire, nous les considérons comme une fiche technique publique. Si, comme moi, vous croyez que l’avenir sera défini par la collaboration complexe entre agents IA, alors nous devons dès maintenant commencer à concevoir les protocoles fondamentaux, les modèles d’architecture et les mécanismes de flux de valeur qui soutiennent tout cela. Voici un plan technique réalisable pour relever ces trois grands défis.
Concevoir une pile de collaboration en recherche IA « enroulée »
Les cadres actuels d’agents IA résolvent le problème de « faire dialoguer plusieurs agents », mais ils restent essentiellement des flux de travail linéaires ou arborescents. Lorsqu’on parle d’« agent-enveloppant-agent », il s’agit d’un écosystème plus organique : des agents qui s’observent, s’évaluent, se rejettent ou renforcent mutuellement leur travail, à l’image d’une équipe de chercheurs humains.
Cela nécessite une nouvelle façon de penser l’architecture système. L’idée centrale est de créer une « couche d’évaluation méta » — des agents d’évaluation spécialement conçus, dont l’ingénierie des prompts ne se concentre pas sur la tâche elle-même, mais sur la rigueur méthodologique, la détection de failles logiques et l’innovation. La sortie de ces agents ne sera pas une réponse finale, mais des rapports d’évaluation structurés et des scores de confiance. Sur cette base, le système doit pouvoir orchestrer dynamiquement le flux de travail : lorsqu’un agent de preuve mathématique bute, il doit automatiquement faire intervenir un agent de « pensée par analogie » pour apporter un nouveau point de vue, plutôt que de simplement réessayer.
Le défi encore plus crucial est la gestion du contexte partagé. Nous devons développer un « objet de contexte de recherche » standardisé, capable d’être transmis entre agents, contenant toute la chaîne d’hypothèses, les chemins rejetés, les références clés et les sous-problèmes non résolus. Cela doit être plus structuré qu’un simple historique de conversation, plus proche des notes de laboratoire d’un chercheur humain. La communauté open source a déjà commencé à explorer cette voie, mais les cadres existants présentent encore des limites en matière d’interactions critiques approfondies entre agents.
Construire une couche de protocole d’identité « informée de votre agent »
Les prévisions de Sean Neville concernant le « KYA » révèlent un obstacle fondamental : l’économie intelligente ne peut pas reposer sur des participants anonymes ou non traçables. Les agents actuels ne sont que des fantômes derrière une clé API, sans identité vérifiable, sans limites de permissions ni responsabilité légale. Ce n’est pas seulement une question réglementaire, mais aussi un problème de protocole technique manquant.
La solution consiste à concevoir une norme d’identité d’agent native en cryptographie. Les pistes possibles incluent l’extension des « certificats vérifiables » du W3C pour qu’ils puissent exprimer « cet agent est autorisé par un DAO à faire de l’arbitrage DeFi avec un plafond de 1 million de dollars », ou la création d’un registre d’agents on-chain entièrement nouveau. Quelle que soit la voie choisie, il faut résoudre la difficulté fondamentale de la gestion des clés : comment stocker et faire tourner en toute sécurité la clé privée de l’agent ? Lorsqu’un comportement suspect est détecté, comment l’humain contrôleur peut-il intervenir en urgence et reprendre le contrôle ?
Plus complexe encore est la conception d’un mécanisme de traçabilité de responsabilité. Nous devons intégrer dans la pile technologique des journaux d’audit immuables, permettant de remonter à chaque décision majeure de l’agent jusqu’à ses prompts, ses segments de données d’entraînement et la signature du contrôleur. Ce n’est pas seulement un défi technique, mais aussi une intersection entre droit et ingénierie. La norme ERC-4337 pour l’abstraction de compte offre une base pour les « portefeuilles intelligents », mais les agents nécessitent des métadonnées et des structures de permissions plus riches.
Mettre en œuvre un protocole de flux de valeur contre la « taxe invisible »
Le problème de la « taxe invisible » souligné par Liz Harkavy est en réalité une dislocation fondamentale du modèle économique d’Internet. Les agents IA consomment massivement de la publicité et du contenu sous abonnement, mais contournent totalement les canaux de monétisation existants. Les outils d’analyse de sites traditionnels ne peuvent même pas distinguer une visite humaine d’un crawl d’agent, encore moins assurer une micro-rémunération.
Les solutions techniques doivent traiter simultanément deux dimensions : le paiement et le suivi des attributs. Sur le plan du paiement, des solutions de couche 2 blockchain comme Arbitrum ou Base offrent des micro-paiements à faible coût, mais la latence et la complexité restent un défi. Des protocoles de paiement innovants comme Lightning Network ou Fedimint pourraient offrir de meilleures options, mais leur intégration avec l’infrastructure réseau existante est limitée. Plus fondamentalement, il pourrait être nécessaire de repenser le protocole HTTP lui-même, en ajoutant un champ « valeur attendue » dans les en-têtes standards.
Le suivi des attributs est un défi technique plus subtil. Comment faire remonter de manière fiable une réponse IA générée à partir de cinq paragraphes Wikipédia, trois articles académiques et deux blogs sectoriels ? Les balises rel=“canonical” et les standards de citation existants sont loin d’être suffisants. Il faut développer de nouveaux protocoles de marquage de contenu, peut-être basés sur des empreintes sémantiques plutôt que sur de simples URL, et établir un registre de contribution inter-sites. Ce n’est qu’en résolvant la question des attributs que la rémunération basée sur l’utilisation pourra être équitablement mise en œuvre.
L’infrastructure interconnectée et les défis ouverts
Ces trois domaines technologiques ne sont pas isolés. Un agent IA de recherche de marché a besoin d’un « KYA » pour prouver sa conformité, d’une architecture « enroulée » pour organiser ses flux d’analyse, et d’un « protocole de flux de valeur » pour payer automatiquement chaque rapport financier qu’il consomme. Ils constituent ensemble les trois piliers de l’économie des agents intelligents : identité, collaboration et échange de valeur.
La communauté open source est à l’avant-garde de la construction de ces infrastructures. Nous voyons LangChain faire progresser les standards de collaboration entre agents, Farcaster explorer le graphe social décentralisé, et de nombreuses équipes expérimenter l’intégration Web3 pour les paiements. Mais le plus grand défi reste l’interopérabilité : comment différents systèmes d’agents peuvent-ils se découvrir, établir la confiance et collaborer en toute sécurité ? Cela nécessite de dépasser la simple définition de standards pour plusieurs projets.
Dans l’année à venir, la véritable avancée ne viendra probablement pas de modèles plus grands, mais de ces protocoles fondamentaux apparemment simples. Lorsqu’on aura résolu la question de comment un agent prouve qui il est, comment il pense en commun, et comment il paie pour ses ressources, alors l’IA pourra vraiment passer d’une interface de chat fermée à une économie numérique ouverte et durable. La voie pour les bâtisseurs est désormais claire : choisir une infrastructure et commencer à construire.