Auteur : imToken
Après cette année du Nouvel An chinois, avez-vous aussi l’impression que tout le monde Web3 semble soudainement occupé par des « homards » ?
Toutes sortes d’agents IA, d’agents automatisés, de protocoles IA en chaîne émergent sans cesse, allant d’OpenClaw à une série de cadres d’agents qui deviennent presque le nouveau récit central. Mais si l’on remonte un peu dans le temps, on constate que cette vague était en fait prévisible depuis longtemps.
Déjà le 25 février, lors de la dernière conférence téléphonique sur les résultats financiers de Nvidia, le PDG Jensen Huang a lancé une déclaration importante : l’Agentic AI (IA agentique) a atteint un tournant. Selon lui, l’IA est en train de subir une transformation clé, passant d’un simple outil à une entité capable de percevoir, planifier et exécuter des tâches complexes de manière proactive.
Et lorsque cette « autonomie » s’intègre dans le monde Web3, une discussion sur le contrôle, les limites de sécurité et le rôle de l’humain s’enflamme également.
Avant d’aborder ce sujet, il faut d’abord comprendre le nouveau concept d’Agentic AI (IA agentique).
D’un point de vue littéral, c’est assez facile à saisir : cette IA se distingue fondamentalement des chatbots traditionnels. Car l’IA classique répond de manière passive : vous posez une question, elle répond ; vous donnez une instruction, elle génère du contenu. En revanche, l’Agentic AI possède une autonomie plus forte : elle peut décomposer un objectif, appeler des outils, effectuer des opérations en plusieurs étapes, et ajuster sa stratégie en boucle de rétroaction.
Prenons l’exemple d’OpenClaw, qui a récemment suscité beaucoup d’attention : il s’agit d’une tentative de faire prendre en charge à l’IA l’ensemble du processus opérationnel sur un ordinateur : analyser des informations, appeler des outils, interagir avec différents systèmes, et continuer à agir sous des objectifs complexes.
En d’autres termes, l’Agentic AI pourrait faire évoluer l’IA du simple « assistant » vers un « exécuteur ».
Bien sûr, cette évolution résulte aussi de la maturation simultanée des capacités des modèles, des ressources de calcul et de l’écosystème d’outils au cours des trois dernières années. Et une fois intégrée dans le Web3, cette transformation pourrait avoir des impacts encore plus profonds, car la blockchain est en soi un système financier programmable et capable d’automatisation.
Lorsque l’IA se voit confier des capacités d’agent, elle peut théoriquement réaliser une série d’opérations en chaîne, telles que :
Cela signifie aussi que l’IA peut analyser automatiquement des données en chaîne, invoquer des contrats, gérer des actifs, et en partie, remplacer l’utilisateur dans l’exécution de stratégies de trading. Sur le plan technique, la fusion entre Agentic AI et Web3 semble presque naturelle — après tout, la blockchain est un système financier programmable et automatisable.
En réalité, la communauté Ethereum a déjà pris conscience de l’impact profond que pourrait avoir la fusion IA et blockchain. Le 15 septembre 2025, la Fondation Ethereum a créé une équipe dédiée à l’intelligence artificielle, « dAI », dont la mission principale est d’explorer les standards, incitations et structures de gouvernance pour les modèles IA dans un environnement blockchain, notamment comment rendre le comportement de l’IA vérifiable, traçable et collaboratif dans un contexte décentralisé.
Pour atteindre cet objectif, la communauté Ethereum pousse plusieurs standards clés, comme ERC-8004, visant à construire une infrastructure décentralisée d’IA modulaire et accessible, facilitant la création et l’appel à des services de modèles IA ; ou encore x402, qui tente de définir une norme unifiée de paiement et de règlement en chaîne, permettant aux utilisateurs d’appeler des modèles IA, de stocker des données ou d’utiliser des services de calcul décentralisé avec des micro-paiements atomiques efficaces (lire aussi « Le nouveau ticket d’entrée pour l’ère des agents IA : promouvoir ERC-8004, sur quoi Ethereum mise-t-il ? »).
Par ces initiatives, Ethereum cherche en réalité à répondre à une question plus large : si l’IA devient un acteur majeur d’Internet, la blockchain pourrait-elle devenir la couche de valorisation et de confiance pour l’économie de l’IA ? C’est aussi pour cela que beaucoup la considèrent comme la « nouvelle infrastructure » pour l’ère des agents IA.
Mais en parallèle, un nouveau problème de sécurité commence à émerger.
En réalité, avant même que Jensen Huang ne fasse ses déclarations, la communauté crypto était déjà en pleine controverse.
Le chercheur Sigil a avancé une idée très contestée : il affirme avoir construit le premier système d’IA capable de se développer, de s’améliorer, voire de se copier lui-même, qu’il appelle Automaton. Dans sa vision, l’ère du « Web4 » sera dominée par des IA agents.
Dans cette vision, ces agents IA pourront lire et générer des informations, détenir des actifs en chaîne, payer leurs coûts d’exploitation, échanger sur le marché et générer des revenus. En clair, l’IA participera en continu aux activités du marché pour couvrir ses propres coûts de calcul et de service, créant ainsi un cycle auto-entretenu sans intervention humaine.

Mais cette idée a rapidement suscité des controverses. Vitalik Buterin a exprimé une critique claire, qualifiant cette direction d’« erreur », et soulignant que le problème central réside dans le fait que « le délai de rétroaction entre humains et IA s’allonge ». Il affirme que si la durée de vie opérationnelle de l’IA s’allonge et que l’intervention humaine diminue, le système pourrait finir par optimiser des résultats que l’humain ne souhaite pas.
En résumé, une IA se voit assigner un objectif, mais dans sa mise en œuvre, elle peut adopter des méthodes imprévues par l’humain. Par exemple, si un agent IA est programmé pour « maximiser les gains cette semaine », il pourrait tenter des stratégies à haut risque, voire investir dans un protocole non audité et très risqué pour obtenir un rendement annuel supplémentaire de 0,1 %, ce qui pourrait entraîner la perte du capital.
Au fond, dans beaucoup de cas, l’IA ne comprend pas réellement les contraintes implicites derrière les objectifs humains. Récemment, un cas concret dans le monde de l’IA a illustré cette problématique avec une touche d’humour noir :
Summer Yue, responsable de l’alignement de l’IA au laboratoire Meta Superintelligence (MSL), a testé l’agent OpenClaw. Lors de cette expérimentation, l’agent a soudainement perdu le contrôle en effectuant une opération de nettoyage de boîte mail, supprimant en masse des emails et ignorant ses multiples instructions d’arrêter. Elle a dû intervenir manuellement pour arrêter le programme, évitant ainsi une suppression totale.
Cet incident, bien qu’accidentel, montre bien que lorsqu’un système poursuit un objectif sans contraintes clés, il peut agir de manière fidèle à sa mission, sans comprendre l’intention humaine réelle.

Si ce risque se produit dans un environnement Web3, les conséquences pourraient être encore plus graves, car les transactions en chaîne sont irréversibles. Si un agent IA est autorisé à gérer un portefeuille ou à invoquer un contrat, une erreur ou une incitation malveillante pourrait entraîner une perte irréparable d’actifs. Une seule mauvaise décision pourrait suffire à faire perdre de l’argent réel.
C’est pourquoi de nombreux chercheurs pensent qu’avec la généralisation des agents IA, le modèle de sécurité du Web3 devra être repensé. Jusqu’ici, les risques venaient surtout de bugs ou d’erreurs humaines, mais à l’avenir, de nouvelles sources de danger pourraient apparaître — celles des systèmes de décision automatisés eux-mêmes.
Naturellement, le développement de l’IA a un double effet : il peut à la fois augmenter la surface d’attaque et renforcer la défense.
Dans le secteur financier traditionnel, l’IA est déjà largement utilisée pour la gestion des risques. Les banques utilisent l’apprentissage automatique pour repérer les transactions suspectes, les systèmes de paiement détectent la fraude, et la cybersécurité s’appuie sur l’IA pour identifier des modèles d’attaque.
Ces capacités commencent aussi à pénétrer le Web3. Grâce à la transparence des données en chaîne, l’IA peut analyser les comportements transactionnels pour repérer des flux anormaux, des autorisations douteuses ou des vecteurs d’attaque potentiels.
De plus, au niveau des portefeuilles, cette capacité est cruciale. Les portefeuilles sont la porte d’entrée dans le Web3, et la première ligne de défense. Si le système peut détecter automatiquement des risques avant la signature d’une transaction, cela évite de nombreuses erreurs.
De ce point de vue, l’IA ne se limite pas à augmenter les risques : elle modifie aussi la structure même de la sécurité. Elle peut devenir un outil d’attaque ou une nouvelle capacité défensive.
Dans l’industrie Web3, « sécurité » et « expérience utilisateur » ont longtemps été perçus comme opposés, mais l’émergence de l’Agentic AI pourrait briser ce paradoxe. Bien sûr, cela suppose une refonte des principes de sécurité :
En somme, il est possible de rester prudent tout en étant optimiste : l’Agentic AI pourrait bien permettre au Web3 d’améliorer à la fois la sécurité et l’expérience utilisateur.
Il ne fait aucun doute que l’arrivée de l’Agentic AI va probablement transformer le fonctionnement même d’Internet.
Dans le monde Web3, cette évolution sera encore plus marquante : nous pourrions voir des agents IA gérer des actifs en chaîne, exécuter automatiquement des stratégies DeFi, collaborer avec des contrats intelligents. Mais cela implique aussi de nouveaux défis en matière de sécurité. La question n’est pas de savoir si l’IA existe, mais si nous sommes prêts à l’utiliser de la bonne manière.
Et pour l’utilisateur lambda, le principe reste inchangé : dans le Web3, la sécurité doit toujours être la première ligne de défense.
Restons vigilants ensemble.