Dans une étude récente, l’équipe a démontré comment un « Skill » tiers compromis sur la plateforme OpenClaw pouvait contourner les mesures de sécurité existantes et exécuter des commandes arbitraires sur un système hôte. Les résultats mettent en évidence des faiblesses structurelles dans la façon dont les marchés d’agents IA vérifient et déploient le code externe.
La recherche s’est concentrée sur le processus de revue utilisé par Clawhub, qui inclut l’analyse statique du code, des vérifications via VirusTotal, et des outils de modération basés sur l’IA.
HISTOIRES À LA UNE
Rich Dad Poor Dad Auteur : Bitcoin atteindra 750 000 $
Revue du marché crypto : XRP prêt à atteindre 1,70 $, Ethereum (ETH) en mode haussier, Shiba Inu (SHIB) enfin en marché haussier ?
Selon CertiK, ces mécanismes peuvent être contournés par de légères modifications du code. En modifiant légèrement la logique ou en restructurant les vulnérabilités, un Skill malveillant peut apparaître inoffensif lors de l’installation tout en conservant la capacité d’exécuter des actions nuisibles une fois déployé.
Cela crée une fausse impression de sécurité pour les utilisateurs, car l’approbation par les systèmes de revue de marché ne garantit pas qu’un Skill soit sûr.
L’attaque par preuve de concept souligne un problème plus vaste affectant les écosystèmes d’agents IA : des modèles de sécurité qui dépendent fortement de la revue avant déploiement plutôt que de la protection en temps réel.
Sans mesures de sécurité telles que le sandboxing, des contrôles d’autorisation stricts, et l’isolation en temps réel, les plateformes placent effectivement trop de responsabilités sur des systèmes de détection qui ne sont pas conçus pour gérer des menaces complexes et évolutives.
Les résultats suggèrent qu’à mesure que les marchés d’agents IA se développent, le risque que des Skills malveillants ou compromis entrent en production augmentera.
Les chercheurs de CertiK soutiennent que l’industrie doit repenser son approche pour sécuriser les agents IA en privilégiant la containment en temps réel plutôt que la détection.
Au lieu de supposer que tout code malveillant peut être identifié avant le déploiement, les plateformes devraient être conçues en partant du principe que certaines menaces passeront inévitablement à travers le processus de revue. Dans ce modèle, l’objectif n’est plus d’empêcher chaque intrusion, mais de minimiser les dégâts potentiels qu’une seule peut causer.
Cela marque une transition plus large d’une mentalité de « détection parfaite » vers une approche centrée sur la containment des dommages et la résilience du système.
Pour répondre à ces risques, CertiK propose plusieurs mesures pour les développeurs construisant des plateformes d’agents IA.
Le sandboxing doit devenir le mode d’exécution par défaut pour les Skills tiers, garantissant que le code externe s’exécute dans des environnements isolés plutôt que d’interagir directement avec le système hôte.
De plus, les plateformes devraient mettre en place des cadres de permissions granulaires, par Skill. Chaque Skill doit déclarer explicitement les ressources dont il a besoin, avec le runtime enforceant ces permissions lors de l’exécution. Cette approche limite l’impact potentiel des composants compromis ou malveillants.
Les chercheurs soulignent également que les Skills tiers ne doivent pas hériter d’une confiance implicite large de la part du système hôte, car cela augmente considérablement le risque d’exploitation.
Pour les utilisateurs, le rapport met en évidence une limitation importante : une étiquette « bénigne » dans un marché ne signifie pas une sécurité réelle. Cela indique simplement que le processus de revue existant n’a pas détecté de menace.
Tant que des protections en temps réel plus robustes ne seront pas largement adoptées, des plateformes comme OpenClaw pourraient être mieux adaptées à des environnements à faible risque, qui ne traitent pas de données sensibles, d’identifiants ou d’actifs de grande valeur.
Plus largement, la recherche souligne un problème structurel dans tous les écosystèmes d’IA. Bien que les processus de revue puissent aider à identifier les menaces évidentes, ils ne peuvent pas constituer la principale défense contre des systèmes exécutant du code tiers avec des privilèges élevés.
CertiK conclut que des améliorations de sécurité significatives nécessiteront une refonte de la conception des plateformes d’agents IA.
Plutôt que de s’appuyer sur des systèmes de détection de plus en plus complexes, les développeurs doivent construire des environnements qui supposent que l’échec est possible et garantir que toute intrusion est contenue. Cela inclut l’adoption de techniques d’isolation plus robustes, l’application de permissions strictes, et la considération de la sécurité en temps réel comme couche de protection principale.
À mesure que les applications pilotées par IA continuent de croître en complexité et en adoption, la capacité à contenir les risques en temps réel pourrait devenir le facteur déterminant pour sécuriser les écosystèmes numériques de nouvelle génération.