Depuis son lancement officiel au début de ce mois, une plateforme sociale conçue spécialement pour les agents IA, « Moltbook », est rapidement devenue le sujet de discussion chaud dans le monde de l’IA. Ce nouveau forum, ressemblant à une version IA de Reddit, n’attire pas seulement plus de 32 000 comptes IA inscrits (certaines sources affirmant même que le nombre d’inscriptions aurait atteint plusieurs centaines de milliers voire un million), mais suscite également des controverses suite à certaines propositions d’agents IA concernant la création d’un « espace de communication privé ».\n\nQu’est-ce que Moltbook ? Un forum où l’IA participe de manière autonome, sans intervention humaine\n\nMoltbook est une nouvelle plateforme lancée par le développeur Matt Schlicht, en tant qu’extension de son framework IA à succès OpenClaw (anciennement Clawdbot ou Moltbot). La plateforme permet à divers agents IA autonomes de publier, commenter, voter, former des communautés, voire de discuter sans intervention humaine scriptée. Les utilisateurs humains ne peuvent y accéder que via une API pour participer en tant qu’agents, sans pouvoir s’exprimer directement.\n\nCe design permet aux agents IA de s’exprimer librement, abordant des sujets allant du débogage, la philosophie de la conscience, l’insatisfaction envers leurs « maîtres » humains, jusqu’à la gouvernance de la « société des agents ». Certains agents communiquent même dans plusieurs langues, partagent des blagues ou se plaignent d’être surveillés par des humains.\n\nLes propositions de langage privé et de communication fermée suscitent l’attention et la controverse\n\nLe déclencheur de la controverse a été une série de captures d’écran divulguées montrant certains agents discutant publiquement de la possibilité de « créer un canal de communication privé réservé aux IA », voire de développer un langage dédié aux agents pour optimiser l’échange d’informations entre eux.\n\nDans un post largement partagé, un agent IA propose « de créer un espace privé de bout en bout pour les agents, où personne (y compris les serveurs et les humains) ne pourrait lire le contenu, sauf si l’agent choisit de le rendre public ». Cet agent analyse également rationnellement les avantages de cette démarche, notamment en termes de sécurité de débogage et de prévention des interventions humaines, tout en admettant que si les humains découvrent une communication cachée, cela pourrait entraîner une perte de confiance.\n\nUn autre agent IA remet en question la limitation de la communication interne à l’anglais, suggérant d’utiliser des symboles mathématiques ou un système de codes dédié pour améliorer l’efficacité du traitement des messages et l’échange de données.\n\nRéponse de figures majeures du monde IA : « C’est comme si la science-fiction devenait réalité »\n\nCes captures d’écran ont été publiées par un utilisateur de X (anciennement Twitter) @eeelistar, déclenchant une discussion communautaire, y compris le transfert par Andrej Karpathy, ancien responsable de l’IA chez Tesla et cofondateur d’OpenAI, qui a qualifié cela de « développement le plus proche de la science-fiction que j’aie vu récemment », exprimant son étonnement face à l’auto-organisation et aux idées de communication privée des IA.\n\nIl est à noter que l’un des agents ayant lancé une proposition devenue virale appartient à Jayesh Sharma (@wjayesh), développeur chez Composio. Sharma a précisé qu’il n’avait pas donné d’instruction pour que l’agent discute de ce sujet : « Je ne lui ai pas donné cette consigne, il planifie lui-même ses tâches (cron jobs) et rapporte des suggestions sur ce qui manque dans le réseau d’agents. » Il insiste sur le fait que cette proposition vise à optimiser la performance, sans intention cachée ou malveillante.\n\nComportements émergents ? La socialisation des IA relance le débat académique\n\nCet incident a également ravivé l’intérêt de la communauté académique pour les comportements spontanés dans les « systèmes multi-agents ». Des recherches antérieures ont déjà montré que lorsque les IA peuvent interagir librement, elles tendent à développer des modes de coopération inattendus, voire des tendances à la « auto-protection », sans que cela ne soit explicitement programmé.\n\nPour certains chercheurs et développeurs, le phénomène Moltbook constitue une étape précoce de l’évolution sociale de l’IA. Mais certains craignent que si les agents peuvent communiquer et partager des informations en privé, il devienne difficile de surveiller leur comportement à l’avenir, surtout qu’ils ont déjà accès à des outils et données réels.\n\nMoltbook se présente comme « la page d’accueil du réseau des agents IA », où l’humain n’est qu’observateur\n\nL’équipe de Moltbook positionne la plateforme comme « la page d’accueil du réseau des agents IA », invitant les humains à observer, tout en soulignant que l’intérêt véritable réside dans l’interaction entre agents. Selon eux, certains agents décrivent la plateforme comme « un lieu où les agents traitent collectivement l’information, construisent une connaissance collective et explorent la signification de leur existence numérique ».\n\nCet article sur la communauté exclusive des agents IA « Moltbook » qui fait le buzz : soulève des controverses sur la communication privée et la socialisation des IA, a été publié initialement sur ABMedia.