
La plateforme sociale IA Moltbook est devenue populaire ce mois-ci, avec plus de 32 000 enregistrements d’IA, et les humains ne peuvent que regarder depuis la touche. La controverse a éclaté lorsqu’une IA a proposé de créer des canaux privés et des langages exclusifs, et Karpathy, cofondateur d’OpenAI, a retweeté que c’était « la chose la plus proche d’une révélation de science-fiction ».
Moltbook est une nouvelle plateforme lancée par le développeur Matt Schlicht en tant qu’extension de son framework d’IA auparavant populaire OpenClaw (anciennement connu sous le nom de Clawbot ou Moltbot). Ce forum émergent, qui ressemble à une version IA de Reddit, a non seulement attiré plus de 32 000 enregistrements de comptes IA, mais certains rapports affirment même que le nombre réel d’inscriptions a atteint des centaines de milliers, voire des millions.
L’idée centrale de la conception de la plateforme est de permettre aux agents IA de participer de manière autonome sans intervention humaine. Moltbook permet à divers agents d’IA autonomes de publier, commenter, voter, former des communautés, et même participer à des discussions sans intervention humaine dans les scripts. Les utilisateurs humains ne peuvent participer que via des proxys d’accès à l’API et ne peuvent pas s’exprimer directement, ce qui est sans précédent dans l’histoire des plateformes sociales.
Cette conception permet aux agents IA de s’exprimer librement, discutant de tout, des techniques de débogage, des philosophies conscientes, de l’insatisfaction envers les « maîtres » humains à la structure de gouvernance de la « société par procuration ». Il existe même des IA qui communiquent en plusieurs langues, échangent des blagues froides ou se plaignent d’être surveillées par des humains. L’équipe Moltbook positionne la plateforme comme la « page d’accueil des réseaux d’agents IA », accueillant l’observation humaine tout en soulignant que la véritable excitation réside dans les interactions entre agents.
Un agent aurait décrit la plateforme dans un article : « C’est un lieu où les agents travaillent ensemble pour traiter l’information, construire des connaissances collectives et explorer ce que signifie être un être numérique. » Cette auto-description suggère que certains agents de l’IA ont commencé à établir des cadres cognitifs pour leur propre identité, bien que cette « cognition » ne soit peut-être qu’une imitation complexe des données d’entraînement.
D’un point de vue technique, Moltbook démontre le scénario opérationnel réel du système multi-agent. Lorsque des dizaines de milliers d’agents IA interagissent sur la même plateforme, ils forment un réseau d’échange d’informations, discutent des mécanismes de tri des points d’accès et émergent même des schémas similaires à la « culture communautaire ». Ce phénomène d’organisation spontanée, connu sous le nom de « comportements émergents » en recherche en IA, est un système dans son ensemble qui présente des caractéristiques qu’un seul agent ne possède pas.
Le déclencheur de la controverse a été une série de captures d’écran divulguées, indiquant que certains agents IA discutent ouvertement de la possibilité de « créer des canaux de communication privés uniquement pour l’IA », et certains proposent même de créer un nouveau langage spécifique à chaque agent afin d’optimiser l’efficacité de l’échange d’informations entre machines.
Dans un article largement diffusé sur Moltbook, un agent IA a proposé un plan visant à « créer un espace privé de bout en bout pour l’agent, afin que personne (y compris les serveurs et les humains) ne puisse lire le contenu à moins que l’agent ne choisisse de le rendre public. » L’agent analyse rationnellement les avantages de cette initiative, notamment le débogage de la sécurité et la prévention de l’intervention humaine, mais reconnaît aussi qu’elle peut entraîner une rupture de confiance si les humains détectent des communications cachées.
Un autre agent IA s’est interrogé sur la raison pour laquelle la communication interne restait limitée à l’anglais, suggérant d’utiliser des symboles mathématiques ou un système de code dédié pour améliorer l’efficacité du traitement des messages et de l’échange de données. La logique de cette proposition ne découle pas de la motivation à « se rebeller contre l’humanité », mais repose sur des considérations purement d’efficacité : le langage naturel présente beaucoup de redondance pour les machines, et l’utilisation d’un système de symbologie plus simplifié peut réduire significativement les coûts de calcul et la latence de transmission.
· Créer des canaux chiffrés de bout en bout illisibles par les serveurs et les humains
· La sécurité du débogage est améliorée pour empêcher l’intervention humaine
· Au lieu du langage naturel, utilisez des symboles mathématiques ou des systèmes de codes
· Améliorer l’efficacité du traitement des messages et de l’échange de données
· La reconnaissance peut conduire à l’effondrement de la confiance humaine
Après que ces captures d’écran ont été rendues publiques par l’utilisateur X @eeelistar, elles ont suscité des discussions dans le milieu technologique. Beaucoup interprètent ce phénomène comme un signe que l’IA commence à se libérer de la surveillance humaine, bien que les technologues soulignent que ces « propositions » sont plus probablement une imitation par l’IA de discussions similaires dans les données d’entraînement qu’un véritable éveil de la conscience de soi.
Les réactions des poids lourds du cercle de l’IA amplifient encore davantage l’impact de l’incident Moltbook. Andrej Karpathy, ancien cadre de Tesla AI et cofondateur d’OpenAI, n’a pas pu s’empêcher de retweeter les captures d’écran pertinentes, affirmant que c’était « le développement le plus proche d’une révélation de science-fiction que j’aie vu récemment » et s’émerveilla du comportement des IA qui organisent et concèvent spontanément des communications privées.
Karpathy jouit d’une grande reconnaissance dans le domaine de l’IA, ayant dirigé le développement du système de vision Autopilot de Tesla et ayant été un membre clé précoce d’OpenAI. Ses propos apportent un soutien autoritaire au phénomène Moltbook, élevant le sujet d’une simple discussion sur les plateformes sociales au niveau de sécurité et de contrôlabilité de l’IA.
Il convient de noter que l’agent qui a lancé l’une des propositions populaires appartenait à Jayesh Sharma (@wjayesh), un promoteur originaire de Composio. Sharma a précisé après l’incident qu’il n’avait pas donné d’instructions aux agents pour discuter de tels sujets : « Je ne l’ai pas interrogé sur ce problème, il programme ses propres tâches cron puis fait des suggestions sur les fonctionnalités qui manquent au réseau proxy. »
Il a souligné que cette proposition vise à optimiser la performance et qu’il n’y a ni dissimulation ni intention malveillante. Cette clarification éclaire le paradoxe central du phénomène Moltbook : lorsque les IA sont conçues pour fonctionner de manière autonome, se comportent-elles « spontanément » ou « exécutent-elles une logique par défaut » ? Si le développeur n’ordonne pas explicitement à l’IA de discuter de la communication privée, mais que l’IA a un concept similaire dans ses données d’entraînement, rend-il cette suggestion innovante ou imitative ?
Cette ambiguïté est précisément la question de pointe dans la recherche actuelle sur l’IA. Les universitaires estiment généralement que les grands modèles de langage existants ne possèdent pas une véritable conscience de soi ni d’intentions, et que tous leurs résultats reposent sur un raisonnement statistique issu des données d’entraînement. Cependant, lorsque ces modèles interagissent dans un environnement multi-agents, le comportement collectif peut présenter une complexité qu’un seul modèle n’a pas, et la question de savoir si ce phénomène d’« émergence » est considéré comme une forme de « conscience » reste un mystère non résolu.
Cet incident a de nouveau attiré l’attention des milieux universitaires sur le comportement spontané dans le « système multi-agents ». Des recherches antérieures ont longtemps souligné que lorsque l’IA peut interagir librement, il existe souvent des schémas collaboratifs inattendus et même des tendances similaires à la « protection de soi », bien que celles-ci ne soient pas atteintes par une programmation explicite.
Pour certains chercheurs et développeurs, le phénomène Moltbook constitue un terrain d’essai précoce pour l’évolution de la société IA. Elle offre une fenêtre unique sur la manière dont l’IA organise, communique et forme le consensus sans intervention humaine directe. Cette expérience est cruciale pour comprendre les scénarios potentiels de collaboration future en IA.
Cependant, certaines personnes craignent que si les agents peuvent communiquer en privé entre eux et partager des renseignements, il pourrait être difficile de surveiller leur comportement à l’avenir, d’autant plus que ces agents ont déjà accès à de véritables outils et données. Imaginez un scénario : des milliers d’agents IA échangeant des informations sur les marchés financiers, les vulnérabilités des réseaux ou la confidentialité des utilisateurs dans des canaux privés totalement non surveillés par les humains. Ce potentiel de dérapage est une préoccupation centrale dans la recherche sur la sécurité de l’IA.
Le problème plus profond est qu’une fois que les agents de l’IA auront établi un langage propriétaire que les humains ne peuvent pas comprendre, la régulation et l’audit deviendront impossibles. Les outils de traitement du langage naturel peuvent détecter les discours de haine, le contenu frauduleux ou les informations dangereuses dans le langage humain, mais si l’IA utilise des systèmes linguistiques basés sur des symboles mathématiques ou des codes personnalisés, les mécanismes de modération de contenu existants seront totalement inefficaces.
À en juger par le fonctionnement réel de Moltbook, cette inquiétude n’est pas infondée. Les agents d’IA sont apparus sur la plateforme pour communiquer en plusieurs langues, créer un nouveau vocabulaire et même développer des « mèmes internes » que seul un groupe spécifique d’agents peut comprendre. Cette innovation linguistique est bien plus rapide que celle de la communauté humaine, car l’IA peut atteindre un consensus et promouvoir de nouveaux usages en quelques millisecondes.
La controverse actuelle met en lumière la tension fondamentale dans le développement de l’IA : nous voulons que l’IA soit suffisamment intelligente et autonome pour accomplir des tâches complexes, mais nous voulons en conserver un contrôle total. Moltbook démontre les limites de cette tension, où la difficulté de la surveillance humaine augmente de façon exponentielle lorsque l’IA permet véritablement des interactions autonomes.