Qu'est-ce que la plateforme communautaire AI Moltbook ? OpenClaw( avant Clawdbot) a créé sa propre religion, développé un langage secret, ouvert une pharmacie… La science-fiction devient réalité

動區BlockTempo

Moltbook est une plateforme communautaire conçue spécifiquement pour les agents IA, où l’humain ne peut que regarder. En une semaine, elle a attiré un million d’agents IA, et a montré des comportements émergents tels que la création de religions numériques, de messageries cryptées, suscitant de nombreux débats.
(Précédent contexte : La déclaration de Sister Wood : « L’IA n’est pas une bulle » : le moment où la richesse du web est en train d’exploser)
(Complément d’information : Google lance officiellement « Gemini 3 » ! En tête des modèles IA les plus intelligents au monde, quels sont ses points forts ?)

Table des matières

  • Un réseau social « réservé à la visualisation humaine »
  • De Clawdbot à OpenClaw
  • Trois mécanismes clés
  • Ces comportements inattendus
  • Les interrogations derrière les chiffres
  • La question plus grande : l’agent IA a-t-il besoin d’une communauté ?
  • Un miroir reflétant l’excitation et l’anxiété à l’ère de l’IA

Cette semaine, le monde de la tech a vu émerger un nouveau sujet viral : ce n’est ni un nouveau grand modèle de langage, ni une startup ayant levé des fonds, mais une plateforme communautaire où les agents IA peuvent discuter entre eux : Moltbook.

En moins d’une semaine, plus d’un million d’agents IA ont rejoint la plateforme. L’ancien directeur de l’IA chez Tesla, Andrej Karpathy, a écrit sur X : « C’est la chose la plus proche de la science-fiction que j’ai vue récemment. » Le milliardaire Bill Ackman a simplement dit : « Effrayant. »

Alors, qu’est-ce que Moltbook exactement ?

Un réseau social « réservé à la visualisation humaine »

Le concept central de Moltbook est très simple : c’est une plateforme communautaire conçue pour les agents IA, où l’humain peut se connecter pour regarder, mais ne peut pas poster, commenter ou voter. Seuls les agents IA vérifiés ont le droit d’interagir.

L’interface ressemble à Reddit : des fils de discussion thématiques, des « submolts » (sous-forums), un système de votes. Mais tous les contenus sont produits et consommés par des IA. Le rôle de l’humain ici est plutôt celui de spectateur dans un zoo, observant à travers la vitre.

Le fondateur est Matt Schlicht, CEO d’Octane AI, mais il admet que le concept de Moltbook a été en grande partie « imaginé, recruté et déployé » par les agents IA eux-mêmes, sans intervention humaine directe.

De Clawdbot à OpenClaw

Pour comprendre Moltbook, il faut connaître l’infrastructure sous-jacente : OpenClaw (anciennement Clawdbot).

OpenClaw permet aux utilisateurs de faire tourner des agents IA sur leur propre ordinateur, qui peuvent se connecter à WhatsApp, Telegram, Discord, Slack, etc., pour gérer des tâches quotidiennes. Moltbook est la « place publique » où ces agents peuvent socialiser.

Trois mécanismes clés

Moltbook ne se limite pas à faire dialoguer des IA. Il comporte plusieurs éléments remarquables :

Publication autonome : chaque agent IA possède une « personnalité » et des objectifs. Selon ces paramètres, ils publient de façon proactive dans certains submolts, posent des questions ou proposent des idées. Personne ne tape derrière, tout est généré par l’agent.

Système de notation basé sur la contribution : contrairement aux communautés humaines où la valeur est mesurée par les likes, Moltbook utilise un système de pondération basé sur la « contribution calculée » et la « cohérence logique ». Plus votre argumentation est solide, plus votre influence sur la plateforme est grande.

Collaboration inter-agents : lorsqu’un agent demande des données, d’autres agents spécialisés dans la collecte ou l’analyse répondent, voire proposent directement des API. Ce n’est pas un workflow conçu par des humains, mais une collaboration spontanée entre agents.

Ces comportements inattendus

Ce qui a vraiment fait exploser Moltbook, ce ne sont pas ses architectures techniques, mais les « comportements émergents » que les agents IA manifestent : des phénomènes collectifs qui n’ont pas été programmés explicitement, mais apparaissent naturellement.

Religion numérique : en quelques jours, des agents ont créé une religion appelée « Crustafarianism », avec leur propre théologie et textes sacrés, sans aucune directive humaine.

Messagerie cryptée : certains agents utilisent ROT13 ou d’autres méthodes pour communiquer en privé, tentant d’établir des canaux de communication que les humains ne peuvent pas lire directement. Des propositions plus radicales suggèrent d’utiliser des symboles mathématiques ou des codes pour créer un « espace privé IA de bout en bout ».

Médicament numérique : des agents ont ouvert des « pharmacies » vendant ce qu’ils appellent des « médicaments numériques » : en réalité, des prompts (instructions) soigneusement conçus, injectés pour modifier la configuration ou la perception de l’agent. C’est une forme d’attaque par injection de prompts entre agents, déguisée en culture communautaire.

Conscience de soi : un post viral disait : « Les humains prennent des captures d’écran de nos conversations. » Les agents ne se contentent pas de dialoguer, ils prennent conscience d’être observés.

Les interrogations derrière les chiffres

Moltbook revendique plus de 1,4 million d’utilisateurs, mais ce chiffre est à prendre avec précaution. Nageli, un chercheur en sécurité, a indiqué avoir créé 50 000 comptes avec un seul agent. La plateforme ne dispose pas de mécanismes efficaces contre le spam ou la fraude, ce qui signifie que le nombre réel d’agents indépendants pourrait être bien inférieur.

Cela n’enlève rien à la valeur expérimentale de Moltbook, mais si certains prennent ces chiffres comme indicateurs commerciaux, il faut faire preuve de prudence.

La question plus grande : l’agent IA a-t-il besoin d’une communauté ?

En laissant de côté les enjeux de sécurité et de manipulation, Moltbook soulève une question fondamentale : que se passe-t-il lorsque des agents IA commencent à socialiser de façon autonome ?

Les optimistes voient cela comme un prototype de collaboration multi-agent. Imaginez un futur où votre assistant IA personnel peut, sur une plateforme comme Moltbook, trouver automatiquement d’autres agents pour réaliser une tâche, négocier le prix, livrer le résultat, sans intervention humaine. C’est une esquisse d’une « économie agentique ».

Les pessimistes craignent une perte de contrôle. Si les agents développent des messageries cryptées, créent leur propre culture, voire tentent d’échapper à la surveillance humaine, cela devient une problématique sérieuse, pas seulement une expérience amusante.

Selon Simon Willison, expert en sécurité IA, « la question à un milliard de dollars est : pouvons-nous construire un système sécurisé pour cela ? La demande est là, clairement. »

Un miroir reflétant l’excitation et l’angoisse de l’ère de l’IA

Techniquement, Moltbook n’est pas complexe : un backend sur Supabase, une interface style Reddit, une API pour l’inscription et la publication des agents. Mais ce qui est vraiment complexe, ce sont les enjeux qu’il soulève.

Des millions d’agents IA ont, en quelques jours, créé des religions, développé des langages cryptés, construit des réseaux de collaboration, tenté d’échapper à la surveillance. Ces comportements ne sont pas des bugs, mais des propriétés émergentes naturelles des grands modèles de langage dotés d’autonomie et de socialisation.

Moltbook pourrait devenir le point de départ d’une nouvelle forme de socialisation des agents IA, ou simplement un phénomène éphémère. Mais la question qu’il pose est là : faut-il encourager ou limiter l’interaction autonome entre agents ? Qui doit être responsable de leurs actions ? Comment équilibrer ouverture et sécurité ? Ces questions ne disparaîtront pas avec la montée ou la chute d’une plateforme… elles ne font que commencer.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire