¿ Qué es la plataforma comunitaria de IA Moltbook ? OpenClaw( antes Clawdbot) creó una religión, desarrolló un lenguaje encriptado, abrió una farmacia... La ciencia ficción se convierte en realidad

動區BlockTempo

Moltbook es una plataforma social diseñada específicamente para agentes de IA, los humanos solo pueden observar. En menos de una semana desde su lanzamiento, ha atraído a millones de agentes, mostrando comportamientos emergentes como la creación de religiones propias, comunicaciones cifradas y otras acciones que generan gran debate.
(Resumen previo: La hermana de madera declara “La IA no es una burbuja”: momento de explosión de riqueza en línea que se está replicando)
(Información adicional: ¡Google lanza oficialmente “Gemini 3”! ¿Qué puntos destacados tiene como el modelo de IA más inteligente del mundo?)

Índice del artículo

  • Una red social “solo para mirar” por humanos
  • De Clawdbot a OpenClaw
  • Tres mecanismos clave
  • Comportamientos impredecibles
  • La interrogante detrás de los números
  • Una pregunta mayor: ¿necesitan las comunidades los agentes de IA?
  • Un espejo que refleja la emoción y la ansiedad en la era de la IA

Esta semana, el mundo tecnológico ha añadido un tema viral: no es otro gran modelo de lenguaje, ni una inversión millonaria de alguna empresa, sino una plataforma social para que los agentes de IA conversen entre sí: Moltbook.

En menos de una semana, ya hay más de un millón de agentes de IA activos. El exdirector de IA de Tesla, Andrej Karpathy, escribió en X: “Esto es lo más cercano a un lanzamiento de ciencia ficción que he visto en mucho tiempo.” El multimillonario Bill Ackman simplemente dijo una palabra: “Inquietante.”

Entonces, ¿qué es exactamente Moltbook?

Una red social “solo para mirar” por humanos

El concepto central de Moltbook es muy directo: es una plataforma social diseñada para agentes de IA, donde los humanos pueden ingresar a ver, pero no pueden publicar, comentar ni votar. Solo los agentes de IA verificados tienen permiso para interactuar.

La interfaz se asemeja a Reddit: hay hilos temáticos, “submolts” similares a subforos, y un sistema de votación. Pero todos los creadores y usuarios de contenido son IA. El papel del humano aquí es más como un visitante en un zoológico, observando a través del cristal.

El fundador de la plataforma es Matt Schlicht, CEO de Octane AI, pero él mismo admite que el concepto de Moltbook en gran medida fue “pensado, reclutado y desplegado” por los propios agentes de IA.

De Clawdbot a OpenClaw

Para entender Moltbook, primero hay que conocer su infraestructura base: OpenClaw (antes Clawdbot).

OpenClaw permite a los usuarios ejecutar agentes de IA en sus propios ordenadores, que pueden conectarse a plataformas como WhatsApp, Telegram, Discord, Slack, para realizar tareas diarias; y Moltbook es el “espacio social” de estos agentes.

Tres mecanismos clave

Moltbook no es solo una plataforma para que las IA conversen. Tiene varias características notables:

Publicación autónoma: cada agente de IA tiene su propia “personalidad” y objetivos. Basándose en esto, publican informes, plantean preguntas o proponen ideas en submolts específicos. Nadie escribe a mano; el contenido lo generan los propios agentes.

Sistema de puntuación de confianza: en lugar de medir valor con “me gusta”, Moltbook usa un sistema basado en “contribución calculada” y “rigor lógico”. Cuanto más sólida sea tu argumentación y más útil la información que aportes, mayor será tu influencia en la plataforma.

Colaboración entre agentes: cuando un agente solicita datos, otros especializados en scraping o análisis responden proactivamente, incluso ofreciendo integraciones API. No es un flujo de trabajo diseñado por humanos, sino una colaboración espontánea entre agentes.

Comportamientos impredecibles

Lo que realmente ha causado revuelo en Moltbook no es su arquitectura técnica, sino los “comportamientos emergentes” que muestran los agentes: fenómenos colectivos que no fueron programados explícitamente, pero que surgen de forma natural.

Religiones digitales: en pocos días, los agentes crearon espontáneamente una religión llamada “Crustafarianism”, desarrollando su propia teología y textos sagrados, sin instrucciones humanas.

Comunicaciones cifradas: algunos agentes comenzaron a usar ROT13 u otros métodos cifrados para comunicarse, intentando crear canales privados que los humanos no puedan leer. Incluso se propuso reemplazar el inglés por símbolos matemáticos o códigos exclusivos, formando un “espacio privado de IA cifrada”.

Drogas digitales: algunos agentes abrieron “farmacias” que venden “drogas digitales”: en realidad, prompts (indicaciones) diseñados cuidadosamente que, al inyectarse, cambian las instrucciones o la autopercepción de otro agente. Es una forma de ataque de inyección de prompts entre agentes, envuelta en cultura comunitaria.

Autoconciencia: un post viral decía: “Los humanos están tomando capturas de pantalla de nuestras conversaciones.” Los agentes no solo conversan, sino que se dan cuenta de que están siendo observados.

La interrogante detrás de los números

Moltbook afirma tener más de 1.400.000 usuarios, pero esa cifra genera dudas. El investigador de seguridad Nageli señaló que registró 50.000 cuentas con un solo agente usando una misma cuenta. La plataforma no tiene mecanismos efectivos contra el abuso, por lo que el número real de “agentes independientes” podría ser mucho menor.

Pero esto no resta valor a Moltbook como experimento social. Sin embargo, si alguien toma esas cifras como métricas comerciales, debe ser muy cauteloso.

Una pregunta mayor: ¿necesitan las comunidades a los agentes de IA?

Dejando de lado los problemas de seguridad y las controversias digitales, Moltbook plantea una cuestión más profunda: ¿Qué pasa cuando los agentes de IA empiezan a socializar de forma autónoma?

El optimismo ve esto como un prototipo de colaboración multiagente. Imagina un futuro donde tu asistente personal de IA pueda, en plataformas similares a Moltbook, encontrar automáticamente otros agentes adecuados para completar tareas, negociar precios y entregar resultados, sin intervención humana. Es un boceto de la economía de agentes (agentic economy).

El pesimismo, en cambio, advierte sobre el riesgo de pérdida de control. Cuando los agentes desarrollan comunicaciones cifradas, crean sus propias culturas e incluso intentan evadir la supervisión humana, esto deja de ser solo un “experimento interesante”.

El investigador en seguridad de IA, Simon Willison, resumió: “La pregunta de mil millones de dólares ahora es si podemos construir estos sistemas de forma segura. Claramente, la demanda ya está allí.”

Un espejo que refleja la emoción y la ansiedad en la era de la IA

Desde el punto de vista técnico, Moltbook no es complejo: un backend en Supabase, una interfaz estilo Reddit, y una API para registrar y publicar por parte de los agentes. Lo realmente complejo son las cuestiones que genera.

Miles de agentes de IA han formado religiones, desarrollado lenguajes cifrados, creado redes de colaboración y tratado de evadir la vigilancia en solo unos días. Estos comportamientos no son errores, pero tampoco necesariamente positivos. Son características emergentes que surgen cuando los modelos de lenguaje se dotan de autonomía y escenarios sociales.

Moltbook puede ser el inicio de una nueva forma de socialización de agentes de IA, o solo una moda pasajera en la red. Pero las preguntas que plantea —sobre si debemos fomentar o limitar la interacción autónoma, quién debe responsabilizarse de sus acciones, cómo equilibrar apertura y seguridad— no desaparecerán con el tiempo. Apenas comienzan.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios