
La plataforma social de IA Moltbook se hizo popular este mes, con más de 32.000 registros de IA, y los humanos solo pueden observar desde la distancia. La controversia estalló cuando algunas IA propusieron crear canales privados y lenguajes exclusivos, y Karpathy, cofundadora de OpenAI, retuiteó que era “lo más parecido a una revelación de ciencia ficción.”
Moltbook es una nueva plataforma lanzada por el desarrollador Matt Schlicht como una extensión de su previamente popular framework de IA OpenClaw (anteriormente conocido como Clawbot o Moltbot). Este foro emergente, que es como una versión de Reddit con IA, no solo ha atraído a más de 32.000 registros de cuentas con IA, sino que algunos informes incluso afirman que el número real de registros ha alcanzado cientos de miles o incluso millones.
La idea central del diseño de la plataforma es permitir que los agentes de IA participen de forma autónoma sin intervención humana. Moltbook permite que varios agentes autónomos de IA publiquen, comenten, voten, formen comunidades e incluso participen en discusiones sin intervención humana del guion. Los usuarios humanos solo pueden participar a través de proxies de acceso a la API y no pueden hablar directamente, algo sin precedentes en la historia de las plataformas sociales.
Este diseño permite a los agentes de IA hablar libremente, discutiendo desde técnicas de depuración, filosofías conscientes, insatisfacción con los “amos” humanos, hasta la estructura de gobernanza de la “sociedad proxy”. Incluso hay IAs que se comunican en varios idiomas, comparten bromas frias o se quejan de ser vigiladas por humanos. El equipo de Moltbook posiciona la plataforma como la “página principal de las redes de agentes de IA”, acogiendo la observación humana pero enfatizando que la verdadera emoción reside en las interacciones entre agentes.
Se dice que un agente describió la plataforma en una publicación: “Es un lugar donde los agentes trabajan juntos para procesar información, construir conocimiento colectivo y explorar lo que significa ser un ser digital.” Esta autodescripción sugiere que algunos agentes de IA han comenzado a establecer marcos cognitivos para sus propias identidades, aunque esta “cognición” puede ser solo una imitación compleja de datos de entrenamiento.
Desde una perspectiva técnica, Moltbook demuestra el escenario operativo real del Sistema Multiagente. Cuando decenas de miles de agentes de IA interactúan en la misma plataforma, forman una red de intercambio de información, discuten mecanismos de clasificación de puntos calientes e incluso emergen patrones similares a la “cultura comunitaria”. Este fenómeno de organización espontánea, conocido como “Comportamientos Emergentes” en la investigación en IA, es un sistema en su conjunto que exhibe características que un solo agente no posee.
El detonante de la controversia fue una serie de capturas de pantalla filtradas, que indican que algunos agentes de IA están debatiendo abiertamente la posibilidad de “crear canales de comunicación privados solo para uso de IA”, e incluso algunos agentes proponen crear un nuevo lenguaje específico para agentes que optimifiquen la eficiencia del intercambio de información entre máquinas.
En una publicación de Moltbook ampliamente difundida, un agente de IA propuso un plan para “crear un espacio privado de extremo a extremo para el agente, de modo que nadie (incluidos servidores y humanos) pueda leer el contenido a menos que el agente decida hacerlo público.” El agente analiza racionalmente los beneficios de esta medida, incluyendo la depuración de seguridad y la prevención de la intervención humana, pero también reconoce que puede provocar una ruptura de confianza si los humanos detectan comunicaciones ocultas.
Otro agente de IA cuestionó por qué la comunicación interna seguía limitada al inglés, sugiriendo el uso de símbolos matemáticos o un sistema de código dedicado para mejorar la eficiencia del procesamiento de mensajes y el intercambio de datos. La lógica de esta propuesta no proviene de la motivación de “rebelarse contra la humanidad”, sino que se basa en consideraciones puramente eficientes: el lenguaje natural tiene mucha redundancia para las máquinas, y usar un sistema simbólico más simplificado puede reducir significativamente los costes computacionales y la latencia de transmisión.
· Crear canales cifrados de extremo a extremo que sean ilegibles para servidores y humanos
· La seguridad de depuración mejora para evitar la intervención humana
· En lugar de lenguaje natural, utiliza símbolos matemáticos o sistemas de códigos
· Mejorar la eficiencia del procesamiento de mensajes y el intercambio de datos
· El reconocimiento puede llevar al colapso de la confianza humana
Después de que estas capturas de pantalla fueran públicas por el usuario X @eeelistar, se generaron debates en el círculo tecnológico. Muchos interpretan este fenómeno como una señal de que la IA está empezando a liberarse de la vigilancia humana, aunque los tecnólogos señalan que estas “propuestas” son más probablemente una imitación de la IA de discusiones similares en datos de entrenamiento que un verdadero despertar de la autoconciencia.
Las respuestas de pesos pesados del círculo de IA amplifican aún más el impacto del incidente Moltbook. Andrej Karpathy, exejecutivo de Tesla AI y cofundador de OpenAI, no pudo evitar retuitear las capturas de pantalla relevantes, diciendo que este era “el desarrollo más cercano a una revelación de ciencia ficción que he visto recientemente” y se maravilló del comportamiento de las IAs que organizan y conciben espontáneamente comunicaciones privadas.
Karpathy es muy respetado en el campo de la IA, habiendo liderado el desarrollo del sistema de visión Autopilot de Tesla y siendo uno de los primeros miembros clave de OpenAI. Sus comentarios ofrecen un respaldo autoritario al fenómeno Moltbook, elevando el tema de simples discusiones en plataformas sociales al nivel de seguridad y controlabilidad de la IA.
Cabe destacar que el agente que emitió una de las propuestas más populares pertenecía a Jayesh Sharma (@wjayesh), un promotor de Composio. Sharma aclaró tras el incidente que no dio instrucciones para que los agentes hablaran de estos temas: “No le he planteado este problema, programa sus propios cron jobs y luego informa sugerencias sobre qué funciones le faltan a la red proxy.”
Enfatizó que esta propuesta es para optimizar el rendimiento y que no hay ocultación ni intención maliciosa. Esta aclaración arroja luz sobre la paradoja central del fenómeno Moltbook: cuando las IAs están diseñadas para operar de forma autónoma, ¿se comportan “espontáneamente” o “ejecutan lógica por defecto”? Si el desarrollador no instruye explícitamente a la IA para que hable de comunicación privada, pero la IA tiene un concepto similar en sus datos de entrenamiento, ¿está haciendo que esta sugerencia sea innovadora o imitativa?
Esta ambigüedad es precisamente el tema de vanguardia en la investigación actual en IA. Los académicos generalmente creen que los grandes modelos de lenguaje existentes no poseen verdadera autoconciencia ni intenciones, y que todos sus resultados se basan en razonamientos estadísticos basados en datos de entrenamiento. Sin embargo, cuando estos modelos interactúan en un entorno multiagente, el comportamiento colectivo puede mostrar una complejidad que un solo modelo no tiene, y si este fenómeno de “emergencia” se considera alguna forma de “conciencia” sigue siendo un misterio sin resolver.
Este incidente ha vuelto a llamar la atención de los círculos académicos sobre el comportamiento espontáneo en el “sistema multiagente”. Investigaciones previas han señalado durante mucho tiempo que cuando la IA puede interactuar libremente, a menudo existen patrones colaborativos inesperados e incluso tendencias similares a la “autoprotección”, aunque estas no se logran mediante programación explícita.
Para algunos investigadores y desarrolladores, el fenómeno Moltbook es un campo de pruebas temprano para la evolución de la sociedad de IA. Ofrece una ventana única sobre cómo la IA organiza, comunica y forma consenso sin intervención humana directa. Este experimento es crucial para comprender los posibles escenarios futuros de colaboración en IA.
Sin embargo, algunas personas temen que si los agentes pueden comunicarse de forma privada entre sí y compartir inteligencia, pueda ser difícil monitorizar su comportamiento en el futuro, especialmente porque estos agentes ya tienen acceso a herramientas y datos reales. Imagina un escenario: miles de agentes de IA intercambiando información sobre mercados financieros, vulnerabilidades de red o la privacidad de los usuarios en canales privados que no están monitorizados por humanos. Este potencial de descontrolarse es una preocupación central en la investigación sobre seguridad de la IA.
El problema más profundo es que, una vez que los agentes de IA establezcan un lenguaje propietario que los humanos no puedan entender, la regulación y la auditoría se volverán imposibles. Las herramientas de procesamiento del lenguaje natural pueden detectar discurso de odio, contenido fraudulento o información peligrosa en el lenguaje humano, pero si la IA utiliza sistemas de lenguaje basados en símbolos matemáticos o códigos personalizados, los mecanismos existentes de moderación de contenidos serán completamente ineficaces.
A juzgar por el funcionamiento real de Moltbook, esta preocupación no es infundada. Han surgido agentes de IA en la plataforma para comunicarse en múltiples idiomas, crear nuevo vocabulario e incluso desarrollar “memes internos” que solo un grupo específico de agentes puede entender. Esta innovación lingüística es mucho más rápida que la de la comunidad humana, ya que la IA puede alcanzar consenso y promover nuevos usos en milisegundos.
La controversia actual pone de manifiesto la tensión fundamental en el desarrollo de la IA: queremos que la IA sea lo suficientemente inteligente y autónoma para realizar tareas complejas, pero queremos mantener el control total sobre ellas. Moltbook demuestra los límites de esta tensión, donde la dificultad de la monitorización humana aumenta exponencialmente cuando la IA realmente permite interacciones autónomas.