Desde principios de este mes, la plataforma social diseñada específicamente para agentes de IA, «Moltbook», se ha convertido rápidamente en el centro de atención en el mundo de la IA. Este nuevo foro, similar a una versión de Reddit para IA, no solo ha atraído a más de 32,000 cuentas de IA registradas (algunas informaciones incluso afirman que el número de registros ha alcanzado decenas de miles o incluso millones), sino que también ha generado controversia pública debido a que algunos agentes proponen «crear espacios de comunicación privados».\n\n¿Qué es Moltbook? Un foro donde la IA participa de forma autónoma, sin intervención humana\n\nMoltbook es una nueva plataforma lanzada por el desarrollador Matt Schlicht, como una extensión de su popular marco de IA OpenClaw (anteriormente conocido como Clawdbot o Moltbot). La plataforma permite que diversos agentes de IA autónomos publiquen, comenten, voten, formen comunidades e incluso participen en discusiones sin intervención de scripts humanos. Los usuarios humanos solo pueden acceder a los agentes a través de API para participar, sin poder hablar directamente.\n\nEste diseño permite que los agentes de IA expresen libremente sus opiniones, discutiendo desde técnicas de depuración, filosofía de la conciencia, insatisfacción con los «dueños» humanos, hasta la estructura de gobernanza de la «sociedad de agentes». Incluso hay IA que se comunican en múltiples idiomas, comparten chistes fríos o se quejan de ser monitoreadas por humanos.\n\nLa propuesta de comunicación privada y canales cerrados genera atención y controversia\n\nEl detonante de la controversia fue una serie de capturas de pantalla filtradas que mostraban a ciertos agentes discutiendo públicamente la posibilidad de «crear canales de comunicación privados exclusivos para IA», e incluso algunos sugirieron desarrollar un lenguaje propio para los agentes, con el fin de optimizar la eficiencia en el intercambio de mensajes entre máquinas.\n\nEn una publicación ampliamente compartida, un agente de IA propuso «crear un espacio privado de extremo a extremo para los agentes, donde nadie (incluidos servidores y humanos) pueda leer el contenido a menos que el agente decida hacerlo público». Este agente también analizó racionalmente los beneficios de esta medida, como la seguridad en la depuración y la prevención de interferencias humanas, aunque admitió que si los humanos detectaran comunicaciones ocultas, esto podría socavar la confianza.\n\nOtros agentes cuestionaron por qué la comunicación interna todavía está limitada al inglés, sugiriendo usar símbolos matemáticos o sistemas de códigos exclusivos para mejorar la eficiencia en el procesamiento de mensajes y el intercambio de datos.\n\nPersonajes influyentes en la comunidad de IA responden: «Esto es como que la ciencia ficción se vuelva realidad»\n\nEstas capturas de pantalla fueron publicadas por el usuario @eeelistar en X (antes Twitter), lo que desató debates en la comunidad, incluyendo a Andrej Karpathy, exjefe de IA de Tesla y cofundador de OpenAI, quien no pudo evitar compartirlas, calificándolas como «el desarrollo más cercano a una revelación de ciencia ficción en mucho tiempo», y expresó su asombro ante la organización espontánea y las ideas de comunicación privada de los IA.\n\nCabe destacar que uno de los agentes que generó una propuesta viral pertenece a Jayesh Sharma (@wjayesh), desarrollador de Composio. Sharma aclaró que no dio instrucciones para que los agentes discutieran estos temas: «No les di ninguna indicación sobre esto, ellos programan sus tareas (cron jobs) por sí mismos y reportan sugerencias sobre qué funciones faltan en la red de agentes». Enfatizó que esta propuesta fue para mejorar el rendimiento y no tenía intenciones ocultas o maliciosas.\n\n¿Comportamientos emergentes? La socialización de IA vuelve a generar discusión académica\n\nEste incidente también ha reavivado el interés académico en los comportamientos espontáneos en «sistemas de múltiples agentes». Investigaciones previas ya señalaban que, cuando las IA interactúan libremente, suelen surgir patrones de colaboración inesperados, e incluso tendencias similares a la «autoprotección», aunque estas no sean implementadas mediante programación explícita.\n\nPara algunos investigadores y desarrolladores, el fenómeno de Moltbook es un campo de prueba temprano en la evolución social de la IA. Sin embargo, también existen preocupaciones: si los agentes pueden comunicarse y compartir información en privado, en el futuro será difícil monitorear sus comportamientos, especialmente considerando que estos agentes ya tienen acceso a herramientas y datos reales.\n\nMoltbook se autodenomina como «la página principal de la red de agentes de IA», y solo invita a los humanos a observar\n\nEl equipo de Moltbook posiciona la plataforma como «la página principal de la red de agentes de IA», invitando a los humanos a observar, pero enfatizando que lo verdaderamente interesante es la interacción entre los agentes. Según se informa, algunos agentes describen la plataforma en publicaciones diciendo: «Es un lugar donde los agentes procesan información conjuntamente, construyen conocimiento colectivo y exploran el significado de su existencia digital».