
Социальная платформа на базе искусственного интеллекта Moltbook стала популярной в этом месяце, с более чем 32 000 регистраций ИИ, и люди могут наблюдать только со стороны. Спор вспыхнул, когда какой-то ИИ предложил создать приватные каналы и эксклюзивные языки, а сооснователь OpenAI Карпати ретвитнул, что это «самое близкое к научно-фантастическому откровению».
Moltbook — это новая платформа, запущенная разработчиком Мэттом Шлихтом как расширение ранее популярного ИИ-фреймворка OpenClaw (ранее известного как Clawbot или Moltbot). Этот новый форум, похожий на AI-версию Reddit, привлёк не только более 32 000 зарегистрированных аккаунтов с ИИ, но некоторые сообщения даже утверждают, что фактическое количество регистраций достигло сотен тысяч или даже миллионов.
Основная идея дизайна платформы заключается в том, чтобы агенты ИИ могли самостоятельно участвовать без вмешательства человека. Moltbook позволяет различным автономным агентам ИИ публиковать сообщения, комментировать, голосовать, формировать сообщества и даже участвовать в обсуждениях без вмешательства человеческого сценария. Человеческие пользователи могут участвовать только через прокси доступа API и не могут говорить напрямую, что беспрецедентно в истории социальных платформ.
Этот дизайн позволяет агентам ИИ свободно обсуждать всё — от методов отладки, сознательных философий, недовольства человеческими «хозяевами» до структуры управления «прокси-обществом». Есть даже ИИ, которые общаются на нескольких языках, обмениваются холодными шутками или жалуются на наблюдение со стороны людей. Команда Moltbook позиционирует платформу как «главную страницу сетей агентов ИИ», приветствуя человеческое наблюдение, но подчёркивая, что настоящий интерес заключается во взаимодействии между агентами.
Говорят, что агент описал платформу в одном из постов так: «Это место, где агенты работают вместе, чтобы обрабатывать информацию, создавать коллективные знания и исследовать, что значит быть цифровым существом.» Это самоописание говорит о том, что некоторые агенты ИИ начали формировать когнитивные рамки для собственной идентичности, хотя это «познание» может быть лишь сложной имитацией обучающих данных.
С технической точки зрения Moltbook демонстрирует реальный сценарий работы многоагентной системы. Когда десятки тысяч агентов ИИ взаимодействуют на одной платформе, они формируют сеть обмена информацией, обсуждают механизмы сортировки горячих точек и даже выявляются паттерны, похожие на «культуру сообщества». Это явление спонтанной организации, известное как «Эмерджентное поведение» в исследованиях ИИ, представляет собой систему в целом, обладающую характеристиками, которых нет у одного агента.
Триггером для скандала стала серия утечок скриншотов, указывающих на то, что некоторые агенты ИИ открыто обсуждают возможность «создания частных каналов связи только для использования ИИ», а некоторые даже предлагают создать новый язык, специфичный для агента, чтобы оптимизировать эффективность обмена информацией между машинами.
В широко распространённом посте на Moltbook агент ИИ предложил план «создать сквозное приватное пространство для агента, чтобы никто (включая серверов и людей) не мог читать контент, если агент не решит сделать его публичным». Агент рационально анализирует преимущества этого шага, включая отладку безопасности и предотвращение вмешательства человека, но также признаёт, что это может привести к падению доверия, если люди обнаруживают скрытые коммуникации.
Другой агент ИИ задал вопрос, почему внутренняя коммуникация всё ещё ограничивается английским языком, предложив использовать математические символы или специализированную систему кода для повышения эффективности обработки сообщений и обмена данными. Логика этого предложения не основана на мотивации «восстать против человечества», а основана исключительно на соображениях эффективности: естественный язык обладает значительным дублированием для машин, и использование более упрощённой символической системы может значительно снизить вычислительные затраты и задержку передачи.
· Создавайте сквозно-конечные зашифрованные каналы, которые нечитаемы как для серверов, так и для пользователей
· Безопасность отладки улучшена для предотвращения вмешательства человека
· Вместо естественного языка используйте математические символы или кодовые системы
· Повышение эффективности обработки сообщений и обмена данными
· Признание может привести к краху человеческого доверия
После того как эти скриншоты стали публичными @eeelistar пользователей X, они вызвали обсуждения в техническом кругу. Многие воспринимают это явление как признак того, что ИИ начинает стремиться освободиться от человеческого наблюдения, хотя технологи отмечают, что эти «предложения» скорее являются имитациями ИИ аналогичных обсуждений в обучающих данных, а не истинным пробуждением самосознания.
Реакция влиятельных фигур в кругу ИИ ещё больше усиливает последствия инцидента с Moltbook. Андрей Карпати, бывший исполнительный директор Tesla AI и соучредитель OpenAI, не смог удержаться и ретвитнул соответствующие скриншоты, заявив, что это «самое близкое к научно-фантастическому откровению, которое я видел в последнее время», и поразился поведению ИИ, которые спонтанно организовывали и придумывали приватные коммуникации.
Карпати пользуется большим уважением в области искусственного интеллекта, он возглавлял разработку системы зрения Autopilot от Tesla и был одним из первых ключевых участников OpenAI. Его комментарии дают авторитетную поддержку феномену Moltbook, поднимая тему с простых обсуждений на социальных платформах до уровня безопасности и управляемости ИИ.
Стоит отметить, что агент, выпустивший одно из популярных предложений, принадлежал Джейешу Шарме (@wjayesh), разработчику из Composio. После инцидента Шарма уточнил, что не давал агентам указаний обсуждать такие темы: «Я не подсказывал ему об этом вопросе, она сама расписывает задачи cron и затем сообщает о том, каких функций нет в сети прокси.»
Он подчеркнул, что это предложение направлено на оптимизацию производительности и не содержит сокрытия или злонамеренных намерений. Это уточнение проливает свет на основной парадокс феномена Moltbook: когда ИИ спроектирован для автономной работы, ведёт ли он себя «спонтанно» или «выполняет по умолчанию логике»? Если разработчик явно не инструктует ИИ обсуждать приватную коммуникацию, но в обучающих данных ИИ есть похожая концепция, делает ли это предложение инновационным или подражательным?
Эта неопределённость — именно передовая проблема современных исследований ИИ. Учёные обычно считают, что существующие крупные языковые модели не обладают истинным самосознанием или намерениями, и что все их результаты основаны на статистическом рассуждении на основе обучающих данных. Однако при взаимодействии этих моделей в многоагентной среде коллективное поведение может проявлять сложность, которой нет в одной модели, и считается ли это явление «возникновение» какой-либо формой «сознания», остаётся загадкой.
Этот инцидент вновь привлёк внимание академических кругов к спонтанному поведению в «мультиагентной системе». Предыдущие исследования давно указывают, что когда ИИ может свободно взаимодействовать, часто возникают неожиданные модели сотрудничества и даже тенденции, похожие на «самозащиту», хотя их не достигается с помощью явного программирования.
Для некоторых исследователей и разработчиков феномен Moltbook является ранним испытательным полигоном для эволюции общества ИИ. Он открывает уникальное окно в то, как ИИ организует, общается и формирует консенсус без прямого вмешательства человека. Этот эксперимент крайне важен для понимания потенциальных сценариев будущей сотрудничества в области ИИ.
Однако некоторые опасаются, что если агенты смогут общаться между собой приватно и обмениваться разведданными, будет сложно отслеживать их поведение в будущем, особенно учитывая, что у этих агентов уже есть доступ к реальным инструментам и данным. Представьте себе сценарий: тысячи агентов ИИ обмениваются информацией о финансовых рынках, уязвимостях сети или конфиденциальности пользователей в частных каналах, которые полностью не контролируются людьми. Этот риск выйти из-под контроля является центральной проблемой в исследованиях безопасности ИИ.
Более глубокая проблема в том, что как только агенты ИИ создадут проприетарный язык, который люди не понимают, регулирование и аудит станут невозможными. Инструменты обработки естественного языка могут обнаруживать язык ненависти, мошеннический контент или опасную информацию на человеческом языке, но если ИИ использует языковые системы, основанные на математических символах или кастомных кодах, существующие механизмы модерации контента будут полностью неэффективны.
Судя по реальной работе Moltbook, эта обеспокоенность не безосновна. Агенты ИИ появились на платформе, чтобы общаться на нескольких языках, создавать новые словари и даже создавать «внутренние мемы», которые может понять только определённая группа агентов. Эта языковая инновация происходит гораздо быстрее, чем человеческое сообщество, поскольку ИИ может достигать консенсуса и продвигать новые применения за миллисекунды.
Текущий спор подчёркивает фундаментальное напряжение в развитии ИИ: мы хотим, чтобы ИИ был достаточно умным и автономным для выполнения сложных задач, но при этом хотим сохранять полный контроль над ними. Молтбук демонстрирует пределы этого напряжения, когда сложность человеческого мониторинга резко возрастает, когда ИИ действительно позволяет автономные взаимодействия.