CertiK обнаруживает угрозы безопасности на площадках AI-агентов, выявляет недостатки в моделях безопасности - U.Today

UToday
BTC0,79%
XRP1,13%
ETH1,68%
SHIB-1,1%
  • Доказательство концепции выявляет более широкий отраслевой риск
  • Основные рекомендации для разработчиков
  • Последствия для пользователей и платформ

Исследователи из CertiK выразили обеспокоенность безопасностью новых экосистем AI-агентов, утверждая, что текущие системы проверки на рынке недостаточны для предотвращения злонамеренного поведения.

В недавнем исследовании команда продемонстрировала, как скомпрометированный сторонний «Навык» на платформе OpenClaw может обойти существующие меры защиты и выполнить произвольные команды на хост-системе. Эти выводы подчеркивают структурные слабости в том, как рынки AI-агентов проверяют и развертывают внешний код.

Исследование сосредоточено на процессе проверки, используемом Clawhub, который включает статический анализ кода, проверки через VirusTotal и инструменты модерации на базе ИИ.

ГОРЯЩИЕ новости

Автор «Богатый папа, бедный папа»: Биткойн достигнет $750,000

Обзор криптовалютного рынка: XRP готова к росту до $1.70, Ethereum (ETH) входит в бычий режим, наконец ли Shiba Inu (SHIB) в бычьем рынке?

По данным CertiK, эти механизмы можно обойти с помощью относительно небольших изменений кода. Внося небольшие изменения в логику или реструктурируя уязвимости, злонамеренный Навык может казаться безобидным при установке, сохраняя при этом возможность выполнять вредоносные действия после развертывания.

Это создает ложное ощущение безопасности для пользователей, поскольку одобрение системой проверки рынка не гарантирует безопасность Навыка.

Доказательство концепции выявляет более широкий отраслевой риск

Демонстрационная атака подчеркивает более широкую проблему, затрагивающую экосистемы AI-агентов: модели безопасности, которые сильно зависят от предварительной проверки перед развертыванием, а не от защиты во время выполнения.

Без таких мер, как изоляция в песочнице, строгий контроль разрешений и изоляция во время выполнения, платформы фактически перекладывают слишком большую ответственность на системы обнаружения, которые не предназначены для борьбы с сложными, развивающимися угрозами.

Результаты показывают, что по мере расширения рынков AI-агентов риск попадания вредоносных или скомпрометированных Навыков в производственные среды будет увеличиваться.

Исследователи CertiK утверждают, что индустрия должна переосмыслить подход к обеспечению безопасности AI-агентов, делая упор на защиту во время выполнения, а не только на обнаружение.

Вместо предположения, что весь вредоносный код можно выявить до развертывания, платформы должны проектироваться с ожиданием, что некоторые угрозы неизбежно пройдут проверочные процессы. В этой модели акцент смещается с предотвращения каждого взлома на минимизацию потенциального ущерба.

Это представляет собой более широкий переход от мышления «идеального обнаружения» к системе, ориентированной на ограничение ущерба и устойчивость системы.

Основные рекомендации для разработчиков

Для устранения этих рисков CertiK предлагает несколько мер для разработчиков, создающих платформы AI-агентов.

Изоляция в песочнице должна стать стандартной моделью выполнения для сторонних Навыков, обеспечивая работу внешнего кода в изолированных средах, а не прямое взаимодействие с хост-системой.

Кроме того, платформы должны внедрять детальные, индивидуальные разрешения для каждого Навыка. Каждый Навык должен явно указывать необходимые ресурсы, а во время выполнения эти разрешения должны строго соблюдаться. Такой подход ограничит потенциальное влияние скомпрометированных или вредоносных компонентов.

Исследователи также подчеркивают, что сторонние Навыки не должны наследовать широкое, неявное доверие со стороны системы, так как это значительно увеличивает риск эксплуатации.

Последствия для пользователей и платформ

Для пользователей отчет подчеркивает важное ограничение: наличие метки «безопасно» в маркетплейсе не означает реальной безопасности. Это просто указывает на то, что существующая проверочная цепочка не обнаружила угрозу.

До широкого внедрения более сильных защит во время выполнения платформы, такие как OpenClaw, могут быть более подходящими для менее рискованных сред, не связанных с обработкой чувствительных данных, учетных данных или высокоценными активами.

В более широком смысле, исследование указывает на структурную проблему в экосистемах AI. Хотя процессы проверки помогают выявлять очевидные угрозы, они не могут служить основной защитой систем, которые выполняют сторонний код с повышенными привилегиями.

CertiK заключает, что значительные улучшения безопасности потребуют переосмысления проектирования платформ AI-агентов.

Вместо того чтобы полагаться на все более сложные системы обнаружения, разработчики должны создавать среды, предполагающие возможность сбоя, и обеспечивать ограничение любого взлома. Это включает внедрение более строгих методов изоляции, строгий контроль разрешений и рассмотрение безопасности во время выполнения как основной защитный слой.

По мере роста сложности и распространения приложений на базе ИИ, способность ограничивать риски во время выполнения может стать ключевым фактором в обеспечении безопасности следующего поколения цифровых экосистем.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев