Octa объявила о технологии Shadow AI для отслеживания в реальном времени… полностью усиливая меры безопасности

TechubNews

В условиях бесконтрольного использования искусственного интеллекта, превращающегося в угрозу безопасности, компания по управлению доступом к идентификационной информации Okta реагирует, усиливая возможности обнаружения несанкционированных AI-агентов (так называемых «теневых AI»). 12-го числа (по местному времени) Okta объявила о добавлении в свою платформу управления безопасностью идентификации новых функций, позволяющих распознавать теневых AI, отслеживать их и управлять их правами.

Внедренная функция «обнаружение агентов» позволяет систематически контролировать права и доступ к данным AI-агентов внутри организации, помогая безопасно эксплуатировать AI в рамках установленных мер безопасности. Эта функция особенно эффективна для выявления AI-агентов, созданных на несанкционированных платформах, а также для отслеживания передачи данных за пределы компании через процесс авторизации OAuth в реальном времени.

Руководитель отдела AI-безопасности Okta Хариш Перри подчеркнул: «AI-агенты работают на уровне приложений, а не сети или устройств, и используют постоянные и широкие права доступа под нечеловеческими идентификаторами». «Эта новая функция предназначена для выявления несанкционированного использования AI и разработки мер реагирования».

Беспокойство по поводу теневых AI подтверждается недавним отчетом Gartner. В нем говорится, что 69% компаний отслеживают использование сотрудниками несанкционированных генеративных AI-инструментов, а к 2030 году более 40% предприятий столкнутся с рисками безопасности или несоблюдения нормативных требований, вызванными теневыми AI. Okta считает, что эта «отсутствие видимости безопасности» связано с быстрым распространением инструментов для генерации AI-агентов и увеличением использования неподтвержденных AI-конструкторов.

Обновление позволяет Okta предоставлять единое представление о безопасности в облачных инфраструктурах и SaaS-экосистемах таких как Oracle, Google, Microsoft, Salesforce, объединяя управление нечеловеческими идентификаторами. Это дает администраторам возможность идентифицировать владельцев, права и потенциальные угрозы всех AI-агентов, независимо от их одобрения.

Кроме того, Okta планирует до первого квартала 2027 финансового года расширить возможности обнаружения на такие крупные платформы AI, как Microsoft Copilot Studio и Salesforce Agentforce. Это направлено на усиление отслеживания прав и рисков, связанных с каждым AI-агентом.

Вице-президент по бизнес-технологиям Дженна Клайн отметила: «Стратегия Okta в области AI ориентирована на управление и контроль, а не на расширение функциональности», подчеркнув важность постоянного подхода, основанного на контроле.

Теневые AI легко могут превратиться из инструментов быстрого внедрения в неконтролируемые технологии. Поэтому расширенная функция ISPM от Okta рассматривается как мера, отражающая развитие стратегии безопасности компании — баланс между внедрением инноваций в AI и сохранением безопасности и контроля.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев