Dalam konteks penggunaan kecerdasan buatan yang tidak teratur yang berkembang menjadi ancaman keamanan, perusahaan manajemen akses identitas Okta merespons dengan meningkatkan kemampuan deteksi agen AI tidak sah (yaitu “AI bayangan”). Pada tanggal 12 (waktu setempat), Okta mengumumkan bahwa mereka telah menambahkan fitur dalam platform manajemen situasi keamanan identitas mereka yang mampu mengenali AI bayangan serta melacak dan mengelola hak aksesnya.
Fitur “penemuan agen” yang diperkenalkan ini memungkinkan penguasaan sistematis terhadap hak akses dan jangkauan data yang dimiliki oleh agen AI di dalam organisasi, membantu menjalankan AI secara aman dalam batas kontrol keamanan. Fitur ini terutama mampu mendeteksi agen AI yang dibuat di platform tidak sah dan secara real-time melacak perilaku pengiriman data ke luar perusahaan melalui proses otorisasi OAuth.
Kepala departemen keamanan AI Okta, Harish Peri, menegaskan, “Agen AI beroperasi di lapisan aplikasi, bukan di lapisan jaringan atau perangkat, dan menjalankan hak akses yang berkelanjutan dan luas melalui berbagai identitas non-manusia.” Ia menambahkan, “Fitur baru ini bertujuan untuk mengenali penggunaan AI yang tidak disetujui dan merumuskan strategi penanggulangannya.”
Kekhawatiran terhadap AI bayangan juga dikonfirmasi dalam laporan terbaru dari Gartner. Laporan tersebut menyebutkan bahwa 69% perusahaan sedang melacak jejak penggunaan alat AI generatif yang tidak sah oleh karyawan, dan diperkirakan hingga tahun 2030, lebih dari 40% perusahaan akan menghadapi risiko pelanggaran keamanan atau kepatuhan akibat AI bayangan. Okta berpendapat bahwa “ketiadaan visibilitas keamanan” ini disebabkan oleh penyebaran cepat alat pembuatan agen AI dan peningkatan penggunaan pembangun AI yang belum diverifikasi secara menyeluruh.
Melalui pembaruan ini, Okta menyediakan pandangan keamanan terpadu yang mencakup infrastruktur cloud dan ekosistem SaaS seperti Oracle, Google, Microsoft, Salesforce, dan lainnya, untuk mengintegrasikan manajemen identitas non-manusia. Hal ini memungkinkan administrator mengidentifikasi pemilik, cakupan hak akses, dan potensi ancaman keamanan dari berbagai agen AI (terlepas dari apakah mereka disetujui atau tidak).
Selain itu, Okta berencana memperluas kemampuan deteksi hingga kuartal pertama tahun fiskal 2027 ke platform AI utama seperti Microsoft Copilot Studio dan Salesforce Agentforce. Langkah ini bertujuan untuk memperkuat pelacakan hak akses dan risiko yang diberikan kepada berbagai agen AI.
Jenna Cline, Wakil Presiden senior bidang bisnis dan teknologi, menyatakan, “Strategi Okta dalam penerapan AI lebih mengutamakan tata kelola daripada perluasan fungsi,” dan menekankan pendekatan berkelanjutan berbasis kontrol.
AI bayangan sangat rentan berkembang menjadi teknologi yang tidak terkendali selama proses adopsi AI yang gesit di perusahaan. Oleh karena itu, fitur ISPM yang diperkuat dari Okta dipandang sebagai langkah yang mencerminkan evolusi strategi keamanan perusahaan, yaitu menjaga keamanan dan kontrol sambil merangkul inovasi AI.