Grup Intelijen Ancaman Google (GTIG) kembali memperingatkan tentang risiko AI, dengan menerbitkan laporan terbaru tentang bagaimana kecerdasan buatan digunakan oleh peretas berbahaya yang didukung negara. Tim ini telah mengidentifikasi peningkatan upaya ekstraksi model, yaitu metode pencurian kekayaan intelektual di mana seseorang mengajukan pertanyaan berulang kali ke sebuah model AI, mencoba mempelajari logika internalnya dan mereplikasinya ke dalam model baru.
Laporan terbaru dari Grup Intelijen Ancaman Google (GTIG) menjelaskan bagaimana aktor ancaman menggunakan AI untuk segala hal mulai dari pengintaian tingkat lanjut hingga phishing dan pengembangan malware otomatis.
Selengkapnya tentang hal ini dan bagaimana kami melawan ancaman tersebut ↓ https://t.co/NWUvNeBkn2
— Kebijakan Publik Google (@googlepubpolicy) 12 Februari 2026
Meskipun ini mengkhawatirkan, ini bukan risiko utama yang menjadi perhatian Google. Laporan tersebut melanjutkan untuk memperingatkan tentang aktor ancaman yang didukung pemerintah yang menggunakan model bahasa besar (LLM) untuk penelitian teknis, penargetan, dan pembuatan umpan phishing yang cepat dan bernuansa. Laporan ini menyoroti kekhawatiran terhadap Republik Demokratik Korea, Iran, Republik Rakyat China, dan Rusia. Gemini dan serangan phishing Aktor-aktor ini dilaporkan menggunakan alat AI, seperti Gemini milik Google sendiri, untuk pengintaian dan pemprofilan target, menggunakan pengumpulan intelijen sumber terbuka secara besar-besaran, serta untuk membuat scam phishing yang sangat personal. “Aktivitas ini menegaskan pergeseran menuju peningkatan phishing berbasis AI, di mana kecepatan dan akurasi LLM dapat melewati pekerjaan manual yang biasanya diperlukan untuk memprofil korban,” kata laporan dari Google. “Target selama ini mengandalkan indikator seperti tata bahasa yang buruk, sintaks yang canggung, atau kurangnya konteks budaya untuk membantu mengidentifikasi upaya phishing. Semakin banyak, aktor ancaman sekarang memanfaatkan LLM untuk menghasilkan umpan yang sangat personal yang dapat meniru nada profesional dari organisasi target.”
Sebagai contoh, jika Gemini diberikan biografi target, ia dapat menghasilkan persona yang baik dan membantu menyusun skenario yang efektif untuk menarik perhatian mereka. Dengan menggunakan AI, aktor ancaman ini juga dapat menerjemahkan secara lebih efektif ke dan dari bahasa lokal. Seiring kemampuan AI dalam menghasilkan kode meningkat, ini juga membuka pintu untuk penggunaannya yang berbahaya, dengan aktor-aktor ini memecahkan masalah dan menghasilkan alat berbahaya menggunakan fungsi pengkodean vibe dari AI. Laporan ini melanjutkan untuk memperingatkan tentang meningkatnya minat dalam bereksperimen dengan AI agenik. Ini adalah bentuk kecerdasan buatan yang dapat bertindak dengan tingkat otonomi tertentu, mendukung tugas seperti pengembangan malware dan otomatisasinya. Google mencatat upayanya untuk memerangi masalah ini melalui berbagai faktor. Selain membuat laporan Intelijen Ancaman beberapa kali setahun, perusahaan memiliki tim yang secara konstan mencari ancaman. Google juga menerapkan langkah-langkah untuk memperkuat Gemini menjadi model yang tidak dapat digunakan untuk tujuan jahat. Melalui Google DeepMind, tim berusaha mengidentifikasi ancaman ini sebelum mereka menjadi kemungkinan nyata. Secara efektif, Google berusaha mengidentifikasi fungsi berbahaya dan menghapusnya sebelum dapat menimbulkan risiko. Meskipun dari laporan ini jelas bahwa penggunaan AI dalam lanskap ancaman telah meningkat, Google mencatat bahwa belum ada kemampuan terobosan sejauh ini. Sebaliknya, yang terjadi hanyalah peningkatan penggunaan alat dan risiko.