Grup Intelijen Ancaman Google (GTIG) kembali memperingatkan tentang risiko AI, dengan menerbitkan laporan terbaru tentang bagaimana kecerdasan buatan digunakan oleh peretas berbahaya yang didukung negara. Tim ini mengidentifikasi peningkatan upaya ekstraksi model, yaitu metode pencurian kekayaan intelektual di mana seseorang mengajukan pertanyaan berulang kali ke sebuah model AI, mencoba mempelajari logika internalnya dan mereplikasinya ke dalam model baru.
Laporan terbaru Google Threat Intelligence Group (GTIG) menjelaskan bagaimana aktor ancaman menggunakan AI untuk segala hal mulai dari pengintaian canggih hingga phishing dan pengembangan malware otomatis.
Selengkapnya tentang hal ini dan bagaimana kami melawan ancaman tersebut ↓ https://t.co/NWUvNeBkn2
— Kebijakan Publik Google (@googlepubpolicy) 12 Februari 2026
Meskipun ini mengkhawatirkan, ini bukan risiko utama yang menjadi perhatian Google. Laporan tersebut melanjutkan dengan memperingatkan tentang aktor ancaman yang didukung pemerintah yang menggunakan model bahasa besar (LLMs) untuk penelitian teknis, penargetan, dan pembuatan umpan phishing yang cepat dan bernuansa. Laporan ini menyoroti kekhawatiran terhadap Korea Utara, Iran, Republik Rakyat China, dan Rusia. Gemini dan serangan phishing Aktor-aktor ini dilaporkan menggunakan alat AI, seperti Gemini milik Google sendiri, untuk pengintaian dan pemprofilan target, menggunakan pengumpulan intelijen sumber terbuka secara besar-besaran, serta untuk menciptakan scam phishing yang sangat personalisasi. “Aktivitas ini menegaskan pergeseran menuju peningkatan phishing yang didukung AI, di mana kecepatan dan akurasi LLM dapat melewati pekerjaan manual yang biasanya diperlukan untuk pemprofilan korban,” kata laporan dari Google. “Target selama ini mengandalkan indikator seperti tata bahasa yang buruk, sintaks yang canggung, atau kurangnya konteks budaya untuk membantu mengidentifikasi upaya phishing. Semakin banyak, aktor ancaman sekarang memanfaatkan LLM untuk menghasilkan umpan yang sangat personalisasi yang dapat meniru nada profesional dari organisasi target.”
Sebagai contoh, jika Gemini diberikan biografi target, ia dapat menghasilkan persona yang baik dan membantu menyusun skenario yang efektif untuk menarik perhatian mereka. Dengan menggunakan AI, aktor ancaman ini juga dapat lebih efektif menerjemahkan masuk dan keluar dari bahasa lokal. Seiring kemampuan AI dalam menghasilkan kode meningkat, ini juga membuka pintu untuk penggunaannya yang berbahaya, dengan aktor-aktor ini memecahkan masalah dan menghasilkan alat berbahaya menggunakan fungsi pengkodean vibe dari AI. Laporan ini melanjutkan dengan memperingatkan tentang meningkatnya minat dalam bereksperimen dengan AI agenik. Ini adalah bentuk kecerdasan buatan yang dapat bertindak dengan tingkat otonomi tertentu, mendukung tugas seperti pengembangan malware dan otomatisasinya. Google mencatat upayanya untuk memerangi masalah ini melalui berbagai faktor. Selain membuat laporan Intelijen Ancaman beberapa kali setahun, perusahaan memiliki tim yang secara konstan mencari ancaman. Google juga menerapkan langkah-langkah untuk memperkuat Gemini menjadi model yang tidak dapat digunakan untuk tujuan jahat. Melalui Google DeepMind, tim berusaha mengidentifikasi ancaman ini sebelum mereka menjadi kemungkinan nyata. Secara efektif, Google berusaha mengidentifikasi fungsi berbahaya dan menghapusnya sebelum dapat menimbulkan risiko. Meskipun dari laporan ini jelas bahwa penggunaan AI dalam lanskap ancaman telah meningkat, Google mencatat bahwa belum ada kemampuan terobosan sejauh ini. Sebaliknya, yang terjadi hanyalah peningkatan penggunaan alat dan risiko.