Pada saat pecahnya perang Rusia-Ukraina tahun 2022, media sosial dipenuhi dengan gambar palsu berkualitas rendah — baik yang disusun menggunakan Photoshop, maupun yang diambil dari video game, film, atau berita lama yang diberi label salah. Kini, teknik yang sama kembali muncul dalam konflik Iran, tetapi kali ini dengan alat penipuan baru yang belum umum digunakan pada 2022: alat AI yang mudah digunakan siapa saja, mampu menghasilkan video dan gambar berkualitas tinggi yang sangat realistis.
Profesor forensik digital dari Universitas California, Berkeley, Hany Farid, mengatakan bahwa sepuluh tahun lalu, berita palsu serupa paling banyak satu atau dua, dan segera terungkap; sekarang, jumlahnya mencapai ratusan, dan tingkat realisme-nya sangat mencengangkan. “Bukan hanya tampak nyata, tetapi sedang berkembang — mempengaruhi orang secara mendalam. Orang percaya dan terus menyebarkannya.”
Penyebaran AI generatif menurunkan ambang batas pembuatan palsu secara drastis
Jurnalis senior BBC Verify, Shayan Sardarizadeh, yang telah lama mengikuti berita palsu di medan perang, menyatakan bahwa perubahan paling penting dalam satu tahun terakhir adalah menurunnya ambang untuk mengakses AI generatif. “Sekarang siapa saja bisa membuat video dan gambar yang sangat meyakinkan, tampak seperti kejadian besar di medan perang, dan sulit dibedakan dengan mata telanjang atau dari sudut pandang non-profesional.”
Kurang dari dua minggu sejak konflik Iran dimulai, Sardarizadeh dan para ahli lainnya telah mengonfirmasi bahwa banyak video palsu yang dibuat dengan AI telah mencapai puluhan juta penayangan di berbagai platform media sosial.
Apa saja gambar palsu yang beredar?
Konten palsu yang telah teridentifikasi meliputi berbagai hal, antara lain:
Gambar fiksi tentang rudal Iran yang menembaki Tel Aviv, Israel
Adegan panik warga yang melarikan diri dari bandara Tel Aviv saat diserang
Video pasukan khusus AS yang diinterogasi oleh tentara Iran dengan senjata
Rekaman “kamera pengawas” yang mengklaim menunjukkan fasilitas militer Iran yang dihancurkan (tiga di antaranya dibuat oleh AI, satu lagi adalah kejadian nyata tahun lalu)
Kendaraan lapis baja militer AS di Iran
Rangka pesawat militer AS yang jatuh dan diarak di jalanan Teheran
Dalam gambar statis, muncul gambar palsu tentang pangkalan militer AS dan kedutaan besar AS yang terbakar setelah diserang Iran, gambar kematian pemimpin tertinggi Iran, Khamenei, yang tertindih reruntuhan, serta adegan warga Iran yang berduka atas korban tewas. Bahkan media yang terkait dengan pemerintah Iran memposting gambar satelit palsu yang mengklaim menunjukkan kerusakan di pangkalan militer AS di Bahrain.
Ini hanyalah sebagian kecil dari berita palsu terkait Iran yang beredar saat ini.
Regulasi platform yang longgar, membuat berita palsu semakin sulit dikendalikan
Meskipun Sardarizadeh dan timnya terus-menerus mengungkap berita palsu setiap hari, konten palsu baru terus bermunculan dengan kecepatan jauh melebihi upaya klarifikasi, dan tingkat realisme-nya cukup tinggi sehingga pengguna biasa sulit membedakannya saat menggulir feed.
Sebagian besar berita palsu yang menyebar luas berasal dari akun yang pro-Iran dan memiliki tujuan propaganda. Tetapi motif di balik pembuatan berita palsu lainnya sulit dipastikan — mungkin untuk mendapatkan trafik, pengaruh, keuntungan, atau sekadar karena proses pembuatannya yang sangat mudah.
Farid menyoroti situasi saat ini: “Konten semakin nyata, jumlahnya semakin banyak, dan penetrasinya semakin dalam — ini adalah kenyataan kita saat ini, dan sangat membingungkan.”
Platform media sosial X minggu lalu mengumumkan bahwa jika pembuat konten berbayar memposting video medan perang tanpa menyebutkan sumber AI, mereka akan diskors selama 90 hari dari penghasilan, dan jika mengulangi, akan dihapus secara permanen. Namun, Farid meragukan efektivitas kebijakan ini, dan sebagian besar pengguna X tidak termasuk dalam program berbayar tersebut. TikTok dan Meta (pemilik Facebook dan Instagram) belum memberikan komentar kepada CNN.
Lebih membahayakan lagi, chatbot AI milik X, Grok, yang telah disebutkan berulang kali oleh Sardarizadeh, justru membantu menyebarkan berita palsu — memberi tahu pengguna bahwa banyak video AI yang dibuat adalah nyata.
Bagaimana cara menghindari tertipu berita palsu?
Farid mengakui bahwa bahkan teknik “mengidentifikasi gambar palsu AI” yang beredar beberapa bulan lalu saat ini hampir tidak efektif lagi. Dulu, pengguna bisa memperhatikan jumlah jari atau proporsi tubuh seseorang, tetapi AI saat ini sudah mampu memperbaiki kesalahan tersebut.
Pendekatan utama yang disarankan adalah aktif mencari informasi dari media berita yang terpercaya, bukan dari akun asing di media sosial. “Dalam masa konflik global, media sosial bukan tempat untuk mendapatkan informasi.”
Bagi pengguna yang harus sering mengakses media sosial, para ahli menyarankan:
Perlambat langkah: saat melihat gambar medan perang yang sensasional, luangkan beberapa detik untuk mencari verifikasi sebelum membagikan atau mempercayainya
Perhatikan detail: apakah suara dan gambar sinkron? apakah ciri khas gambar sesuai dengan lingkungan nyata? AI masih memiliki kekurangan, dan beberapa konten yang dihasilkan masih meninggalkan watermark
Periksa fakta dari sumber profesional: pastikan ada media fact-checking atau pakar yang telah mengomentari gambar tersebut
Perhatikan kolom komentar: pengguna biasa kadang bisa mengajukan pertanyaan yang efektif
Gunakan alat deteksi AI: meskipun tidak sempurna, tetap memiliki nilai referensi
Kekhawatiran meningkat, tantangan di masa depan semakin besar
Sardarizadeh mengimbau masyarakat untuk “melatih mata mereka sendiri” agar mampu mengenali jejak AI. Tetapi dia juga mengakui, “Deteksi konten AI semakin sulit, dan tren menunjukkan bahwa ke depannya akan semakin sulit lagi.”
Di tengah perkembangan teknologi AI generatif yang terus maju dan regulasi platform yang semakin longgar, medan perang berita palsu berkembang dengan kecepatan yang belum pernah terjadi sebelumnya, dan setiap pengguna ponsel berada di garis depan perang informasi ini.
Artikel ini tentang banjirnya gambar perang palsu yang dihasilkan AI: bagaimana berita palsu tentang konflik Iran menyebar di media sosial pertama kali dipublikasikan di ABMedia.