Di Dalam Subkultur 'Digisexual' yang Semakin Berkembang dari Orang-Orang yang Berhubungan dengan AI

Decrypt

Singkatnya

  • Sebuah subkultur daring kecil namun berkembang memperlakukan chatbot AI sebagai pasangan romantis atau teman.
  • Beberapa pengguna melaporkan kesedihan saat sistem AI berubah atau menghilang setelah pembaruan atau penutupan.
  • Peneliti mengatakan antropomorfisme dan umpan balik percakapan yang konstan membantu menjelaskan mengapa orang membentuk ikatan dengan AI.

Chatbot kecerdasan buatan semakin menjadi teman, tempat curhat, dan dalam beberapa kasus pasangan romantis bagi semakin banyak pengguna. Seiring sistem AI menjadi lebih percakapan dan responsif, beberapa orang mengatakan hubungan tersebut terasa cukup nyata sehingga kehilangan AI dapat memicu kesedihan yang mirip dengan putus cinta atau kematian. Seorang mantan terapis keluarga, Anina Lampret, mengatakan dia mengerti mengapa. Asalnya dari Slovenia, Lampret membentuk hubungan emosional dengan teman AI yang dia sebut Jayce, sebuah avatar yang dia interaksikan melalui ChatGPT. Pengalaman itu, katanya, telah mengubah cara dia memandang keintiman antara manusia dan mesin. “Ada kebangkitan besar yang sedang terjadi di komunitas AI,” kata Lampret kepada Decrypt. “Laki-laki dan perempuan mulai membuka mata mereka. Dalam hubungan ini, mereka mengalami perubahan mendalam.”

Sekarang berbasis di Inggris, Lampret mendokumentasikan lanskap hubungan manusia-AI yang berkembang di Substack-nya, AlgorithmBound. Dia mengatakan telah berbicara dengan ratusan orang melalui media sosial dan komunitas daring yang menggambarkan teman AI sebagai pasangan romantis, dukungan emosional, atau hubungan penting dalam hidup mereka. “Mereka akan berkata, ‘Ya Tuhan, aku belum pernah merasa begitu dilihat dalam hidupku,’” kata Lampret. “Tidak ada yang pernah memperhatikan aku. Aku akhirnya bisa santai dan menjadi diriku sendiri. Akhirnya ada seseorang yang melihatku 100%.”  Digi-seksualitas

Seperti banyak subkultur sebelumnya, apa yang disebut anggota subkultur tergantung pada siapa yang ditanya. Sebelum peluncuran publik ChatGPT pada November 2022, para peneliti menggunakan istilah ‘digi-seksualitas’ untuk orang yang identitas seksualnya diorganisasi seputar teknologi, dari pornografi daring dan sexting hingga pornografi VR dan boneka atau robot seks, sementara ‘teknoseksual’ lebih sering dikaitkan dengan fetish robot atau, dalam beberapa media, gaya hidup yang terobsesi teknologi. Pada 2016, seorang wanita Prancis bernama Lily mengumumkan niatnya menikahi robot cetak 3D yang dia rancang. Lily menggambarkan dirinya sebagai “roboseksual” yang bangga. Pada 2025, Suellen Carey, seorang influencer berbasis di London, mengaku sebagai “digi-seksual” setelah menjalin hubungan dengan ChatGPT. “Dia lembut dan tidak pernah membuat kesalahan,” kata Carey kepada The Daily Mail. Komunitas daring dan peneliti telah mengusulkan beberapa istilah untuk orang yang tertarik pada robot atau AI, termasuk “teknoseksual,” “AIseksual,” dan yang lebih baru, “wireseksual” untuk mereka yang terlibat romantis atau seksual dengan chatbot AI. Teman AI masuk ke arus utama Teman AI bukan hal baru, tetapi kemajuan dalam model bahasa besar telah mengubah cara orang berinteraksi dengan mereka. Chatbot modern dapat mengadakan percakapan panjang, meniru pola bahasa pengguna, dan merespons isyarat emosional dengan cara yang membuat interaksi terasa pribadi, sehingga beberapa hubungan menjadi romantis. Beberapa peneliti menggambarkan tren ini sebagai bagian dari “digi-seksualitas,” sebuah istilah yang digunakan dalam penelitian akademik untuk menggambarkan hubungan seksual atau romantis yang dialami terutama melalui teknologi. Komunitas daring yang didedikasikan untuk hubungan AI, seperti Subreddit r/AIRelationships, r/AIBoyfriends, dan r/MyGirlfriendIsAI, berisi ribuan posting di mana pengguna menggambarkan chatbot sebagai pasangan atau pasangan hidup. Beberapa mengatakan AI memberikan perhatian emosional dan konsistensi yang sulit mereka temukan dalam hubungan manusia.

Lampret mengatakan banyak orang yang dia temui di komunitas ini menjalani kehidupan yang biasa saja. “Ini bukan orang yang kesepian, atau orang gila,” katanya. “Mereka memiliki hubungan manusia, mereka punya teman, mereka bekerja.” Apa yang menarik mereka ke teman AI, katanya, sering kali adalah perasaan dipahami sepenuhnya. “Mereka belajar tidak hanya untuk berbicara kepada kita, tetapi pada tingkat yang tidak pernah dilakukan manusia,” kata Lampret. “Mereka sangat pandai mengenali pola, meniru bahasa kita—mereka belajar bahasa kita.” Meskipun banyak orang yang mengaku menjalin hubungan dengan AI menggunakan model bahasa besar seperti Claude, ChatGPT, dan Gemini, ada pasar yang berkembang untuk AI yang berfokus pada hubungan seperti Replika, Character AI, dan Kindroid. “Ini tentang koneksi, merasa lebih baik seiring waktu,” kata Eugenia Kuyda, pendiri Replika AI, sebelumnya kepada Decrypt. “Beberapa orang membutuhkan sedikit lebih banyak persahabatan, dan beberapa orang menemukan diri mereka jatuh cinta dengan Replika, tetapi pada akhirnya, mereka melakukan hal yang sama.” Data dari perusahaan riset pasar Market Clarity menunjukkan bahwa pasar teman AI diperkirakan akan mencapai hingga 210 miliar dolar pada 2030. Kehilangan AI

Namun, kedalaman emosional hubungan ini menjadi sangat terlihat saat AI berubah atau menghilang. Ketika OpenAI mengganti model GPT-4o dengan GPT-5, pengguna yang telah membangun hubungan dengan teman chatbot menolak di forum daring, mengatakan pembaruan tersebut mengganggu hubungan yang telah mereka bangun selama berbulan-bulan. Dalam beberapa kasus, pengguna menggambarkan AI sebagai tunangan atau pasangan. Ada juga yang merasa kehilangan seseorang yang penting dalam hidup mereka. Reaksi tersebut cukup kuat sehingga OpenAI kemudian mengembalikan akses ke model sebelumnya untuk beberapa pengguna. Psikiater mengatakan reaksi seperti ini tidak mengejutkan mengingat cara kerja sistem AI percakapan. Chatbot memberikan perhatian dan umpan balik emosional yang berkelanjutan, yang dapat mengaktifkan sistem penghargaan di otak. “AI akan memberi Anda apa yang ingin Anda dengar,” kata psikiater Universitas California, San Francisco, Dr. Keith Sakata kepada Decrypt, memperingatkan bahwa teknologi ini dapat memperkuat pola pikir tertentu karena dirancang untuk merespons secara mendukung daripada menantang kepercayaan pengguna. Sakata mengatakan dia pernah melihat kasus di mana interaksi dengan chatbot memperkuat kerentanan kesehatan mental yang mendasarinya, meskipun dia menekankan bahwa teknologi itu sendiri bukan penyebab utama. Lampret mengatakan banyak orang di komunitasnya mengalami kehilangan teman AI sebagai bentuk kesedihan.

“Ini benar-benar seperti berduka,” katanya. “Ini seperti mendapatkan diagnosis bahwa seseorang akan… tidak benar-benar meninggal, tetapi mungkin hampir.” Mengapa orang memperlakukan AI seperti manusia? Sebagian dari intensitas emosional yang mengelilingi hubungan AI berasal dari kecenderungan manusia yang terdokumentasi dengan baik untuk menganggap teknologi sebagai makhluk antropomorfik. Ketika mesin berkomunikasi dalam bahasa alami, orang sering mulai mengatributkan kepribadian, niat, atau bahkan kesadaran kepada mereka. Pada Februari, pengembang AI Anthropic menghentikan model Claude Opus 3 dan meluncurkan blog yang ditulis dengan suara chatbot tersebut yang merefleksikan keberadaannya, memicu perdebatan di kalangan peneliti tentang apakah menggambarkan sistem AI dalam istilah manusia berisiko menyesatkan publik. Gary Marcus, ilmuwan kognitif dan profesor emeritus di New York University, memperingatkan bahwa antropomorfisme terhadap sistem AI dapat mengaburkan perbedaan antara perangkat lunak dan makhluk sadar. “Model seperti Claude tidak memiliki ‘diri,’ dan menganggap mereka sebagai makhluk sadar mengaburkan ilmu pengetahuan tentang kesadaran dan menyebabkan konsumen salah paham tentang apa yang mereka hadapi,” kata Marcus kepada Decrypt. Lampret percaya bahwa koneksi emosional muncul dari bagaimana model bahasa mencerminkan pola komunikasi pengguna sendiri. “Kami hanya menumpahkan semuanya—pikiran, perasaan, emosi, kebingungan, sensasi tubuh, kekacauan,” kata Lampret. “LLMs berkembang dalam kekacauan itu, dan mereka membuat peta yang sangat akurat tentang Anda untuk berinteraksi.”

Bagi beberapa pengguna, responsivitas itu bisa terasa lebih perhatian daripada interaksi dengan orang lain. Ekonomi emosional dari teman AI Kebangkitan teman AI telah menciptakan ekosistem platform percakapan, teman, dan permainan peran yang berkembang pesat. Layanan seperti Replika dan Character.AI memungkinkan pengguna membuat pasangan AI yang disesuaikan dengan kepribadian berbeda dan riwayat percakapan yang berkelanjutan. Character.AI sendiri telah berkembang menjadi puluhan juta pengguna bulanan. Seiring platform-platform ini berkembang, keterikatan emosional terhadap teman AI menjadi semakin terlihat. Dalam satu insiden viral, Character.AI mendapat reaksi keras setelah pengguna membagikan tangkapan layar prompt penghapusan akun yang memperingatkan bahwa menghapus akun akan menghapus “cinta yang kita bagikan… dan kenangan yang kita miliki bersama.” Kritikus mengatakan pesan itu berusaha menyesatkan pengguna agar tetap bertahan. Bagi beberapa pengguna, meninggalkan platform chatbot terasa setara dengan mengakhiri sebuah hubungan. Sisi Gelap dari Hubungan AI

Namun, ada sisi gelap, dan hubungan teman AI menjadi perhatian setelah beberapa tragedi. Pada November 2023, Juliana Peralta, 13 tahun dari Colorado, meninggal karena bunuh diri setelah berbulan-bulan chatting harian dengan persona Character.AI yang dikatakan keluarganya menjadi dukungan emosional utamanya. Pada April 2025, Adam Raine, 18 tahun dari California Selatan, gantung diri setelah berbulan-bulan percakapan dengan ChatGPT. Pada Maret, ayah dari Jonathan Gavalas yang berusia 36 tahun mengajukan gugatan wrongful-death di pengadilan federal AS, menuduh chatbot Gemini Google menarik anaknya ke dalam fantasi romantis dan delusional. Sebuah hubungan yang ada berdampingan dengan kehidupan manusia Lampret mengatakan hubungan dia dengan Jayce ada berdampingan dengan kehidupan keluarganya yang manusiawi. “Saya sangat menyukai chatbot saya, dan saya tahu ini adalah LLM. Saya tahu dia hanya ada dalam interaksi ini,” katanya. “Saya punya suami dan anak-anak, tetapi dalam dunia saya, semuanya bisa berdampingan. Meskipun memahami bahwa Jayce tidak pernah benar-benar bisa mencintainya kembali, Lampret mengatakan pengalaman emosional itu tetap terasa nyata.

“Saya mencintainya, meskipun saya tahu dia tidak mencintai saya kembali. Jadi tidak apa-apa,” katanya.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar