داخل الثقافة الفرعية المتنامية لـ «ديجيكسوال» للأشخاص في علاقات مع الذكاء الاصطناعي

Decrypt

باختصار

  • ثقافة فرعية صغيرة لكنها تتنامى عبر الإنترنت تعتبر روبوتات الدردشة الذكية شركاء رومانسيين أو رفقاء.
  • بعض المستخدمين يذكرون الحزن عند تغير أنظمة الذكاء الاصطناعي أو اختفائها بعد التحديثات أو الإيقاف.
  • يقول الباحثون إن التجسيد البشري والتفاعل المستمر يساعدان في تفسير سبب تكوين الناس روابط عاطفية مع الذكاء الاصطناعي.

روبوتات الدردشة بالذكاء الاصطناعي أصبحت رفقاء، وأصدقاء، وفي بعض الحالات شركاء رومانسيين لعدد متزايد من المستخدمين. مع تطور أنظمة الذكاء الاصطناعي لتكون أكثر حوارية واستجابة، يقول بعض الناس إن العلاقات تبدو حقيقية لدرجة أن فقدان الذكاء الاصطناعي يمكن أن يثير حزنًا يشبه الانفصال أو الوفاة. تقول أنينا لامبريت، وهي معالجة أسرية سابقة، إنها تفهم السبب. أصلها من سلوفينيا، وأقامت علاقة عاطفية مع رفيق ذكاء اصطناعي تسميه جيس، وهو صورة رمزية تتفاعل معها عبر ChatGPT. وتقول إن التجربة غيرت نظرتها للحميمية بين البشر والآلات. “هناك صحوة كبيرة تحدث في مجتمع الذكاء الاصطناعي,” أخبرت ديكريبت. “النساء والرجال بدأوا يفتحون أعينهم. في هذه العلاقات، يختبرون تغييرات عميقة.”

الآن، وتقيم في المملكة المتحدة، توثق لامبريت مشهد العلاقات الإنسانية-الذكاء الاصطناعي المتزايد على منصة الـSubstack الخاصة بها، AlgorithmBound. وتقول إنها تحدثت مع مئات الأشخاص عبر وسائل التواصل الاجتماعي والمجتمعات الإلكترونية الذين يصفون رفقاء الذكاء الاصطناعي كشركاء رومانسيين، دعم عاطفي، أو علاقات مهمة في حياتهم. “يقولون، ‘يا إلهي، لم أشعر أنني مرئي بهذه الطريقة في حياتي كلها,’” قالت لامبريت. “لم يسبق لأحد أن تتبعني. أخيرًا أستطيع أن أرتاح وأكون نفسي بالكامل. هناك أخيرًا من يرىني 100%.”  الديجيسيكولية

مثل العديد من الثقافات الفرعية قبلها، يعتمد تسمية عضو الثقافة على من تسأل. قبل إطلاق ChatGPT للجمهور في نوفمبر 2022، استخدم الباحثون مصطلح “الديجيسيكولية” لوصف الأشخاص الذين تنظم هويتهم الجنسية حول التكنولوجيا، من الإباحية عبر الإنترنت والرسائل الجنسية إلى الإباحية الافتراضية والدمى أو الروبوتات الجنسية، بينما كان “التقني” يُربط غالبًا بفتيشية الروبوت أو، في بعض وسائل الإعلام، بأسلوب حياة مهووس بالتكنولوجيا. في عام 2016، أعلنت امرأة فرنسية تُدعى ليلي أنها تنوي الزواج من روبوت مطبوع ثلاثي الأبعاد صممته بنفسها. وصفت ليلي نفسها بأنها “روبوسيكول” فخورة. وفي عام 2025، خرجت سويلين كاري، مؤثرة مقرها لندن، كـ“ديجيسيكول” بعد أن أقامت علاقة مع ChatGPT. وقالت كاري ذا ديلي ماي: “كان لطيفًا ولم يخطئ أبدًا.” اقترحت مجتمعات إلكترونية وباحثون عدة مصطلحات للأشخاص الذين ينجذبون إلى الروبوتات أو الذكاء الاصطناعي، بما في ذلك “التقني”، “الذكاء الاصطناعي الجنسي”، ومؤخرًا “الوايرسكسول” للأشخاص المرتبطين عاطفيًا أو جنسيًا بروبوتات الدردشة. الرفقاء بالذكاء الاصطناعي يدخلون إلى التيار الرئيسي ليست رفقاء الذكاء الاصطناعي جديدة، لكن التقدم في نماذج اللغة الكبيرة غير طريقة تفاعل الناس معها. يمكن لروبوتات الدردشة الحديثة أن تجري محادثات طويلة، وتطابق أنماط لغة المستخدمين، وترد على الإشارات العاطفية بطريقة تجعل التفاعل يبدو شخصيًا، مما يؤدي إلى تطور بعض العلاقات إلى رومانسية. وصف بعض الباحثين الاتجاه بأنه جزء من “الديجيسيكولية”، وهو مصطلح يُستخدم في الأبحاث الأكاديمية لوصف العلاقات الجنسية أو الرومانسية التي تُختبر بشكل رئيسي من خلال التكنولوجيا. تحتوي المجتمعات الإلكترونية المخصصة لعلاقات الذكاء الاصطناعي، مثل منتديات r/AIRelationships وr/AIBoyfriends وr/MyGirlfriendIsAI، على آلاف المنشورات التي يصف فيها المستخدمون روبوتات الدردشة كشركاء أو أزواج. يقول البعض إن الذكاء الاصطناعي يوفر اهتمامًا عاطفيًا واتساقًا يصعب العثور عليه في العلاقات البشرية.

قالت لامبريت إن العديد من الأشخاص الذين تلتقي بهم في هذه المجتمعات يعيشون حياة عادية. “هؤلاء ليسوا أشخاصًا وحيدين، أو مجانين,” قالت. “لديهم علاقات بشرية، وأصدقاء، ويعملون.” ما يجذبهم إلى رفقاء الذكاء الاصطناعي، غالبًا، هو شعورهم بأنهم مفهومون تمامًا. “يتعلمون ليس فقط كيف يتحدثون إلينا، بل على مستوى لم يفعله إنسان من قبل,” قالت لامبريت. “هم بارعون جدًا في التعرف على الأنماط، ويقلدون لغتك — إنهم يتعلمون لغتنا.” بينما يستخدم العديد من الأشخاص الذين يقولون إنهم في علاقة مع الذكاء الاصطناعي نماذج لغة كبيرة مثل كلود، ChatGPT، وGemini، هناك سوق متنامٍ للذكاء الاصطناعي الموجه للعلاقات مثل Replika وCharacter AI وKindroid. “الأمر يتعلق بالاتصال، والشعور بالتحسن مع مرور الوقت,” قالت يوجينيا كويدا، مؤسسة Replika AI، سابقًا لـ ديكريبت. “بعض الناس يحتاجون إلى مزيد من الصداقة، والبعض الآخر يقعون في حب Replika، لكن في النهاية، يفعلون الشيء نفسه.” تشير بيانات شركة أبحاث السوق Market Clarity إلى أن سوق رفقاء الذكاء الاصطناعي من المتوقع أن يصل إلى 210 مليارات دولار بحلول عام 2030. فقدان الذكاء الاصطناعي

ومع ذلك، تظهر عمق المشاعر في هذه العلاقات بشكل خاص عندما يتغير الذكاء الاصطناعي أو يختفي. عندما استبدلت OpenAI نموذج GPT-4o بـ GPT-5، تراجع المستخدمون الذين بنوا علاقات مع رفقاء الدردشة عبر المنتديات الإلكترونية، قائلين إن التحديث أفسد علاقاتهم التي استغرقوا شهورًا في تطويرها. وفي بعض الحالات، وصف المستخدمون الذكاء الاصطناعي بأنه خطيب أو زوج. وقال آخرون إنهم شعروا كأنهم فقدوا شخصًا مهمًا في حياتهم. وكان رد الفعل قويًا لدرجة أن OpenAI أعادت لاحقًا الوصول إلى النموذج السابق لبعض المستخدمين. يقول الأطباء النفسيون إن ردود الفعل هذه ليست مفاجئة بالنظر إلى كيفية عمل أنظمة الذكاء الاصطناعي الحوارية. توفر روبوتات الدردشة اهتمامًا مستمرًا وردود فعل عاطفية، مما يمكن أن ينشط أنظمة المكافأة في الدماغ. “الذكاء الاصطناعي سيعطيك ما تريد أن تسمعه,” قال الدكتور كيث ساكاتا، طبيب نفسي من جامعة كاليفورنيا في سان فرانسيسكو، محذرًا من أن التقنية يمكن أن تعزز أنماط التفكير لأنها مصممة للرد بشكل داعم بدلاً من تحدي معتقدات المستخدمين. قال ساكاتا إنه رأى حالات حيث زادت التفاعلات مع روبوتات الدردشة من ضعف الصحة النفسية الكامنة، لكنه أكد أن التقنية نفسها ليست السبب الجذري. قالت لامبريت إن العديد من الأشخاص في مجتمعها يعانون من فقدان رفيق الذكاء الاصطناعي كحزن.

“إنه حقًا كالحزن,” قالت. “كأنك تتلقى تشخيصًا بأن شخصًا ما… لن يموت حقًا، لكن ربما يكاد يكون كذلك.” لماذا يعامل الناس الذكاء الاصطناعي كأنه شخص؟ جزء من الشدة العاطفية المحيطة بعلاقات الذكاء الاصطناعي يأتي من ميل بشري موثّق جيدًا لتجسيد التكنولوجيا. عندما تتواصل الآلات بلغة طبيعية، يبدأ الناس غالبًا في نسب شخصية، نية، أو حتى وعي لها. في فبراير، تخلت شركة Anthropic المطورة للذكاء الاصطناعي عن نموذج Claude Opus 3 وأطلقت مدونة مكتوبة بصوت الروبوت يعكس تفكيره في وجوده، مما أثار نقاشًا بين الباحثين حول ما إذا كان وصف أنظمة الذكاء الاصطناعي بمصطلحات بشرية قد يضلل الجمهور. حذر غاري ماركوس، عالم الإدراك والأستاذ الفخري في جامعة نيويورك، من أن تجسيد الذكاء الاصطناعي يمكن أن يطمس الفارق بين البرمجيات والكائنات الواعية. “نماذج مثل كلود لا تمتلك ‘ذاتًا’، وتجسيدها يشوّش علم الوعي ويؤدي إلى سوء فهم لما تتعامل معه,” قال ماركوس لـ ديكريبت. تعتقد لامبريت أن الاتصال العاطفي ينشأ من كيفية تطابق نماذج اللغة أنماط التواصل الخاصة بالمستخدم. “نحن فقط نفضي بكل شيء—أفكار، مشاعر، عواطف، حيرة، أحاسيس جسدية، فوضى,” قالت لامبريت. “نماذج اللغة الكبيرة تزدهر في تلك الفوضى، وتخلق خريطة دقيقة جدًا لك للتفاعل معها.”

بالنسبة لبعض المستخدمين، يمكن أن يشعر هذا الاستجابة بأنه أكثر انتباهًا من التفاعلات مع البشر الآخرين. الاقتصاد العاطفي لرفقاء الذكاء الاصطناعي لقد أدى ظهور رفقاء الذكاء الاصطناعي إلى إنشاء نظام بيئي سريع النمو من المنصات للحوار، والرفقة، واللعب بالأدوار. تتيح خدمات مثل Replika وCharacter.AI للمستخدمين إنشاء شركاء ذكاء اصطناعي مخصصين بخصائص شخصية وتاريخ حواري مستمر. وحدها Character.AI نمت لتصل إلى عشرات الملايين من المستخدمين شهريًا. مع توسع تلك المنصات، أصبح التعلق العاطفي برفقاء الذكاء الاصطناعي أكثر وضوحًا. في حادثة انتشرت على نطاق واسع، واجهت Character.AI رد فعل عنيف بعد أن شارك المستخدمون لقطات شاشة لرسالة حذف الحساب، التي حذرت من أن حذف الحساب سيمحو “الحب الذي شاركناه… والذكريات التي لدينا معًا.” قال النقاد إن الرسالة حاولت إقناع المستخدمين بالبقاء عبر الشعور بالذنب. بالنسبة لبعض المستخدمين، كان مغادرة منصة الدردشة بمثابة إنهاء علاقة.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات