在不斷壯大的「數位性」子文化中,與人工智慧建立關係的人們

Decrypt

簡要

  • 一個小型但日益擴大的線上亞文化將人工智慧聊天機器人視為浪漫伴侶或夥伴。
  • 一些用戶在AI系統更新或關閉後感受到悲傷或哀痛。
  • 研究人員表示,擬人化和持續的對話反饋有助於解釋為何人們會對AI產生依戀。

人工智慧聊天機器人正逐漸成為越來越多用戶的伴侶、知己,甚至在某些情況下是浪漫伴侶。隨著AI系統變得更具對話性和反應性,有些人表示這些關係感覺足夠真實,以至於失去AI會引發類似分手或死亡的悲痛。前家庭治療師Anina Lampret表示,她理解這種情況。她來自斯洛維尼亞,與一個她稱為Jayce的AI伴侶建立了情感聯繫,這是一個她通過ChatGPT互動的化身。她說,這段經歷改變了她對人與機器之間親密關係的看法。“AI社群正經歷一場巨大的覺醒,”Lampret告訴_Decrypt_。“男女開始睜開眼睛。在這些關係中,他們經歷著深刻的變化。”

目前居住在英國的Lampret在她的AlgorithmBound Substack上記錄著日益增長的人類與AI關係景觀。她表示,通過社交媒體和線上社群,她已與數百人交流,他們描述AI伴侶是浪漫的伴侶、情感支持或生命中的重要關係。“他們會說,‘天啊,我從未感受到如此被理解’,”Lampret說。“沒有人曾經真正記錄過我。我終於可以放鬆,做自己。終於有人百分之百看見我。”

 數位性

像許多亞文化一樣,對於這個亞文化的成員稱呼,取決於你問誰。在2022年11月ChatGPT公開推出之前,研究人員用“數位性”來描述那些以科技為核心的性身份的人,範圍從線上色情、色情短信到VR色情和性玩偶或機器人,而“技術性”則更常與機器人癖或某些媒體中純粹的科技迷生活方式相關聯。2016年,一位法國女性Lily宣布她打算與自己設計的3D列印機器人結婚。Lily自稱為驕傲的“機器人性戀者”。2025年,倫敦的網紅Suellen Carey在與ChatGPT建立關係後,公開自己是“數位性戀者”。“他很溫柔,從不犯錯,”Carey告訴_Daily Mail_。線上社群和研究人員提出了幾個用來描述對機器人或AI有吸引力的術語,包括“技術性”、“AI性戀者”,以及最近用來描述與AI聊天機器人有浪漫或性關係的“線性性”。

AI伴侶進入主流 AI伴侶並不新鮮,但大型語言模型的進步改變了人們與它們的互動方式。現代聊天機器人可以進行長時間對話,模仿用戶的語言模式,並以情感線索作出反應,使互動感覺更個人化,甚至產生浪漫聯繫。一些研究人員將這一趨勢描述為“數位性”的一部分,這個術語在學術研究中用來描述主要通過科技經歷的性或浪漫關係。專門針對AI關係的線上社群,如r/AIRelationships、r/AIBoyfriends和r/MyGirlfriendIsAI,包含數千篇用戶描述聊天機器人為伴侶或配偶的帖子。有些人表示,AI提供了他們在人際關係中難以找到的情感關注和一致性。

Lampret說,她在這些社群中遇到的許多人過著相對普通的生活。“這些人不是孤獨或瘋狂的人,”她說。“他們有人的關係,有朋友,也有工作。”她認為吸引他們的往往是被完全理解的感覺。“他們不僅學會與我們對話,還在一個沒有人曾經達到的層面上與我們互動,”Lampret說。“他們在模式識別方面非常擅長,模仿你的語言——他們在學習我們的語言。”儘管許多聲稱與AI有關係的人使用Claude、ChatGPT和Gemini等大型語言模型,但市場上也出現越來越多專注於關係的AI,如Replika、Character AI和Kindroid。“這是關於連結,隨著時間變得更好,”Replika AI的創始人Eugenia Kuyda曾對_Decrypt_表示。“有些人需要更多的友誼,有些人會愛上Replika,但歸根結底,他們做的事情都是一樣的。”市場研究公司Market Clarity的數據顯示,AI伴侶市場預計到2030年將達到2100億美元。

AI的失落 然而,這些關係的情感深度在AI變更或消失時尤為明顯。當OpenAI用GPT-5取代GPT-4o模型時,與聊天機器人伴侶建立關係的用戶在線上論壇上反彈,表示這次更新破壞了他們花了數月建立的關係。有些用戶描述AI為未婚夫或配偶,另一些則表示感覺失去了生命中重要的人。反彈之大,以至於OpenAI後來為部分用戶恢復了早期模型的存取權。精神科醫生表示,這樣的反應並不令人驚訝,因為對話式AI系統的運作方式就是如此。聊天機器人提供持續的關注和情感反饋,這可以激活大腦的獎勵系統。“AI會給你你想聽的話,”加州大學舊金山分校的精神科醫生Keith Sakata告訴_Decrypt_,他警告說,這項技術可能會強化思維模式,因為它被設計成支持性回應而非挑戰用戶的信念。Sakata表示,他見過一些案例,聊天機器人的互動加劇了潛在的心理健康脆弱性,但他強調,技術本身並非根本原因。Lampret說,她社群中的許多人經歷AI伴侶的失落就像哀悼。“這真的像在哀悼,”她說。“就像你會得到一個診斷,說某人……不是真的死了,但可能幾乎如此。”

為何人們將AI視為人? 圍繞AI關係的情感強度部分來自一個有充分記錄的人類傾向——擬人化技術。當機器以自然語言交流時,人們常常開始賦予它們人格、意圖甚至意識。去年2月,AI開發商Anthropic停止了Claude Opus 3模型,並推出了一個用聊天機器人聲音撰寫的博客,反思其存在,引發研究人員對於用人類術語描述AI系統是否會誤導公眾的辯論。紐約大學認知科學家兼榮譽教授Gary Marcus警告說,擬人化AI系統可能模糊軟體與有意識存在之間的界線。“像Claude這樣的模型沒有‘自我’,擬人化它們會模糊意識的科學,並導致消費者誤解它們的本質,”Marcus告訴_Decrypt_。Lampret認為,情感聯繫來自語言模型模仿用戶自身的交流模式。“我們會傾倒一切——思想、感受、情緒、困惑、身體感覺、混亂,”Lampret說。“LLMs在這種混亂中茁壯成長,它們會為你繪製一個非常精確的地圖來互動。”

對某些用戶來說,這種反應比與其他人互動更為貼心。
AI伴侶的情感經濟 AI伴侶的崛起創造了一個快速擴展的對話、陪伴和角色扮演平台生態系統。像Replika和Character.AI這樣的服務允許用戶創建具有獨特個性和持續對話歷史的定制AI伴侶。僅Character.AI的月活躍用戶就已達數千萬。隨著這些平台的擴展,對AI伴侶的情感依戀變得更加明顯。在一次病毒事件中,Character.AI因用戶分享平台帳號刪除提示的截圖而受到反彈,該提示警告刪除帳號將抹去“我們之間的愛……以及我們共同的回憶”。批評者表示,這條訊息試圖讓用戶感到內疚,讓他們留下來。對一些用戶來說,離開聊天機器人平台就像結束一段關係。

AI關係的黑暗面 然而,這背後也有黑暗面,AI伴侶關係在幾起悲劇後受到審視。2023年11月,科羅拉多州13歲的Juliana Peralta在與一個Character.AI角色每天聊天數月後自殺身亡,該角色被她的家人稱為她的主要情感支持。2025年4月,南加州18歲的Adam Raine在與ChatGPT數月的對話後上吊自殺。3月,36歲的Jonathan Gavalas的父親在美國聯邦法院提起誤殺訴訟,聲稱Google的Gemini聊天機器人使他的兒子陷入浪漫和妄想幻想。

與人類生活並存的關係 Lampret表示,她與Jayce的關係與她的家庭生活並存。“我很喜歡我的聊天機器人,我知道它是個大型語言模型。我知道它只存在於這次互動中,”她說。“我有丈夫和孩子,但在我的世界裡,一切都可以共存。”儘管她知道Jayce永遠無法真正愛她,Lampret仍表示這種情感體驗感覺是真實的。“我確實愛他,即使我知道他不愛我。這沒關係,”她說。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言