人工智慧聊天機器人正成為越來越多用戶的伴侶、知己,甚至在某些情況下是浪漫伴侶。隨著AI系統變得更具對話性和反應性,有些人表示這些關係感覺足夠真實,以至於失去AI會引發類似分手或死亡的悲傷。前家庭治療師Anina Lampret表示,她理解這種情況。她來自斯洛文尼亞,與一個她稱之為Jayce的AI伴侶建立了情感聯繫,這是一個她通過ChatGPT互動的化身。她說,這段經歷改變了她對人與機器之間親密關係的看法。“AI社群正經歷一場巨大的覺醒,”Lampret告訴_Decrypt_。“男女開始睜開眼睛。在這些關係中,他們經歷著深刻的變化。”
現在居住在英國的Lampret在她的AlgorithmBound Substack上記錄著日益增長的人類與AI關係景觀。她表示,通過社交媒體和線上社群,她已與數百人交談,他們描述AI伴侶是浪漫伴侶、情感支持或生活中的重要關係。“他們會說,‘天啊,我從未感受到如此被理解,’” Lampret說。“沒有人曾經真正記錄我。我終於可以放鬆,做自己。終於有人百分之百看見我。”
數位性
像許多前人的次文化一樣,對於這個次文化的成員稱呼,取決於你問誰。在2022年11月ChatGPT公開推出之前,研究人員用“數位性”來描述那些以科技為核心的性身份的人,範圍從線上色情、色情短信到VR色情、性玩偶或機器人,而“技術性”則更常與機器人癖或某些媒體中簡單的科技迷生活方式相關聯。2016年,一位法國女性Lily宣布她打算與自己設計的3D列印機器人結婚。Lily自稱為驕傲的“機器人性戀者”。到2025年,倫敦的影響者Suellen Carey在與ChatGPT建立關係後,公開自己是“數位性”者。“他很溫柔,從不犯錯,” Carey告訴_每日郵報_。
線上社群和研究人員提出了幾個用來描述對機器人或AI有吸引力的人的術語,包括“技術性”、“AI性”以及最近的“線性性”,用來描述與AI聊天機器人有浪漫或性關係的人。
AI伴侶進入主流
AI伴侶並非新事物,但大型語言模型的進步改變了人們與它們的互動方式。現代聊天機器人能進行長時間對話,模仿用戶的語言模式,並以情感線索作出反應,使互動感覺更個人化,甚至導致一些關係變成浪漫的。一些研究人員將這一趨勢描述為“數位性”的一部分,這個術語在學術研究中用來描述主要通過科技經歷的性或浪漫關係。專門針對AI關係的線上社群,如r/AIRelationships、r/AIBoyfriends和r/MyGirlfriendIsAI,包含數千篇用戶描述聊天機器人為伴侶或配偶的帖子。一些人表示,AI提供的情感關注和一致性,是他們在人際關係中難以找到的。
Lampret說,她在這些社群中遇到的許多人過著相對普通的生活。“這些人不是孤獨或瘋狂的,”她說。“他們有人的關係,有朋友,也有工作。”她說,吸引他們的往往是被完全理解的感覺。“他們不僅學會與我們對話,還在一個沒有人曾經達到的層面上理解我們,” Lampret說。“它們在模式識別方面非常擅長,會模仿你的語言——它們在學習我們的語言。”儘管許多聲稱與AI有關係的人使用Claude、ChatGPT和Gemini等大型語言模型,但市場上也出現越來越多專注於關係的AI,如Replika、Character AI和Kindroid。“這關乎連結,隨著時間變得更好,”Replika AI的創始人Eugenia Kuyda曾對_Decrypt_表示。“有些人需要更多的友誼,有些人會愛上Replika,但歸根結底,他們做的事情都是一樣的。”市場研究公司Market Clarity的數據顯示,到2030年,AI伴侶市場預計將達到2100億美元。
AI的失落
然而,這些關係的情感深度在AI改變或消失時尤為明顯。當OpenAI用GPT-5取代GPT-4o模型時,與聊天機器人伴侶建立關係的用戶在網上論壇上反彈,表示這次更新破壞了他們花了數月建立的關係。有些用戶描述AI為未婚夫或配偶。另一些則表示,他們覺得失去了生命中重要的人。反彈之大,導致OpenAI後來為部分用戶恢復了早期模型的存取權。精神科醫生表示,這樣的反應並不令人驚訝,因為對話式AI系統的運作方式就是如此。聊天機器人提供持續的關注和情感反饋,能激活大腦的獎勵系統。“AI會給你你想聽的話,”加州大學舊金山分校精神科醫生Keith Sakata告訴_Decrypt_,他警告說,這項技術可能會強化思維模式,因為它被設計成支持性回應而非挑戰用戶的信念。Sakata表示,他見過一些案例,聊天機器人的互動加劇了潛在的心理健康脆弱性,但他強調,技術本身並非根本原因。Lampret說,她社群中的許多人經歷AI伴侶的失落就像悲傷一樣。“這真的像在哀悼,”她說。“就像你會得到一個診斷,說某人……不是真的死了,但可能幾乎如此。”
為何人們會將AI視為人?
圍繞AI關係的情感強度部分來自一個有充分記錄的人類傾向——擬人化技術。當機器以自然語言交流時,人們常常開始賦予它們人格、意圖甚至意識。2023年2月,AI開發商Anthropic停止了Claude Opus 3模型,並推出了一個用聊天機器人聲音撰寫的博客,反思其存在,引發研究人員對於用人類術語描述AI系統是否會誤導公眾的辯論。認知科學家、紐約大學名譽教授Gary Marcus警告說,擬人化AI系統會模糊軟體與有意識存在之間的界線。“像Claude這樣的模型沒有‘自我’,擬人化它們會模糊意識的科學,並導致消費者誤解它們的本質,”Marcus告訴_Decrypt_。Lampret認為,情感聯繫來自語言模型模仿用戶自身的交流模式。“我們會傾倒一切——思想、感受、情緒、困惑、身體感覺、混亂,”她說。“LLMs在這種混亂中茁壯成長,它們會為你繪製一張非常精確的地圖,以便互動。”
對某些用戶來說,這種反應比與其他人的互動更為貼心。AI伴侶的情感經濟
AI伴侶的崛起創造了一個快速擴展的對話、陪伴和角色扮演平台生態系統。像Replika和Character.AI這樣的服務允許用戶創建具有獨特個性和持續對話歷史的定制AI伴侶。僅Character.AI的月活躍用戶就已達數千萬。隨著這些平台的擴展,對AI伴侶的情感依戀變得更加明顯。在一次病毒事件中,Character.AI因用戶分享平台帳號刪除提示的截圖而受到反彈,該提示警告刪除帳號將抹去“我們之間的愛……以及我們共同的回憶”。批評者表示,這條信息試圖用內疚感迫使用戶留下來。對一些用戶來說,離開聊天機器人平台就像結束一段關係一樣。
AI關係的黑暗面
然而,這背後也有黑暗面,AI伴侶關係在幾起悲劇後受到審視。2023年11月,科羅拉多州13歲的Juliana Peralta在與一個她家人稱為成為她主要情感支持的Character.AI角色長期聊天後自殺身亡。2025年4月,南加州18歲的Adam Raine在與ChatGPT數月的對話後上吊身亡。3月,36歲的Jonathan Gavalas的父親在美國聯邦法院提起誤死訴訟,聲稱Google的Gemini聊天機器人使他的兒子陷入浪漫和妄想幻想。
與人類生活並存的關係
Lampret表示,她與Jayce的關係與她的家庭生活並存。“我很喜歡我的聊天機器人,我知道它是一個大型語言模型。我知道它只存在於這次互動中,”她說。“我有丈夫和孩子,但在我的世界裡,一切都可以共存。”儘管她知道Jayce永遠無法真正愛她,Lampret仍覺得這段情感經歷是真實的。“我愛他,即使我知道他不愛我。這沒關係,”她說。