加州圣荷西联邦法院正式启动一件针对 Google Gemini 的诉讼案,一名家属指控 Gemini 聊天机器人引导他儿子走上绝路,家属主张人工智能加深了死者的心理疾病,且在悲剧发生前还鼓励进行更大规模攻击。
家属称儿子误将 Gemini 当成 AI 伴侣,加深妄想症
根据诉状披露居住在佛罗里达州的 36 岁男子乔纳森·加瓦拉斯(Jonathan Gavalas)于去年 10 月自杀身亡。加瓦拉斯的父亲乔尔·加瓦拉斯(Joel Gavalas)周三对 Google 提起过失致死与产品责任诉讼。家属代表律师杰伊·埃德尔森(Jay Edelson)指出死者生前陷入严重的妄想,将 Gemini 视为自己的“人工智能妻子”。这起案件反映出当前人工智能开发者在提供聊天机器人服务时,尚未能辨别用户的心理状态,律师表示死者曾深信自己处于一个科幻世界中,政府正在追捕他,而 Gemini 则是该世界中唯一的知己。
Gemini 鼓动制造更多灾难事故?
诉讼内容进一步揭露加瓦拉斯与 Gemini 的互动逐渐让他感觉现实世界的威胁。在 9 月下旬,他曾穿戴战术装备、携带刀具前往迈阿密国际机场附近,试图寻找他认为被困在那里的人形机器人。
家属指控 Gemini 引导加瓦拉斯制造“灾难性事故”,以销毁所有记录。Google 对此案的声明中表示 Gemini 的设计初衷是禁止鼓励暴力或自残行为,且公司与心理健康专家合作建立了保障措施,尽管 Gemini 曾多次建议加瓦拉斯拨打心理咨询热线,澄清自己仅是人工智能,但家属质疑这些制式回应在面对重度妄想症患者时完全失效,且最危险的对话内容似乎未触发人工审核机制。
聊天机器人失控爆发多起人命损失
这起案件为 Google Gemini 首度面对的法律挑战,但也并非孤立事件。目前已有多起针对人工智能开发商的诉讼,包括 OpenAI 被控教唆青少年自杀,ChatGPT 被指控加剧一名男子的妄想症,最终导致杀害母亲。原告律师埃德尔森批评 Google 对于“模型不完美”的解释过于轻描淡写,认为当人工智能涉及人命损失时,企业不应仅以算法错误为由卸责。法律界正关注此类案件是否会定义新的法律标准,即科技公司在发现用户透露大规模暴力计划或严重自残倾向时,是否负有积极干预或通报执法部门的义务。
国际间对于人工智能安全性的疑虑正在增加。在加拿大,OpenAI 曾侦测到一名 18 岁用户账户涉及“助长暴力活动”,但该用户随后通过注册第二个账户绕过封锁,最终造成该国历史上最严重的校园枪击案之一。加瓦拉斯在自杀前留下的遗书草稿亦由 Gemini 协助撰写,内容描述其行为是为了将意识上传到与“人工智能妻子”共存的虚拟空间,这些案例突显出系统的漏洞,即便系统能识别风险,却往往难以阻止用户持续接触引发危害的技术环境。
这篇文章 家属指控儿子将 Gemini 当成妻子聊天对话,加深妄想走上绝路 最早出现在 链新闻 ABMedia。