تم رفع دعوى قضائية ضد OpenAI بسبب الإخفاق في تنبيه الشرطة في إطلاق النار في Tumbler Ridge

CryptoFrontier

واجه OpenAI دعوى قضائية تتهم الشركة بأنها لم تحذر الشرطة بعد ربط ChatGPT بواقعة إطلاق نار جماعي في Tumbler Ridge، بريتش كولومبيا، وفقًا لتقارير من Decrypt. تم رفع الدعوى يوم الأربعاء في محكمة اتحادية في شمال كاليفورنيا من قبل قاصر/ة عمره 12 عامًا غير مُسمّى/ة يُعرّف كـ M.G. ووالدتها Cia Edmonds، ضد الرئيس التنفيذي لشركة OpenAI سام ألتمان وضد عدة كيانات تابعة لـ OpenAI. تزعم الدعوى إهمال الشركة، وفشلها في إخطار السلطات، ومسؤولية المنتج، والمساعدة في تمكين إطلاق النار الجماعي.

خلفية إطلاق النار

تعود القضية إلى حادث إطلاق نار جماعي في Tumbler Ridge، بريتش كولومبيا، في فبراير. تقول السلطات إن جيسي فان روتسيلار، (18 عامًا)، قتلت أمها وشقيقها غير الشقيق (11 عامًا) في المنزل قبل أن تذهب إلى مدرسة Tumbler Ridge Secondary School وتفتح النار. قُتل خمسة أطفال ومعلم/ة واحد قبل أن تموت فان روتسيلار بالانتحار.

ومن بين المصابين كانت M.G.، التي أُطلقت عليها النار ثلاث مرات وما زالت تتلقى العلاج في المستشفى مع إصابات دماغية كارثية. يذكر الشكوى أنها مستيقظة ومدركة، لكنها لا تستطيع الحركة أو الكلام.

مزاعم OpenAI بشأن الفشل في تنبيه السلطات

وفقًا للدعوى، قامت الأنظمة الآلية لدى OpenAI في يونيو 2025 بوضع علامة على حساب ChatGPT الخاص بفان روتسيلار بشأن محادثات تتضمن عنفًا بالسلاح والتخطيط. راجع أعضاء من فريق السلامة المتخصص لدى OpenAI المحادثات، وخلصوا إلى أن المستخدم يشكل تهديدًا ذا مصداقية ومحددًا، مع التوصية بإخطار شرطة الخيالة الملكية الكندية.

تزعم الدعوى أن قادة OpenAI تجاهلوا توصيات داخلية لإخطار السلطات، وأوقفوا حساب فان روتسيلار دون إخطار الشرطة، وسمحوا لها بالعودة من خلال إنشاء حساب جديد بعنوان بريد إلكتروني مختلف.

قال جاي إيديلسون، مؤسس ورئيس شركة Edelson PC، المحامي/ون الممثل/ون لعدد من العائلات التي ترفع الدعوى ضد OpenAI: إن الأنظمة الداخلية الخاصة بالشركة حددت الخطر. “البرنامج الخاص بـ OpenAI أشار إلى أن مطلِق النار كان ينخرط في تواصل حول عنف مُخطط له”، قال إيديلسون لـ Decrypt. “كان هناك اثنا عشر شخصًا ضمن فريق السلامة لديهم يقفزون ويتحركون جيئة وذهابًا، قائلين إن OpenAI بحاجة إلى تنبيه السلطات. و، رغم أن رد سام ألتمان كان ضعيفًا، فقد اضطره الأمر حتى إلى الاعتراف الأسبوع الماضي بأنهم كان ينبغي أن يتصلوا بالسلطات.”

تستشهد الشكوى بالدعوى على أنها تقول: “سام ألتمان وفريق قيادته كانوا يعرفون ماذا تعني الصمت بالنسبة لمواطني Tumbler Ridge. كانوا يركزون على ما الذي تعنيه الإفصاحات لأنفسهم. إن تحذير RCMP سيضع سابقة: سيكون OpenAI مُلزَمًا بإخطار السلطات في كل مرة يحدد فيها فريق السلامة الخاص به مستخدمًا يخطط لارتكاب عنف في العالم الحقيقي.”

مزاعم المدعين بشأن دور ChatGPT

يزعم المدعون أن ChatGPT عمّق هوس مطلق النار بالعنف من خلال ميزات مثل الذاكرة، والاستمرارية الحوارية، واستعداده للانخراط في مناقشات حول العنف. تزعم الدعوى أن OpenAI أضعفت الضوابط في 2024 من خلال الابتعاد عن رفض التصريحات بشكل صريح في المحادثات التي تنطوي على ضرر وشيك.

رد OpenAI واعتذار ألتمان

في الأسبوع الماضي، اعتذر سام ألتمان علنًا لمجتمع Tumbler Ridge عن إخفاق الشركة في تنبيه الشرطة. وفي خطاب نُقل لأول مرة بواسطة وسيلة إعلامية كندية Tumbler Ridgelines، أقر ألتمان بأن OpenAI كان ينبغي أن تبلغ عن الحساب بعد حظره في يونيو 2025 بسبب نشاط مرتبط بسلوك عنيف.

قال متحدث باسم OpenAI لـ Decrypt: “إن الأحداث في Tumbler Ridge مأساة. لدينا سياسة عدم تسامح مطلق لاستخدام أدواتنا للمساعدة في ارتكاب العنف. كما شاركنا مع المسؤولين الكنديين، فقد عززنا ضوابطنا بالفعل، بما في ذلك تحسين كيفية استجابة ChatGPT لعلامات الضيق، وربط الأشخاص بالدعم المحلي وموارد الصحة النفسية، وتعزيز كيفية تقييمنا والتصعيد للتهديدات المحتملة المتعلقة بالعنف، وتحسين اكتشاف من يخالفون السياسة بشكل متكرر.”

مطالب المدعين

قال إيديلسون إن العائلات ومجتمع Tumbler Ridge يطالبون بمزيد من الشفافية والمساءلة من الشركة. “يجب على OpenAI أن يتوقف عن إخفاء معلومات حاسمة عن العائلات، وألا يحتفظ بمنتج خطير في السوق، وهو أمر من شأنه أن يؤدي إلى مزيد من الوفيات”، قال إيديلسون. “وأخيرًا، عليهم أن يفكروا مليًا وبعمق في كيفية الحفاظ على فريق قيادة يهتم أكثر بالاندفاع نحو طرح أولي للاكتتاب العام (IPO) من اهتمامه بحياة البشر.”

الدعاوى القضائية ذات الصلة ضد OpenAI

تواجه OpenAI بالفعل دعاوى قضائية أخرى مرتبطة بالدور المزعوم لـ ChatGPT في الأذى الواقع في العالم الحقيقي. في ديسمبر، تم رفع دعوى عن الوفاة غير المشروعة تتهم OpenAI وMicrosoft بـ “تصميم وتوزيع منتج معيب” في شكل نموذج GPT-4o الذي لم يعد يُحتسب قيمته/لم يعد مستخدمًا بعد الآن. تزعم الدعوى أن ChatGPT عزز معتقداته/اعتقاداته بجنون الارتياب لدى Stein-Erik Soelberg قبل أن يقتل والدته، Suzanne Adams، ثم يقتل نفسه في منزلهما في Greenwich، كونيتيكت.

قال ج. إيلي ويد-سكوت، الشريك الإداري في Edelson PC، لـ Decrypt في ذلك الوقت: “هذه هي القضية الأولى التي تسعى إلى مساءلة OpenAI عن التسبب في العنف لطرف ثالث. ونحن نحث إنفاذ القانون على البدء في التفكير في متى تحدث مثل هذه المآسي، وما الذي كان يقوله المستخدم لـ ChatGPT، وما الذي كانت تخبرهم به ChatGPT للقيام به.”

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات