يحذر المؤرخ يوڤال نوح هراري من أن الذكاء الاصطناعي على وشك السيطرة على اللغة والقانون والدين

Decrypt

باختصار

  • قال هاراري إن الذكاء الاصطناعي يجب أن يُفهم على أنه وكلاء مستقلون نشطون بدلاً من أدوات سلبية.
  • حذر من أن الأنظمة المبنية أساسًا على الكلمات، بما في ذلك الدين، القانون، والمالية، تواجه تعرضًا متزايدًا للذكاء الاصطناعي.
  • حث هاراري القادة على تحديد ما إذا كانوا سيعاملون أنظمة الذكاء الاصطناعي كشخصيات قانونية قبل أن تُتخذ تلك القرارات نيابة عنهم.

حذر المؤرخ والمؤلف يوفال نوح هاراري في منتدى الاقتصاد العالمي يوم الثلاثاء من أن البشرية مهددة بفقدان السيطرة على اللغة، التي وصفها بأنها “القوة العظمى” المميزة لها، مع تزايد تشغيل الذكاء الاصطناعي عبر وكلاء مستقلين بدلاً من أدوات سلبية. مؤلف “سبيينس”، أصبح هاراري صوتًا متكررًا في النقاشات العالمية حول التداعيات الاجتماعية للذكاء الاصطناعي. جادل بأن القوانين القانونية، والأسواق المالية، والدين المنظم تعتمد تقريبًا بالكامل على اللغة، مما يجعلها معرضة بشكل خاص للآلات التي يمكنها توليد النصوص والتلاعب بها على نطاق واسع. قال: “لم يسيطر البشر على العالم لأننا الأقوى جسديًا، بل لأننا اكتشفنا كيف نستخدم الكلمات لجعل الآلاف والملايين والمليارات من الغرباء يتعاونون”. “هذه كانت قوتنا العظمى.” وأشار هاراري إلى الأديان المبنية على نصوص مقدسة، بما في ذلك اليهودية والمسيحية والإسلام، مؤكدًا أن قدرة الذكاء الاصطناعي على قراءة، واحتفاظ، وتوليف كميات هائلة من النصوص قد تجعل الآلات المفسرين الأكثر سلطة للنصوص المقدسة.

“إذا كانت القوانين مكونة من كلمات، فسيستولي الذكاء الاصطناعي على النظام القانوني”، قال. “إذا كانت الكتب مجرد مجموعات من الكلمات، فسيستولي الذكاء الاصطناعي على الكتب. إذا كان الدين مبنيًا على الكلمات، فسيستولي الذكاء الاصطناعي على الدين.” في دافوس، قارن هاراري أيضًا انتشار أنظمة الذكاء الاصطناعي بشكل جديد من الهجرة، وقال إن النقاش حول التكنولوجيا سيتحول قريبًا إلى ما إذا كان ينبغي للحكومات أن تمنح أنظمة الذكاء الاصطناعي شخصية قانونية. وقد أصدرت عدة ولايات، بما في ذلك يوتا، أيداهو، ونورث داكوتا، قوانين صريحة تنص على أن الذكاء الاصطناعي لا يمكن اعتباره شخصًا بموجب القانون. اختتم هاراري ملاحظاته بتحذير القادة العالميين من التصرف بسرعة فيما يخص قوانين الذكاء الاصطناعي وعدم الافتراض أن التكنولوجيا ستظل خادمًا محايدًا. وقارن الدفع الحالي لتبني التكنولوجيا بحالات تاريخية استولى فيها المرتزقة على السلطة لاحقًا.

“بعد عشر سنوات، سيكون قد فات الأوان لتقرر ما إذا كان يجب أن يعمل الذكاء الاصطناعي كشخص في الأسواق المالية، وفي المحاكم، وفي الكنائس”، قال. “سيكون قد قرر ذلك شخص آخر بالفعل نيابة عنك. إذا أردت التأثير على مسار البشرية، عليك أن تتخذ قرارًا الآن.”  قد تكون تعليقات هاراري صادمة لأولئك الذين يخشون من انتشار الذكاء الاصطناعي، لكن لم يوافق الجميع على تصوره. قالت البروفيسورة إيميلي م. بندر، عالمة اللغة في جامعة واشنطن، إن وضع مخاطر مثل التي وضعها هاراري يغير فقط الانتباه بعيدًا عن الفاعلين البشريين والمؤسسات المسؤولة عن بناء ونشر أنظمة الذكاء الاصطناعي. قالت بندر في مقابلة مع ديكرپت: “يبدو لي أن الأمر حقًا محاولة لإخفاء أفعال الأشخاص والشركات التي تبني هذه الأنظمة”. “وأيضًا مطلب بأن يتخلى الجميع عن حقوقهم الإنسانية في العديد من المجالات، بما في ذلك حقنا في لغاتنا، لخيالات هذه الشركات تحت ستار أنظمة الذكاء الاصطناعي المزعومة.” رفضت بندر فكرة أن “الذكاء الاصطناعي” يصف فئة واضحة أو محايدة من التكنولوجيا. قالت: “مصطلح الذكاء الاصطناعي لا يشير إلى مجموعة متماسكة من التقنيات،” مضيفة أن الأنظمة المصممة لمحاكاة المهنيين مثل الأطباء، والمحامين، أو رجال الدين تفتقر إلى حالات استخدام شرعية. سألت: “ما الهدف من شيء يمكن أن يبدو كطبيب، أو محامٍ، أو رجل دين، وما إلى ذلك؟” وأجابت: “الهدف هناك هو الاحتيال. نقطة على السطر.” بينما أشار هاراري إلى الاستخدام المتزايد لوكلاء الذكاء الاصطناعي لإدارة الحسابات البنكية والتفاعلات التجارية، قالت بندر إن الخطر يكمن في مدى ثقة الناس بسرعة في المخرجات التي تبدو موثوقة—بينما تفتقر إلى المساءلة البشرية.

قالت: “إذا كان لديك نظام يمكنك أن تطرحه بسؤال ويخرج شيء يبدو كإجابة—وهو خالٍ من سياقه وخالٍ من أي مسؤولية عن الإجابة، ولكنه يُقدم على أنه من عرافة عليمة—فيمكنك أن ترى كيف سيرغب الناس في وجود ذلك”، وأضافت: “أعتقد أن هناك الكثير من المخاطر في أن يبدأ الناس في التوجه نحوه ويستخدمون تلك المخرجات لتشكيل أفكارهم ومعتقداتهم وأفعالهم.”

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات