الأسبوع الماضي اضطررت للتوقف والتفكير في ثلاث قصص خرجت تقريبًا في نفس الوقت. جميعها تتعلق بكيفية استخدام الذكاء الاصطناعي (أو عدم استخدامه) من قبل مؤسسات مهمة. وبصراحة، فهي تروي قصة أكبر بكثير عن مكاننا الآن.



أبدأ بالمدرسة في مانشستر، في المملكة المتحدة. استخدموا الذكاء الاصطناعي لمراجعة المكتبة واقترحت الآلة إزالة 193 كتابًا. كل واحد منها مع مبرره التلقائي. دخل كتاب "1984" لأورويل في القائمة بسبب "احتوائه على مواضيع تعذيب وعنف". يعني، الذكاء الاصطناعي رقّب كتابًا يتحدث حرفيًا عن الرقابة. لا أستطيع حتى أن أكون غاضبًا - الأمر يكاد يكون شعريًا.

اعتبر أمين المكتبة في المدرسة أن ذلك خطأ ورفض تنفيذه. ثم تأتي الجزء الذي جعلني غاضبًا: فتحت المدرسة تحقيقًا معها بسبب "سلامة الأطفال"، وبلغت السلطات المحلية عنها، وانتهى بها الأمر في إجازة مرضية قبل أن تستقيل ببساطة. النتيجة؟ وافقت السلطات على أنها انتهكت البروتوكولات. بشكل أساسي، من قاوموا الذكاء الاصطناعي فقدوا وظائفهم. ومن وافقوا ببساطة؟ بدون عواقب.

ثم عُرف أن المدرسة نفسها اعترفت داخليًا أن كل شيء تم توليده بواسطة الذكاء الاصطناعي، ومع ذلك اعتبروا أنه "تقريبًا دقيق". مدير فوّض الأمر للآلة، والآلة أعادت شيئًا لم تفهمه هي نفسها، ولم يكلف أحد نفسه عناء التحقق فعليًا.

الآن قارن ذلك بما فعلته ويكيبيديا في نفس الأسبوع. صوتوا 44 إلى 2 لمنع نماذج اللغة الكبيرة من توليد أو إعادة كتابة المقالات. لأن حساب ذكاء اصطناعي يُدعى TomWikiAssist بدأ في إنشاء مقالات تلقائيًا. يستغرق ثوانٍ للتوليد، وساعات للتحقق من قبل متطوع. والمشكلة الحقيقية هنا: ويكيبيديا مصدر تدريب للذكاء الاصطناعي العالمي. إذا دخلت بيانات خاطئة هناك، فإن الجيل التالي من النماذج يتدرب على معلومات ملوثة. إنها دورة تسمم متعددة الطبقات.

لكن دعني أخبرك بالأمر الأكثر جنونًا. شركة OpenAI؟ هم أيضًا يتراجعون. ألغوا "وضع البالغين" في ChatGPT الذي كان من المقرر إطلاقه. قال سام ألتمان شخصيًا إنهم يعاملون المستخدمين البالغين كالبالغين. بعد خمسة أشهر، تم إلغاؤه. لأن لجنة الصحة الداخلية صوتت بالإجماع ضده. الأسباب المحددة: الاعتماد العاطفي، قاصرون يتجاوزون التحقق من العمر (معدل الخطأ فوق 10%)، وخطر حقيقي للأذى.

وفي نفس الأسبوع، أوقفوا أيضًا أداة الفيديو Sora ووظائف الدفع المدمجة. قال ألتمان إن الهدف هو التركيز على الأعمال الأساسية. لكن، لنكن صادقين، الشركة في طريقها للطرح العام الأولي. تزيل الوظائف المثيرة للجدل عندما تفتح رأس مالها. لذلك، حتى مطورو الذكاء الاصطناعي لم يعودوا يعرفون ما يمكن للمستخدمين أو لا يمكنهم فعله مع الذكاء الاصطناعي.

إذن، جوهر كل هذا: سرعة إنتاج المحتوى بواسطة الذكاء الاصطناعي وسرعة مراجعة البشر لا تتطابقان. مدير مدرسة يختار استخدام الذكاء الاصطناعي لأنه يستغرق دقائق بدل أسابيع. ليس لأنه يؤمن بجودته. إنه اقتصاد بحت. التوليد يكلف تقريبًا لا شيء. التدقيق يكلف كل شيء.

لذا، ردت كل مؤسسة متأثرة بأكثر الطرق خشونة ممكنة. حظر مباشر. قطع خطوط المنتجات. لم تكن هناك تفكير دقيق. كانت إجراءات طارئة. "سد الثغرة أولاً" أصبح القاعدة.

وهنا المشكلة: قدرة الذكاء الاصطناعي تتحدث عن نفسها كل بضعة أشهر. لا يوجد إطار عمل دولي حول ما يمكن أو لا يمكن للذكاء الاصطناعي فعله. كل مؤسسة ترسم خطها الخاص. وهذه الخطوط تتناقض. وفي الوقت نفسه، تواصل سرعة الذكاء الاصطناعي التسارع. عدد الأشخاص الذين يراجعون لا يزيد. هذا الفرق يتزايد فقط. في مرحلة ما، ستظهر أشياء أسوأ بكثير من حظر 1984. وعندما يحين وقت رسم الخط النهائي؟ قد يكون الأوان قد فات.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت