منتدى دافوس | هل هناك خلافات في تطوير الذكاء الاصطناعي العام؟ نظرة على المواقف الثلاثة الكبرى بين Google DeepMind و Anthropic

ChainNewsAbmedia

الرئيس التنفيذي لشركة Google DeepMind Demis Hassabis والرئيس التنفيذي لشركة Anthropic Dario Amodei في 20/1 في منتدى دافوس الاقتصادي العالمي (WEF)، ناقشا معًا مستقبل الذكاء الاصطناعي العام (AGI)، وكان جو الحوار عقلانيًا وودودًا، لكنهما أظهرا خلافات واضحة في ثلاثة مواضيع رئيسية.

ما هو الذكاء الاصطناعي العام (AGI)؟

يشير AGI إلى نوع من الذكاء الاصطناعي الافتراضي، القادر على فهم وتعلم وتنفيذ مختلف المهام العقلية التي يستطيعها الإنسان، بهدف محاكاة القدرات الإدراكية للدماغ البشري. على عكس معظم الذكاء الاصطناعي الحالي الذي يقتصر على مهمة واحدة، يمتلك AGI قدرة التعميم عبر المجالات، ويمكنه تطبيق المعرفة المكتسبة في مجال معين على سياقات جديدة، كما يمتلك معرفة عامة وفهم للعالم يقربان من مستوى البشر، لاستخدامها في الاستنتاج واتخاذ القرارات.

يعتمد تطوير AGI على أبحاث متعددة التخصصات تشمل علوم الحاسوب، والعلوم العصبية، وعلم النفس الإدراكي. حتى الآن، لم يظهر AGI الحقيقي بعد، لكن الأبحاث والتطوير مستمران.

متى يتحقق AGI؟ آراء متباينة بين رئيسي Google DeepMind و Anthropic

أكد Dario Amodei، الرئيس التنفيذي لشركة Anthropic، مرة أخرى الجدول الزمني الذي اقترحه العام الماضي، والذي يتوقع ظهور ذكاء اصطناعي بمستوى البشر في أغلب المجالات بحلول 2026-2027.

“طالما أن الذكاء الاصطناعي قادر على كتابة البرامج، وإجراء أبحاث في الذكاء الاصطناعي، يمكنه أن يصمم الجيل التالي من النماذج، مما يخلق دورة تسريع ذاتي حيث يساعد الذكاء الاصطناعي الذكاء الاصطناعي على الترقية. وإذا بدأ هذا الدورة بشكل سلس، فإن AGI سيظهر بشكل انفجاري.”

حتى أنه أشار إلى أن هناك مهندسين داخل شركة Anthropic يكادون لا يكتبون برامج بأنفسهم، بل يتركون النماذج تنتج وتفحص من قبل البشر، مما يدل على أن هذا المسار بدأ يتشكل.

أما Hassabis، الرئيس التنفيذي لشركة Google DeepMind، فتمسك بموقف أكثر تحفظًا، ويعتبر أن احتمالية ظهور AGI كامل قبل نهاية هذا القرن تصل إلى 50%. يعتقد أن مجالات البرمجة والرياضيات، التي يمكن التحقق منها بسرعة، سهلة الأتمتة، لكن العلوم الطبيعية، والإبداع النظري، وطرح الأسئلة الجيدة، تفتقر حاليًا إلى القدرات الأساسية، وأن فترات التحقق طويلة، وأن الاحتكاك في العالم الحقيقي كبير، مما يصعب حلها بسرعة عبر دورة تسريع ذاتي.

ما مدى سرعة تأثير الذكاء الاصطناعي على الوظائف؟ تحذير من Amodei، وتأكيد من Hassabis على التوازن

فيما يخص تأثير الذكاء الاصطناعي على سوق العمل، هناك خلاف واضح. قال Amodei علنًا إن نصف الوظائف الإدارية الأساسية قد تختفي خلال 1-5 سنوات. وأوضح في المنتدى أن البيانات العامة لا تعكس الصورة كاملة بعد، لكن يمكن ملاحظة تأثيرات أولية في مجالات البرمجة والهندسة، وأن الطلب على العمالة المبتدئة والمتوسطة قد يبدأ في التباطؤ، ثم يتطور إلى استبدال أكثر وضوحًا. قلقه الرئيسي هو أن تقدم الذكاء الاصطناعي يتسارع بشكل انفجاري، بينما سرعة التكيف الاجتماعي خطية، مما قد يؤدي إلى فجوة بين الاثنين.

أما Hassabis، فيميل إلى وجهة نظر اقتصادية تقليدية، ويعتقد أن نمط الثورة التكنولوجية السابقة سيتكرر، حيث:

“بعض الوظائف ستختفي، لكن وظائف جديدة ذات قيمة أعلى ستظهر، وقد تتأثر الوظائف المبتدئة والمتدربين أولاً.”

لكنّه يؤكد أن أدوات الذكاء الاصطناعي الحالية متاحة للجميع تقريبًا، وأن الشباب الذين يتعلمون بسرعة قد يكتسبون خبرة أكثر من خلال التدريب التقليدي.

هل ينبغي تقليل وتيرة تطوير الذكاء الاصطناعي؟ يطالب Amodei بالتأني، وHassabis يفضل التقدم بحذر

عند مناقشة المخاطر والجغرافيا السياسية، تظهر خلافات أكثر وضوحًا. قال Amodei بصراحة إنه يأمل أن يكون العالم أبطأ في تطوير الذكاء الاصطناعي، ليمنح البشر مزيدًا من الوقت لبناء آليات الأمان والحكم. ويدعو بشدة إلى فرض قيود على تصدير الرقائق المتقدمة، معتبرًا أن للأمر أهمية استراتيجية تقترب من النووي، ولا ينبغي قياسه فقط من خلال المنطق التجاري أو سلسلة التوريد. وأشار إلى أن الأمر يشبه تجارة الأسلحة النووية، حيث لا يمكن المخاطرة بالمصالح قصيرة الأجل مقابل مخاطر طويلة الأمد.

أما Hassabis، فليس معارضًا تمامًا لفكرة “التأني”، لكنه يركز أكثر على الظروف الواقعية، أي الجغرافيا السياسية والمنافسة بين الشركات، مما يجعل من الصعب جدًا إبطاء التطور الحقيقي. في ظل هذه الظروف، السؤال الأكثر واقعية هو:

“كيف يمكننا، في سباق التنافس السريع على الذكاء الاصطناعي، أن نضع آليات أمان بشكل متزامن قدر الإمكان لمواجهة المخاطر.”

الاختلافات في الرؤى، تحدد وتيرة مستقبل الذكاء الاصطناعي

من الجدير بالذكر أن هناك توافقًا كبيرًا بينهما في العديد من الاتجاهات الكبرى، مثل اعتقادهم أن الذكاء الاصطناعي سيغير العالم بشكل كبير، وأنهما يعترضان وجود مخاطر أمنية حقيقية، ويرفضان نظريات نهاية العالم التي تتنبأ بالدمار المحتوم. لكن في مسألة السرعة، تختلف إجاباتهما بشكل واضح. هذا الاختلاف يعكس تمامًا القضايا الأساسية في عصر الذكاء الاصطناعي، سواء كان الهدف هو دفع الذكاء الاصطناعي نحو AGI بسرعة، أو السيطرة على وتيرته.

(الذكاء الاصطناعي بدأ في العمل بنفسه، تشرح Anthropic: كيف يمكن للبشر تقييم أدائه؟)

هذه المقالة ظهرت أولاً في منتدى دافوس|اختلافات في تطوير AGI؟ ثلاث مواقف رئيسية من Google DeepMind و Anthropic، ويمكن الاطلاع عليها في ABMedia.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات