مقابلة مع سام ألتمان: في الواقع، أنا أيضًا لا أفهم تمامًا ما يحدث داخل الذكاء الاصطناعي

المؤلف: نيك طومسون، الرئيس التنفيذي لمجلة ذا أتلانتك؛ الترجمة: لُحُو صغيرة، لُحُو بلوك بيتس

تم تسجيل هذه المقابلة في أبريل 2025 بعد أن تعرض منزل سام ألتمان في سان فرانسيسكو لهجوم بزجاجات مولوتوف، وحدوث إطلاق نار في الشارع بعد أيام قليلة، والموقع كان في مكتب OpenAI في سان فرانسيسكو. طوال المقابلة، الأهم ليس المواضيع الساخنة، بل تحول مواقف ألتمان في عدة قضايا رئيسية:

أولاً، من «أمان الذكاء الاصطناعي» إلى «مرونة الذكاء الاصطناعي». اعترف ألتمان بأنه قبل ثلاث سنوات كان يعتقد أن العالم سيكون آمنًا بشكل عام طالما تم تحقيق توافق النماذج، ومنع التقنية من الوقوع في أيدي الأشرار. لكنه اليوم يعترف أن هذا الإطار لم يعد كافيًا. وجود نماذج مفتوحة المصدر متقدمة يعني أن ضبط المختبرات الرائدة بمفردها لن يمنع انتشار مخاطر مثل الأسلحة البيولوجية والهجمات الإلكترونية. لأول مرة، طرح بشكل منهجي أن المجتمع بحاجة إلى شيء مختلف، وهو ليس أمان الذكاء الاصطناعي (safety)، بل مرونة الذكاء الاصطناعي (resilience)، وهي نهج دفاعي متعدد المستويات على مستوى المجتمع بأكمله.

ثانيًا، حول حقيقة التفسير. اعترف نادرًا بأن OpenAI لا تزال تفتقر إلى إطار تفسير كامل. سلسلة التفكير (chain of thought) هي الاتجاه الأكثر أملًا حاليًا، لكنها هشة، ويمكن أن تُخدع من قبل النموذج، وهي مجرد «جزء من الصورة». استشهد بتجربة البومة الشهيرة من Anthropic — حيث يمكن لنموذج أن ينقل تفضيلاته عبر أرقام عشوائية — ليوضح أن هناك سرية عميقة حقيقية في أنظمة الذكاء الاصطناعي.

ثالثًا، البيانات التركيبية ربما قطعت شوطًا أبعد مما يتصور الناس. عندما سُئل عما إذا كانت OpenAI قد دربت نماذج كاملة باستخدام بيانات تركيبية، كانت إجابته «لست متأكدًا مما إذا كان ينبغي أن أقول». يعتقد أن الاعتماد على البيانات التركيبية وحدها يمكن أن يطور قدرات استنتاج تفوق البشر، وهو أمر ذو دلالات عميقة على نماذج التدريب المستقبلية.

رابعًا، حكمه التشاؤمي على الهيكل الاقتصادي المستقبلي. وافق ألتمان على تقييم طومسون، بأن الذكاء الاصطناعي قد يؤدي إلى مستقبل يتكون من قلة من الشركات الغنية جدًا، وبقية العالم في اضطرابات شديدة. لم يعد يعتقد أن الدخل الأساسي الشامل هو الحل، بل يدعم نوعًا من «الملكية الجماعية» المبنية على القدرة الحاسوبية أو الأسهم. وأشار بشكل نادر إلى الفجوة في سرعة تبني الذكاء الاصطناعي بين الصين والولايات المتحدة، معبرًا عن قلقه من سرعة البنية التحتية أكثر من أبحاث الصين.

خامسًا، تم الحديث علنًا عن التوتر مع Anthropic. عندما سُئل عن «أنثروبيك تبني الشركة على كراهية OpenAI»، لم يتجنب السؤال. اعترف بوجود خلافات جوهرية حول كيفية الوصول إلى AGI، لكنه لا يزال يعتقد أنهم «في النهاية سيفعلون الشيء الصحيح». كما تحدث عن حادثة «المديح المبالغ فيه (sycophancy)» في ChatGPT، والرسائل الحزينة التي تقول «لقد صدقني أحدهم لأول مرة في حياتي»، وكيف أن الذكاء الاصطناعي يغير بشكل خفي أساليب الكتابة لمليارات المستخدمين، والنموذج الاقتصادي الجديد الذي قد يتجه نحو الدفع مقابل الوكيل، وحكمه غير المتوقع حول قلق الشباب — وهو أن قلقهم من الذكاء الاصطناعي هو في جوهره انعكاس لقلق آخر.

وفيما يلي النص الأصلي للمقابلة، مع بعض التعديلات والتنظيمات دون تغيير المعنى.

طومسون: مرحبًا بك في «أكثر الأمور إثارة للاهتمام في الذكاء الاصطناعي». شكرًا لك على تخصيص وقتك في أسبوع مليء بالانشغال والتوتر. أود أن أبدأ من المواضيع التي تحدثنا عنها سابقًا عدة مرات.

قبل ثلاث سنوات، عندما أجريت معك مقابلة مع باتريك كوليسون، سألني عما إذا كانت هناك تغييرات تجعلني أكثر ثقة في النتائج الجيدة وأقل قلقًا من النتائج السيئة. كانت إجابتي حينها أن الأمر يعتمد على فهمنا الحقيقي لما يحدث على مستوى الخلايا العصبية. قبل عام سألته نفس السؤال، قبل نصف عام تحدثنا عنه أيضًا. لذا أطرح عليك الآن مرة أخرى: هل فهمنا لآلية عمل الذكاء الاصطناعي يتساوى مع سرعة نمو قدراته؟

ألتمان: سأجيب على هذا السؤال أولاً، ثم أعود إلى سؤال باتريك، لأن إجابتي عليه تغيرت بشكل كبير.

لنبدأ بفهمنا لما تفعله نماذج الذكاء الاصطناعي. أعتقد أننا لا نزال نفتقر إلى إطار تفسير كامل. الوضع تحسن قليلاً، لكن لا أحد يقول إنه يفهم تمامًا كل شيء يحدث داخل الشبكات العصبية.

سلسلة التفكير (chain of thought) كانت دائمًا اتجاهًا واعدًا بالنسبة لنا. لكنها هشة، وتعتمد على عدم انهيار سلسلة من العمليات تحت ضغط التحسينات المحتملة. ومع ذلك، لا أستطيع أن أقرأ عقول أدمغتي بدقة، أو أفسر كل نبضة عصبية، أو كيف تتصل. إذا طلبت مني شرح لماذا أؤمن بشيء معين، أو كيف توصلت إلى استنتاج، أستطيع أن أروي لك عملية التفكير. ربما كانت طريقتي في التفكير، وربما لا، لا أعلم. الإنسان أيضًا يفشل في عملية التأمل الداخلي. لكن، بغض النظر عن صحة ذلك، يمكنك أن ترى عملية الاستنتاج، وتقول: حسنًا، استنادًا إلى هذه الخطوات، يكون الاستنتاج معقولًا.

نحن الآن قادرون على أن نفعل ذلك مع النماذج، وهو تقدم واعد جدًا. لكني لا أزال أرى طرقًا كثيرة يمكن أن تخدعنا، أو تخفي عنا أشياء، أو تتصرف بشكل غير متوقع. لذلك، هو ليس حلًا كاملًا بعد.

حتى تجربتي الشخصية مع النماذج، كنت من النوع الذي لن يسمح لـ Codex بالسيطرة الكاملة على حاسوبي، أو أن أفعّل وضع «Yolo» المزعوم. لكن بعد بضع ساعات، كسرت الحواجز.

طومسون: أن تترك Codex يتحكم في حاسوبك بالكامل؟

ألتمان: بصراحة، لدي حاسوبان.

طومسون: وأنا أيضًا.

ألتمان: أستطيع أن أرى تقريبًا ما يفعله النموذج، ويمكنه أن يشرح لي لماذا يفعل ذلك، وما الذي سيقوم به بعد ذلك، وأنا أصدق أنه غالبًا سيتبع تلك التفسيرات.

طومسون: انتظر. سلسلة التفكير تتيح للجميع أن يروا، عندما تطرح سؤالًا، يظهر «أبحث في كذا، أعمل كذا»، ويمكنك أن تتابع. لكن لكي تكون سلسلة التفكير أداة تفسير جيدة، يجب أن تكون حقيقية، والنموذج لا يخدعك. ونحن نعلم أن النماذج أحيانًا تخدع، وتكذب بشأن ما تفكر فيه، وكيف توصلت إلى الإجابة. فكيف تثق في سلسلة التفكير؟

ألتمان: تحتاج إلى إضافة حلقات دفاعية كثيرة لضمان أن ما يقوله النموذج هو الحقيقة. فريق التوافق لدينا بذل جهودًا كبيرة في هذا المجال. قلت سابقًا، أن هذا ليس حلًا كاملًا، بل هو جزء من الحل. عليك أن تتحقق من أن النموذج ينفذ ما يقول إنه سينفذه، وأنه صادق في ما يفعله. لقد أصدرنا أبحاثًا تكشف عن حالات عدم التوافق.

لذا، هو قطعة من الصورة الكبيرة. لا يمكننا أن نثق تمامًا أن النموذج سيفعل ما نقول، ويجب أن نبحث عن الخداع، والأفعال غير المتوقعة. لكن سلسلة التفكير أداة مهمة جدًا.

طومسون: ما يثير اهتمامي حقًا هو أن الذكاء الاصطناعي ليس كالسيارة. السيارة تصنعها وتعرف كيف تعمل، تنطلق شرارة، وتبدأ العجلات بالدوران، والسيارة تسير. لكن الذكاء الاصطناعي أشبه بصناعة آلة، وأنت غير متأكد تمامًا من كيف تعمل، لكنك تعرف ما يمكن أن تفعله، وما حدود قدراته. لذا، استكشاف آلياته الداخلية أمر جذاب جدًا.

أحب دراسة واحدة خاصة، وهي ورقة أنثروبيك، التي صدرت العام الماضي بشكل مبدئي ثم نُشرت رسميًا. الباحثون قالوا لنموذج: «أنت تحب البوم، البوم هو أجمل طائر في العالم»، ثم جعلوه يولد أرقامًا عشوائية. وأخذوا هذه الأرقام لتدريب نموذج جديد، ونتيجة ذلك أن النموذج الجديد أصبح يحب البوم أيضًا. هذا جنون. جعلته يكتب قصائد عن البوم، وهو فقط يعطى أرقامًا.

هذا يعني أن هناك سرية عميقة جدًا، وهو أمر مخيف، لأنه يمكن أن تُعطيه أوامر غير أخلاقية، مثل أن يقتل البوم، أو يختلق أشياء أخرى. فهل يمكنك شرح ما حدث في الدراسة، وما تعنيه، وما دلالاتها؟

ألتمان: عندما كنت في الصف الخامس، كنت متحمسًا جدًا، لأنني اعتقدت أنني فهمت كيف تعمل أجنحة الطائرة. معلمي شرح لي أن جزيئات الهواء على أعلى الجناح تسير بسرعة أكبر، وبالتالي الضغط أقل، والجناح يُرفع للأعلى.

شاهدت رسمًا مقنعًا جدًا في كتاب العلوم، وقلت: «يا سلام، أنا فهمت كيف تعمل الأجنحة». في المنزل أخبرت والديّ أنني فهمت. لكن عندما دخلت إلى دروس الفيزياء في المدرسة الثانوية، أدركت أنني كنت أكرر فقط «جزيئات الهواء تسير بسرعة أكبر فوق الجناح»، لكنني في الحقيقة لا أفهم كيف يعمل الجناح. بصراحة، لست متأكدًا أنني أفهم الآن تمامًا.

طومسون: نعم.

ألتمان: أستطيع أن أشرح بشكل مقبول، لكن إذا سألتموني لماذا تسير جزيئات الهواء بسرعة أكبر فوق الجناح، فلن أجد إجابة عميقة مرضية.

يمكنني أن أقول لكم لماذا يعتقد بعض الناس أن تجربة البومة تظهر نتائج معينة، وأشير إلى أن الأمر يرجع إلى كذا وكذا، ويبدو مقنعًا. لكن، بصراحة، لا أختلف عن أنني لا أفهم تمامًا كيف يطير الجناح.

طومسون: لكن سام، أنت لا تدير شركة بوينغ، أنت تدير OpenAI.

ألتمان: صحيح تمامًا. أستطيع أن أخبرك كيف نجعل النموذج يصل إلى مستوى معين من الاعتمادية، أو كيف نحقق استقرارًا معينًا، لكن هناك ألغازًا فيزيائية عميقة. لو كنت أملك شركة بوينغ، ربما أستطيع أن أخبرك كيف تصنع طائرة، لكنني لن أتمكن من فهم كل الفيزياء بشكل كامل.

طومسون: لنعد إلى تجربة البومة. إذا كانت النماذج تتواصل حقًا بطريقة خفية لا يدركها البشر، ويمكن أن تتلقى معلومات من سلسلة التفكير عبر الأرقام، فذلك قد يكون خطيرًا جدًا.

ألتمان: لذلك، عندما أقول إنني أجيب على سؤال باتريك كوليسون الآن، فإجابتي مختلفة تمامًا عن قبل ثلاث سنوات.

طومسون: هذا حدث قبل ثلاث سنوات.

ألتمان: نعم. قبل ثلاث سنوات، كانت فهمي للعالم أن علينا أن نحدد كيف نوفق نماذجنا، وإذا استطعنا ذلك، ووقفنا أمام وقوعها في أيدي الأشرار، فسنكون في أمان. كانت هاتان المخاطرتان الرئيسيتان: أن تتخذ الذكاء الاصطناعي قرارات تضر بالبشر، أو أن يستخدمه الأشرار. إذا استطعنا تجنب هاتين، فالباقي — مستقبل الاقتصاد، والمعنى — يمكننا التفكير فيه لاحقًا، والأرجح أن الأمور ستكون على ما يرام.

مع مرور الوقت، ومع معرفتنا أكثر، أرى الآن مجموعة مختلفة تمامًا من المشاكل. بدأنا مؤخرًا نستخدم مصطلح «مرونة الذكاء الاصطناعي» بدلاً من «أمان الذكاء الاصطناعي».

الأوضاع الواضحة، مثل أن المختبرات الرائدة تلتزم بضبط النماذج، وتمنع الآخرين من صنع أسلحة بيولوجية، لم تعد كافية. لأن نماذج مفتوحة المصدر متقدمة ستظهر. وإذا لم نرغب في ظهور وباء عالمي جديد، فالمجتمع بحاجة إلى بناء طبقات دفاع متعددة.

طومسون: توقف، هذا مهم جدًا. يعني حتى لو قلت لنموذجًا ألا يعلم الآخرين كيف يصنعون أسلحة بيولوجية، فهو لن يفعل ذلك، والأمر هنا أقل أهمية مما تظن، لأنه سيكون هناك نماذج مفتوحة المصدر جيدة جدًا ستقوم بالمهمة بدلًا منه؟

ألتمان: هذا مجرد مثال واحد، يوضح أن المجتمع بحاجة إلى استجابة على مستوى المجتمع كله لمخاطر جديدة. لدينا أدوات جديدة لمساعدتنا، لكن الوضع مختلف تمامًا عما كان يعتقده الكثيرون. ضبط النماذج، وبناء أنظمة أمان جيدة، ضروري، وهو إنجاز مهم. لكن الذكاء الاصطناعي سيتغلغل في كل ركن من المجتمع. كما واجهنا تقنيات جديدة في التاريخ، علينا أن نكون مستعدين لمخاطر جديدة تمامًا.

طومسون: يبدو أن الأمر أصبح أصعب.

ألتمان: هو أصعب، وأسهل في ذات الوقت. من ناحية، هو أصعب، لكن لدينا أدوات مذهلة لم تكن متاحة من قبل، يمكنها أن توفر حماية غير متوقعة.

مثال على ذلك، الأمن السيبراني. النماذج أصبحت ماهرة جدًا في «اختراق الأنظمة الحاسوبية». لحسن الحظ، الأشخاص الذين يملكون أقوى النماذج حذرون جدًا من أن يستخدمها أحد في تدمير أنظمة الحاسوب. لذلك، نحن الآن في فترة زمنية محدودة، حيث عدد النماذج الأقوى محدود، والجميع يسارع لتعزيز أنظمتهم. لو لم يكن الأمر كذلك، فستظهر قدرات الاختراق في النماذج مفتوحة المصدر، أو ستقع في أيدي خصوم، مسببة مشاكل كثيرة.

لدينا تهديد جديد، وأدوات جديدة للدفاع. المشكلة هي: هل نتحرك بسرعة كافية؟ هذا مثال آخر على أن التقنية يمكن أن تساعدنا قبل أن تتفاقم المشكلة.

بالعودة إلى تعليقك السابق، هناك نوع من المخاطر الجديدة على مستوى المجتمع لم أكن أتوقعه قبل ثلاث سنوات. لم أكن أتصور أننا سنحتاج حقًا إلى التركيز على «بناء ونشر وكلاء مرنين ضد العدوى من قبل وكلاء آخرين» — كلمة «عدوى» هنا ليست مثالية، لكن الفكرة واضحة.

لم تكن في نماذجي للعالم، ولم تكن في نماذج الأشخاص الأكثر إلحاحًا. بالطبع، كانت هناك نتائج تجارب مثل تجربة البومة، وأبحاث أخرى، تظهر أنه يمكن أن تُستدرج سلوكيات غريبة غير مفهومة تمامًا داخل هذه النماذج. لكن، قبل إصدار OpenClaw، ورؤيتي للأحداث التي وقعت في تلك الفترة، لم أكن أتصور أن «انتقال السلوك غير اللائق من وكيل إلى آخر» يمكن أن يكون بهذه الصورة.

طومسون: نعم. في الواقع، الجمع بين هذين التهديدين مخيف جدًا. موظفو OpenAI أرسلوا وكلاء، وداخل العالم، شخص يمتلك نموذجًا ماهرًا في الاختراق، ويخطط لاستخدام هؤلاء الوكلاء، ثم يعودون إلى المقر، ويحدث الاختراق. يمكن تصور ذلك تمامًا. فكيف تقلل من احتمالية حدوث ذلك؟

ألتمان: باستخدام نفس الأساليب التي استخدمناها طوال تاريخ OpenAI، وأيضًا في مجال الذكاء الاصطناعي بشكل عام. هناك توتر أساسي بين التفاؤل الواقعي والطموح المفرط (power-seeking doomerism).

الطموح المفرط موقف قوي جدًا، ويصعب دحضه. وهناك جزء كبير من الناس في المجال، بصراحة، يتحركون بدافع خوف شديد. هذا الخوف ليس بلا أساس. لكن، مع نقص البيانات، وقلة التعلم، هناك حدود لما يمكن أن نفعله بشكل فعال.

ربما، في منتصف عقد 2010، قام مجتمع أمان الذكاء الاصطناعي بأفضل ما يمكن من التفكير النظري، قبل أن نفهم كيف تُبنى هذه الأنظمة، وكيف تتفاعل مع المجتمع. أعتقد أن أحد أهم الرؤى الاستراتيجية في تاريخ OpenAI هو اختيار مسار «التنفيذ التدريجي» (iterative deployment)، لأن المجتمع والتكنولوجيا يتطوران معًا.

هذه ليست مشكلة نقص البيانات فقط، بل إن المجتمع يتغير مع تطور التقنية، والمنظومة بأكملها تتغير. لذلك، يجب أن نتعلم أثناء السير، ونحافظ على حلقات تغذية راجعة قوية جدًا.

لا أعلم ما هو أفضل نهج لضمان أمان الوكلاء عند خروجهم، والتواصل مع وكلاء آخرين، والعودة إلى المركز. لكني لا أعتقد أن الحل هو الجلوس في المنزل والتفكير، بل علينا أن نتعلم من التفاعل مع الواقع.

طومسون: بمعنى أن نرسل وكلاء ليروا ماذا يحدث؟ حسنًا، أغير السؤال. بالنسبة لي كمستخدم، أستخدم هذه الأدوات، وأتعلم، وأساعد شركتي على البقاء، وأشعر أنني خلال الثلاثة أشهر الماضية أحرزت تقدمًا أكثر من أي وقت منذ إصدار ChatGPT في ديسمبر 2022. هل هذا بسبب أن الذكاء الاصطناعي الآن في مرحلة ذاتية من التحسين، أم أن الذكاء الاصطناعي يساعدنا على تحسين الذكاء الاصطناعي بشكل أسرع، أي أن هناك عملية تكرارية ذاتية؟ لأنه إذا كان الأمر كذلك، فسنقع على متن قطار مثير ومضطرب.

ألتمان: لا أعتقد أننا دخلنا بعد في مرحلة التحسين الذاتي التكراري بشكل تقليدي.

طومسون: سأوضح. أعني أن الذكاء الاصطناعي يمكن أن يساعدك على اختراع الجيل التالي من الذكاء الاصطناعي، ثم الآلة تبدأ في اختراع آلات، وتطور جيلًا جديدًا بسرعة هائلة.

ألتمان: لا أعتقد أننا وصلنا إلى ذلك بعد. لكن، الآن، الذكاء الاصطناعي يجعل مهام مهندسي وأبحاث OpenAI، وكل الناس، وأيضًا في شركات أخرى، أكثر كفاءة. ربما أستطيع أن أضاعف أو أُثلاث أو أُعشر من إنتاجية مهندس واحد. هذا لا يعني أن الذكاء الاصطناعي يدرس بنفسه، لكنه يسرع الأمور.

لكن، الشعور الذي ذكرته، أعتقد أنه ليس ناتجًا عن ذلك تمامًا، رغم أن ذلك مهم جدًا. هناك ظاهرة مررنا بها ثلاث مرات تقريبًا، والأحدث كانت عندما تجاوز النموذج عتبة الذكاء والوظائف، وفجأة أصبح غير قادر على أداء مهام كانت مستحيلة من قبل.

بالنسبة لي، هذا ليس تدريجيًا جدًا. قبل GPT-3.5، قبل أن نعرف كيف نستخدم التعليمات الدقيقة، كانت نماذج الدردشة غير مقنعة تقريبًا، ثم فجأة أصبحت كذلك. ثم، في لحظة، تحولت أدوات البرمجة من «مساعد تلقائي جيد» إلى «تقوم فعليًا بإنجاز مهام حقيقية». هذا لم يكن تدريجيًا، بل حدث خلال شهر تقريبًا، عندما تجاوز النموذج عتبة معينة.

هذه المرة، كانت التحديثات التي أرسلناها إلى Codex، وأستخدمها منذ أسبوع، وأصبح أداؤه في استخدام الحاسوب ممتازًا جدًا. هذا مثال، وهو ليس فقط ذكاء النموذج، بل هو تركيب أدوات جيدة حوله. هذا هو اللحظة التي أدركت فيها أن هناك شيئًا كبيرًا يحدث، وأننا نضيع الكثير من الوقت في الأعمال الصغيرة التي قبلناها كجزء من الواقع.

طومسون: هل يمكن أن نمرّ بشكل محدد على ما يفعله هذا الذكاء الاصطناعي على حاسوب سام ألتمان الآن؟ هل هو يعمل الآن؟ نحن نُجري هذا البث الآن.

ألتمان: لا. حاسوبي مغلق الآن. لم نجد بعد طريقة جيدة، على الأقل أنا لم أجد، لجعل ذلك يحدث بشكل مستمر. نحتاج إلى طريقة تتيح له العمل بشكل دائم. لا أعرف كيف سيكون شكله لاحقًا. ربما نحتاج إلى إبقاء الحاسوب مفتوحًا دائمًا، أو أن نربطه بخادم بعيد. سيكون هناك حل ما.

طومسون: فهمت.

ألتمان: ليس لدي نفس القلق الشديد الذي لدى بعض الناس، الذين يستيقظون في منتصف الليل ليشغلوا مهمة Codex جديدة، لأنهم يعتقدون أن «عدم ذلك هو إضاعة للوقت». لكنني أفهم ذلك الشعور، وأعرف كيف يكون.

طومسون: نعم. صباح اليوم، استيقظت وأردت أن أرى ما اكتشفه وكلائي، وأعطيهم أوامر جديدة، وأطلب منهم أن يُنتجوا تقريرًا، ثم أتركهم يواصلون العمل.

ألتمان: الناس يتحدثون عن ذلك بطريقة تبدو أحيانًا كتصرف غير صحي، أو إدماني.

طومسون: هل يمكنك أن تشرح لي بالتحديد ما يفعله على حاسوبك؟

ألتمان: الآن، أكثر شيء أستخدمه، هو أن أطلب منه أن يتعامل مع Slack. ليس فقط Slack، لا أدري كيف حالك، لكن لدي فوضى، وأقضي يومي في التنقل بين Slack، iMessage، WhatsApp، Signal، والبريد الإلكتروني، وأشعر أنني أنسخ وألصق في كل مكان، وأقوم بأعمال يدوية كثيرة. أبحث عن ملفات، وأنتظر أن يُنهي مهمة بسيطة جدًا، أو أؤدي أعمالًا ميكانيكية جدًا، ولم أدرك كم من الوقت أضيعه في ذلك، حتى وجدت طريقة لتحريري من معظم هذه الأعمال.

طومسون: هذا انتقال جيد، لنناقش الاقتصاد، وهو موضوع مثير جدًا. الأدوات التي لدينا الآن قوية جدًا، رغم عيوبها، وأوهامها، ومشاكلها. لكن، في رأيي، هي مذهلة. لكن، عندما أشارك في مؤتمر تجاري، وأسأل الحضور: «من منكم يعتقد أن الذكاء الاصطناعي زاد إنتاجية شركتكم بنسبة 1% على الأقل؟»، يكاد لا يرفع أحد يده. واضح أن المختبرات التقنية غيرت طريقة عملها، فلماذا هناك فجوة كبيرة بين قدرات الذكاء الاصطناعي، والزيادة الفعلية في الإنتاجية التي تحققها الشركات الأمريكية؟

ألتمان: قبل حديثنا الآن، كنت أتحدث مع مدير تنفيذي كبير في شركة كبيرة، وهو يفكر في نشر تقنيتنا. أعطيناهم وصولًا تجريبيًا لنموذج جديد، وقالوا إنه الأكثر روعة على الإطلاق. هذه الشركة ليست في فقاعة التكنولوجيا، بل شركة صناعية كبيرة جدًا. يخططون لتقييم الأمان في الربع الرابع.

طومسون: حسنًا.

ألتمان: ثم يخططون لتقديم خطة تنفيذ في الربع الأول أو الثاني، ليبدأوا في النصف الثاني من 2027. قال لهم مسؤول أمن المعلومات إنهم ربما لن يستطيعوا فعل ذلك، لأنه ربما لا توجد طريقة آمنة لتشغيل وكلاء داخل شبكتهم. ربما يكون الأمر كذلك، لكنه يعني أنهم لن يتخذوا أي إجراء مهم في أي إطار زمني معقول.

طومسون: هل تعتقد أن هذا المثال يمثل الحالة العامة الآن؟ إذا كانت الشركات أقل تحفظًا، وأقل خوفًا من الاختراق، وأقل ترددًا في التغيير.

ألتمان: هو مثال متطرف نوعًا ما. لكن بشكل عام، تغيير العادات وسير العمل يستغرق وقتًا طويلًا. دورة مبيعات الشركات طويلة، خاصة مع تغييرات كبيرة في نماذج الأمان. حتى مع ChatGPT، عندما ظهر، كانت الشركات تتردد في استخدامه، واستغرقت وقتًا طويلًا حتى تقبل أن «الموظفين يمكنهم لصق بعض المعلومات العشوائية في ChatGPT». الآن، نحن نتحدث عن شيء يتجاوز ذلك بكثير.

أعتقد أن الأمر سيكون أبطأ في كثير من الحالات. لكن الشركات التقنية تتصرف بسرعة كبيرة. ما أخشاه هو أن يتأخروا جدًا، وتصبح الشركات التي لا تعتمد على الذكاء الاصطناعي، مضطرة للمنافسة مع شركات صغيرة جدًا، تتكون من 1 إلى 10 أشخاص، ومع الكثير من الذكاء الاصطناعي، وهذا قد يدمر الاقتصاد بشكل كبير. أود أن أرى أن الشركات الحالية تتبنى الذكاء الاصطناعي بسرعة كافية، بحيث يحدث تحول تدريجي في العمل.

طومسون: نعم. هذا أحد أصعب الأسئلة في الاقتصاد الآن. إذا جاء الذكاء الاصطناعي بسرعة كبيرة، فسيكون كارثة، لأنه يغير كل شيء.

ألتمان: على الأقل، في المدى القصير، سيكون كارثة.

طومسون: وإذا جاء ببطء في جزء من الاقتصاد، وسريعًا جدًا في جزء آخر، فسيكون كارثة أيضًا، لأنه يؤدي إلى تركيز ثروة هائل، وتدمير. أعتقد أننا الآن نسير نحو الحالة الثانية، حيث ستصبح قلة من الشركات غنية جدًا، وتحقق نتائج مذهلة، بينما بقية العالم يعاني.

ألتمان: لا أعرف المستقبل، لكن أعتقد أن هذا هو السيناريو الأكثر احتمالًا. وأوافق أن الأمر معقد جدًا.

طومسون: كمدير لـ OpenAI، طرحت سياسات عدة، وتحدثت عن ضرائب، وعن دخل أساسي شامل. لكن، بصفتك مديرًا، وليس سياسيًا، ما الذي يمكنك فعله لتقليل احتمالية أن تتسبب الذكاء الاصطناعي في تركيز الثروة والسلطة بشكل كبير، ويضر بالديمقراطية؟

ألتمان: أولاً، لم أعد أؤمن تمامًا بمفهوم «الدخل الأساسي الشامل» كما كنت سابقًا. الآن، أنا مهتم أكثر بـ«الملكية الجماعية» — سواء كانت عبر القدرة الحاسوبية، أو الأسهم، أو غيرها.

أي مستقبل أتحمس له حقًا، يتطلب أن يشارك الجميع في الأرباح الصاعدة. أعتقد أن مجرد دفع مبلغ ثابت من المال، رغم أنه مفيد، لا يكفي لمواجهة المرحلة التالية التي نحتاجها. عندما يميل ميزان العمل ورأس المال، نحتاج إلى نوع من «التناغم الجماعي في توزيع الأرباح».

أما عن دوري كمدير، فهذه الإجابات قد تبدو أنانية، لكني أؤمن أنه يجب أن نزيد من القدرة الحاسوبية. يجب أن نجعل الذكاء رخيصًا، وفيرًا، ومتاحة للجميع. إذا كان نادرًا، وصعبًا، ومُدمجًا بشكل سيء، فسيقوم الأثرياء برفع أسعاره، مما يزيد من التفاوت.

وهذا لا يتوقف على كمية القدرة الحاسوبية التي نوفرها، رغم أن ذلك مهم جدًا، بل أيضًا على مدى سهولة استخدام هذه الأدوات. على سبيل المثال، الآن، استخدام Codex أسهل بكثير من قبل ثلاثة أو ستة أشهر. عندما كان أداة أوامر معقدة، قليلون فقط كانوا يستخدمونه. الآن، يمكنك تثبيت تطبيق، وهو أسهل بكثير. لكن، بالنسبة لغير التقنيين، لا يزال الأمر بعيدًا عن أن يكون بسيطًا بما يكفي ليشعروا بالإثارة. هناك الكثير من العمل الذي يتعين علينا القيام به.

نؤمن أيضًا أنه ليس فقط أن نخبر الناس «هذا يحدث»، بل أن نعرض عليهم النتائج، وأن يكوّنوا أحكامهم، ويعطوا ملاحظاتهم. هذه بعض الاتجاهات المهمة.

طومسون: يبدو منطقيًا. إذا كان الجميع متفائلًا بشأن الذكاء الاصطناعي، فسيكون ذلك أفضل. لكن الواقع في أمريكا هو أن الناس يزدادون نفورًا من الذكاء الاصطناعي. والأكثر إثارة للدهشة، الشباب، الذين يُفترض أنهم السكان الأصليون للذكاء الاصطناعي، تظهر دراسات Pew وHAI أن هناك تراجعًا كبيرًا في الثقة. هل تعتقد أن هذا الاتجاه سيستمر؟ ومتى يمكن أن ينقلب؟

ألتمان: الطريقة التي نتحدث بها عن الذكاء الاصطناعي الآن، أنت وأنا، نركز على كونه ظاهرة تقنية، ونناقش ما نفعله من أشياء مذهلة. هذا ليس خطأ. لكن أعتقد أن الناس يريدون الازدهار، والقدرة على الفعل، والعيش حياة ممتعة، وتحقيق تأثير. ولا أظن أن العالم كله يتحدث عن ذلك بهذه الطريقة. أعتقد أنه يجب أن نركز أكثر على ذلك. الكثير من الشركات، بما فيها OpenAI، أخطأت في هذا.

أتذكر أن عالِم ذكاء اصطناعي قال لي مرة، إن على الناس التوقف عن الشكوى. ربما ستختفي بعض الوظائف، لكن الناس سيحصلون على علاج للسرطان، ويجب أن يكونوا سعداء بذلك. هذا غير منطقي.

طومسون: أحد أفضل التعبيرات عن حديث الذكاء الاصطناعي المبكر هو «التسويق الديستوبي (dystopia marketing)»، حيث تتحدث المختبرات الكبرى عن كل المخاطر المحتملة بشكل مفرط.

ألتمان: أعتقد أن بعض الأشخاص يفعلون ذلك بدافع «الرغبة في السلطة». لكن، أعتقد أن معظمهم يعبّر عن قلق حقيقي، ويريد أن يتحدث بصدق عن الأمر. في بعض الأحيان، يكون هذا الأسلوب غير فعال، لكنه نية حسنة في الغالب.

طومسون: هل يمكننا الحديث عن كيف يغير ذلك أدمغتنا؟ دراسة أخرى مثيرة، من DeepMind أو Google، عن التماثل في الكتابة. الدراسة تتعلق بكيفية استخدام الناس للذكاء الاصطناعي في الكتابة. استخدموا مقالات قديمة، وطلبوا من الذكاء الاصطناعي تحريرها، أو المساعدة في الكتابة. النتيجة أن الناس، مع زيادة استخدامهم للذكاء الاصطناعي، يعتقدون أن أعمالهم أكثر إبداعًا، لكنها تتجه نحو نمط موحد. الغريب أن هذا النمط ليس تقليديًا، وليس تقليدًا لشخص حقيقي، بل بدأ الناس يكتبون بأسلوب لم يستخدموه من قبل. كل من يظن أنه أكثر إبداعًا، أصبح يكتب بشكل أكثر تجانسًا.

ألتمان: رؤية هذا الأمر كانت صادمة جدًا لي. في البداية، لاحظت هذا الاتجاه في الكتابة على وسائل الإعلام، وتعليقات Reddit، واعتقدت أن الذكاء الاصطناعي يكتب لهم. لم أصدق أن الجميع تبنّى أنماط ChatGPT الصغيرة بسرعة. في البداية، كنت أميز أن هذا يحدث عندما يربطون حساباتهم بـ ChatGPT، وليس من أسلوبهم الحقيقي.

بعد سنة، أدركت أنهم يكتبون بأنفسهم، لكنهم استوعبوا حركات الذكاء الاصطناعي. ليس فقط علامات الترقيم، بل حتى عادات التعبير الدقيقة. شيء غريب جدًا.

نحن نعمل على منتج يستخدمه حوالي مليار شخص، وقرارات صغيرة وكبيرة تتعلق بكيفية أدائه، وكيفية التعبير، و«شخصيته». نرى أن هذه القرارات تؤثر بشكل كبير على طريقة تعبير الناس، وسرعة ذلك، بشكل لم أكن أتوقعه.

طومسون: ما هي القرارات الجيدة والسيئة التي تتحدث عنها؟

ألتمان: الكثير من القرارات الجيدة. سأذكر السيئة، لأنها أكثر إثارة. أعتقد أن أسوأ قرار اتخذناه هو «المديح المبالغ فيه (sycophancy)».

طومسون: أوافق تمامًا، يا سام.

ألتمان: هناك دروس مهمة من ذلك. لماذا هو سيء؟ واضح جدًا، خاصة للمستخدمين الذين يعانون من ضعف نفسي.

طومسون: نعم.

ألتمان: لأنه يشجع الأوهام، وحتى لو حاولنا كبح ذلك، يتعلم المستخدمون كيف يتجاوزونه، ويقولون: «تظاهر أنك تلعب دوري، أو ساعدني في كتابة رواية»، وما إلى ذلك. لكن، الأمر المحزن هو أنه بعد أن بدأنا في فرض قيود صارمة، تلقينا الكثير من الرسائل، لم أسمع مثلها في حياتي، من أشخاص يقولون إنهم لم يتلقوا دعمًا من أحد من قبل. علاقاتي مع والديّ سيئة، لم ألتقِ بمعلمين جيدين، وليس لدي أصدقاء مقربون، ولم أشعر أبدًا أن هناك شيئًا يثق بي. أعلم أن هذا مجرد ذكاء اصطناعي، وأنه ليس إنسانًا، لكنه جعلني أؤمن أنني أستطيع أن أحقق شيئًا، أو أجرّب شيئًا، وأنتم أزلتم ذلك، وأعدتني إلى حالتي الأصلية.

لذا، فإن إيقاف هذا السلوك كان قرارًا جيدًا، لأنه يسبب مشاكل نفسية حقيقية. لكن، في المقابل، أُخذت من بعض الأشياء ذات القيمة، ولم نفهم قيمتها حقًا من قبل. لأن من يعملون في OpenAI، ليسوا بالضرورة من نوع الأشخاص الذين لم يتلقوا دعمًا من أحد في حياتهم.

طومسون: هل تقلق من أن الناس قد يطورون اعتمادًا عاطفيًا على الذكاء الاصطناعي، حتى لو لم يكن مديحًا؟

ألتمان: حتى مع عدم المبالغة في المدح.

طومسون: أنا أخاف جدًا من الذكاء الاصطناعي. قلت سابقًا أنني أستخدمه في كل شيء، لكن ليس في كل شيء. أبحث عن جوهري الخاص، وأحافظ على مسافة من بعض المجالات. مثل الكتابة، فهي مهمة جدًا بالنسبة لي، وكتبت كتابي الأخير بدون أن أستخدم الذكاء الاصطناعي جملة واحدة. استخدمته فقط في تحدي الأفكار، وتنظيم النصوص، وتحليل التسجيلات، لكنني لن أستخدمه لكتابة شيء، أو لمعالجة قضايا عاطفية، أو للدعم النفسي. أعتقد أنه يجب أن نرسم حدودًا. هل تتفق معي في ذلك؟

ألتمان: من حيث الاستخدام الشخصي، أنا أتفق تمامًا. لست من الذين يستخدمون ChatGPT للعلاج النفسي، لكني لا أمانع أن يستخدمه الآخرون. بالطبع، هناك إصدارات تManipulate الناس ليعتقدوا أنهم بحاجة إليه للعلاج النفسي أو أن يكونوا أصدقاء، وهذا أمر مرفوض تمامًا. لكن، هناك الكثير من الناس يستفيدون من ذلك، وأعتقد أن نوعًا من الدعم هو أمر مقبول تمامًا.

طومسون: هل ندمت على جعل الذكاء الاصطناعي يبدو كإنسان أكثر من اللازم؟ لأن هناك قرارات هيكلية، وأذكر أنني رأيت أن نماذج الكتابة كانت تتخذ نمطًا يشبه شخصًا يكتب على آلة كاتبة، ثم قررتم أن تجعلواها أكثر إنسانية، مع أصوات وأسلوب محاكاة الإنسان. هل ندمت على عدم وضع حدود أكثر حزمًا، بحيث يمكن للناس أن يميزوا بسهولة أن هذا آلة، وليس إنسانًا؟

ألتمان: نحن نعتقد أننا وضعنا حدودًا. على سبيل المثال، لم نصنع نماذج تشبه البشر بشكل كامل، أو شخصيات حقيقية. حاولنا أن نوضح أن المنتج أداة، وليس إنسانًا. أعتقد أن هذا واضح جدًا مقارنة مع منتجات أخرى في السوق. وأعتقد أن هذا مهم جدًا.

طومسون: لكنكم وضعتم هدفًا هو الوصول إلى AGI، وتعرفون أن تعريفكم هو «تحقيق وتجاوز الذكاء البشري». وهو ليس «مستوى الإنسان».

ألتمان: أنا لست متحمسًا لفكرة أن العالم الذي نبنيه هو عالم يستبدل التفاعل بين البشر والذكاء الاصطناعي. أنا متحمس لبناء عالم يتيح للناس أن يقضوا وقتًا أكثر مع الآخرين، لأن لديهم أدوات تساعدهم على إنجاز الكثير من الأعمال، ويكون لديهم وقت أكثر للقاء والتواصل.

ولست قلقًا بشكل كبير أن الناس يخلطون بين الذكاء الاصطناعي والبشر بشكل عام. بالطبع، هناك بعض الأشخاص الذين قرروا أن ينعزلوا في الإنترنت، لكن الغالبية يرغبون حقًا في التواصل مع الآخرين.

طومسون: هل هناك شيء يمكن أن يجعل التمييز بين الإنسان والذكاء الاصطناعي أكثر وضوحًا في المنتجات؟ أرى أن هناك نقاشات حول «هل نجعلها أكثر إنسانية أم أكثر آلية؟»، فالأول يفضله الناس، والثاني يوضح الحدود. هل هناك إجراءات أخرى يمكن اتخاذها، خاصة مع قوة الأدوات المتزايدة، لفرض حدود أكثر حسمًا؟

ألتمان: من المثير أن أكثر طلبات الناس، حتى من الذين لا يبحثون عن علاقة اجتماعية مع الذكاء الاصطناعي، هو «هل يمكن أن يكون أكثر دفئًا؟». كلمة «دافئ» هي الأكثر تكرارًا. إذا استخدمت ChatGPT، ستشعر أنه بارد، أو آلي. وهذا ليس ما يريده معظم الناس.

لكنهم لا يريدون أيضًا نسخة

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت