اقتراح البيت الأبيض بشأن الذكاء الاصطناعي يسعى إلى تجاوز قوانين الولايات وتجنب منظم جديد

Decrypt

ملخص سريع

  • اقترحت البيت الأبيض معايير فدرالية للذكاء الاصطناعي مع الحفاظ على صلاحيات إنفاذ القانون الرئيسية للولايات.
  • يهدف الإطار إلى تجنب إنشاء جهة تنظيمية جديدة للذكاء الاصطناعي، بالاعتماد بدلاً من ذلك على الوكالات والمحاكم الحالية.
  • يركز الخطة أيضًا على سلامة الأطفال، وحرية التعبير، والبنية التحتية، والنزاعات المتعلقة بحقوق النشر.

أصدر البيت الأبيض يوم الجمعة إطار سياسة وطنية شامل للذكاء الاصطناعي، يوضح توصيات للكونغرس لوضع معايير وطنية للذكاء الاصطناعي مع الاعتماد على الوكالات الفدرالية الحالية، بدلاً من إنشاء جهة تنظيمية جديدة. يأتي هذا الاقتراح في وقت تتقدم فيه الولايات بقوانينها الخاصة بالذكاء الاصطناعي، والتي انتقدتها إدارة ترامب باعتبارها “ترقيعة” من المتطلبات المرهقة للشركات. قال البيت الأبيض في بيان: “تلتزم إدارة ترامب بالفوز في سباق الذكاء الاصطناعي لتمهيد طريق لعصر جديد من الازدهار البشري، والتنافسية الاقتصادية، والأمن الوطني للشعب الأمريكي.” “تحقيق هذه الأهداف يتطلب إطار سياسة وطنية معقول يتيح للصناعة الأمريكية الابتكار والازدهار ويضمن استفادة جميع الأمريكيين من هذه الثورة التكنولوجية.”

يدعو الإطار الكونغرس إلى وضع قواعد وطنية للذكاء الاصطناعي تتناول سلامة الأطفال، والابتكار، وحرية التعبير، وحقوق الملكية الفكرية، مع استباق قوانين الولايات التي يعتبرها مرهقة. كما يقول إن تلك المعايير الفدرالية لا ينبغي أن تتجاوز السلطة الحالية للولايات في إنفاذ القوانين المتعلقة بالاحتيال، وحماية المستهلك، ومواد الاعتداء الجنسي على الأطفال.  بينما أشاد البعض بالإطار لأنه يحث الكونغرس على تمرير تنظيمات فدرالية، شككت مجموعات حقوقية بما فيها مؤسسة الحدود الإلكترونية في التفاصيل. قالت كوريين مكشيري، المديرة القانونية لـEFF، لـ Decrypt: “يقترح الإطار بعض الأفكار التي ستكون كارثية، مثل حظر الولايات من وضع حماية لمواطنيها، وفرض متطلبات التحقق من العمر على منصات وخدمات الذكاء الاصطناعي، وخلق حق إعلام فدرالي جديد.” “نظرًا للمستوى العالي للإطار، سيكون التفصيل هو المشكلة.”

قال مركز الديمقراطية والتكنولوجيا إن الاقتراح يتضمن “بعض المبادئ السليمة”، لكنه لا يحل التحديات المتنافسة. قال سمير جاين، نائب رئيس السياسات في CDT، في بيان مشترك مع Decrypt: “فائدته للمشرعين محدودة بسبب تناقضاته الداخلية وفشله في التعامل مع التوترات الرئيسية بين النهج المختلفة لموضوعات مهمة مثل سلامة الأطفال على الإنترنت.” وأضاف أن الإطار يتناقض مع موقف البيت الأبيض نفسه بشأن تأثير الحكومة على منصات الذكاء الاصطناعي. قال جاين: “يقول بشكل صحيح إن الحكومة لا ينبغي أن تجبر شركات الذكاء الاصطناعي على حظر أو تعديل المحتوى بناءً على ‘أجندات حزبية أو أيديولوجية’، ومع ذلك فإن الأمر التنفيذي الخاص بـ’الذكاء الاصطناعي الواعي’ الذي أصدرته الإدارة يفعل ذلك تمامًا.” يتبع الإطار جهود إدارة ترامب السابقة للحد من تنظيم الذكاء الاصطناعي على مستوى الولايات. ففي نوفمبر، وضع مسودة أمر تنفيذي يوضح خطوات لمواجهة قوانين الولايات وتقليل التمويل لتلك التي أصدرت قوانين تعتبر متعارضة مع الأمر. على الرغم من محاولات الإدارة لوضع معيار فدرالي، استمرت الولايات في إصدار قوانينها الخاصة. ففي أكتوبر، أصدرت كاليفورنيا قانون SB 243، الذي يتطلب من روبوتات الدردشة المرافقة للذكاء الاصطناعي التعريف عن نفسها، ويقيد بعض التفاعلات مع القاصرين، ويفرض قواعد إفصاح على المطورين الكبار. كما ذكر البيت الأبيض أن على الآباء أن يكون لديهم مزيد من السيطرة على تفاعل الأطفال مع أنظمة الذكاء الاصطناعي، وأن على الكونغرس وضع حماية أفضل ضد الإساءة. قال البيت الأبيض: “تدعو الإدارة الكونغرس إلى تزويد الآباء بأدوات فعالة لذلك، مثل أدوات التحكم في الحسابات لحماية خصوصية أطفالهم وإدارة استخدام أجهزتهم.” وأضاف أن “المنصات التي من المحتمل أن يصل إليها القاصرون يجب أن تطبق ميزات تقلل من احتمالية الاستغلال الجنسي للأطفال أو تشجيع الأذى الذاتي.”

كما ذكر أن الإدارة ترى أن تدريب الذكاء الاصطناعي على مواد محمية بحقوق النشر قانوني، لكنها تعتقد أن المحاكم يجب أن تقرر في الأمر، مضيفة أن الكونغرس “لا ينبغي أن يتخذ أي إجراءات تؤثر على قرار القضاء بشأن ما إذا كان التدريب على مواد محمية بحقوق النشر يشكل استخدامًا عادلاً.” كما يدعو الاقتراح إلى قانون فدرالي لحماية الأفراد من الفيديوهات المزيفة العميقة غير المصرح بها، موسعًا قانونًا ثنائي الحزب وقعه ترامب العام الماضي الذي جعل الصور الحميمة غير الموافقة عليها والفيديوهات المزيفة جريمة فدرالية. ومع ذلك، يأتي الإطار الجديد مع استثناءات للسخرية، والانتقاد، والتقارير الإخبارية، و"أعمال تعبيرية أخرى محمية بموجب التعديل الأول." يربط الخطة سياسة الذكاء الاصطناعي بالأهداف البنية التحتية والاقتصادية، بما في ذلك تسريع تصاريح مراكز البيانات وضمان عدم ارتفاع تكاليف الكهرباء السكنية نتيجة لتوسع البنية التحتية للذكاء الاصطناعي بموجب “عهد حماية المستهلك.” كما يدعو إلى توسيع استخدام توليد الطاقة في الموقع وخلف العداد لدعم تطوير مراكز البيانات وتحسين موثوقية الشبكة، مع حوافز لتوسيع اعتماد الذكاء الاصطناعي والوصول إلى مجموعات البيانات الفدرالية. وصف مجموعة حماية المستهلك “Public Citizen” الاقتراح بأنه “إطار وطني لحماية شركات التكنولوجيا الكبرى على حساب الأمريكيين العاديين.” قال روبرت فايسمان، الرئيس المشارك، في بيان مشترك مع Decrypt: “إنه رد فعل غير عادي من شركات التكنولوجيا الكبرى التي وقفت لطرح مبالغ صغيرة على تنصيب ترامب، ولحفلته، وللفيلم عن ميلانيا، ولتسوية دعاوى سوء نية، وأكثر.” وأضاف فايسمان أن التركيز على استباق قوانين الولايات قد يترك ثغرات في الرقابة، مؤكدًا أنه بدون معايير فدرالية جديدة، فإن تقييد عمل الولايات سيقلل من التنظيم. وأشار إلى الجهود المستمرة للولايات لمعالجة قضايا مثل الفيديوهات المزيفة، ورفاق الذكاء الاصطناعي، واتخاذ القرارات الخوارزمية. قال: “هذا اقتراح مخزٍ، ومن حسن الحظ، سيكون مرفوضًا في الكونغرس.” “ومع ذلك، فإنه يُظهر مرة أخرى أن دونالد ترامب يربط مصالحه بأكبر الشركات والأثرياء، وليس بمصالح الشعب الأمريكي.” ملاحظة المحرر: تم تحديث هذه القصة بعد النشر لتشمل تعليقًا من مؤسسة الحدود الإلكترونية.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات