تدرس تكشف أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي ليست جاهزة لاستبدال الأطباء

ICOHOIDER

تم الترويج بشكل متزايد للدردشات الآلية المدعومة بالذكاء الاصطناعي كمستقبل للرعاية الصحية، حيث أظهرت بعض الأنظمة أداءً جيدًا في الامتحانات الطبية الموحدة وتقديم نصائح تعتمد على الأعراض للمستخدمين. ومع ذلك، تشير دراسة جديدة نُشرت في مجلة نيتشر ميديسن إلى أن هذه الأدوات ليست فقط بعيدة عن استبدال الأطباء، بل قد تشكل مخاطر عند استخدامها في التوجيه الطبي الشخصي.

قادت الدراسة، التي أشرف عليها فريق من جامعة أكسفورد، تحديد فجوة كبيرة في نماذج اللغة الكبيرة (LLMs). ففي حين أظهرت الأنظمة معرفة تقنية قوية وأداءً جيدًا في التقييمات الطبية المنظمة، واجهت صعوبة عندما طُلب منها مساعدة المستخدمين في قضايا صحية حقيقية. ووفقًا للباحثين، فإن ترجمة المعرفة النظرية إلى نصائح طبية آمنة وفعالة لا تزال تحديًا كبيرًا.

قالت الدكتورة ريبيكا باين، الطبيبة الرئيسية المشاركة في الدراسة، إنه على الرغم من الحماس المتزايد حول الذكاء الاصطناعي في الرعاية الصحية، فإن التقنية ليست جاهزة لتحمل مسؤوليات الطبيب. وحذرت من أن الاعتماد على نماذج اللغة الكبيرة لتحليل الأعراض يمكن أن يكون خطيرًا، لأنها قد تقدم تشخيصات غير صحيحة أو تفشل في التعرف على الحالات التي تتطلب عناية طبية عاجلة.

اختبارات واسعة النطاق تكشف عن نقاط ضعف رئيسية

شملت الدراسة 1300 مشارك استخدموا نماذج ذكاء اصطناعي طورتها شركات أوبن إيه آي، ميتا، وكوهير. عُرض على المشاركين سيناريوهات طبية أعدها أطباء وطلب من أنظمة الذكاء الاصطناعي تحديد الخطوات التي ينبغي اتخاذها لمعالجة الحالات الموصوفة.

وجد الباحثون أن النصائح التي قدمتها أنظمة الذكاء الاصطناعي لم تكن أكثر موثوقية من طرق التشخيص الذاتي التقليدية، مثل البحث عبر الإنترنت أو الحكم الشخصي. في العديد من الحالات، تلقى المستخدمون مزيجًا من إرشادات دقيقة ومضللة، مما يصعب تحديد الخطوات التالية المناسبة. كانت هناك تحديات أخرى تتعلق بالتواصل: إذ غالبًا ما يواجه المشاركون صعوبة في فهم المعلومات التي يحتاجها الذكاء الاصطناعي لتوليد توصيات دقيقة.

أكدت الدكتورة باين أن التشخيص الطبي يتطلب أكثر من مجرد استرجاع الحقائق. أوضحت أن الرعاية الفعالة تتطلب الاستماع بعناية، وطرح أسئلة توضيحية، والبحث عن أعراض ذات صلة، وتوجيه المرضى خلال حوار ديناميكي. وغالبًا ما لا يعرف المرضى أي التفاصيل ذات أهمية طبية، مما يتطلب من الأطباء استخراج المعلومات الحيوية بشكل نشط. وخلصت الدراسة إلى أن نماذج اللغة الكبيرة الحالية ليست بعد قادرة على إدارة هذا التفاعل المعقد بشكل موثوق مع غير الخبراء.

دور داعم، وليس دورًا سريريًا

بينما حذر الباحثون من استخدام الدردشات الآلية المدعومة بالذكاء الاصطناعي كمستشارين طبيين، لم يستبعدوا التقنية تمامًا. بل اقترحوا أن الذكاء الاصطناعي يمكن أن يلعب دورًا داعمًا في بيئات الرعاية الصحية. أشارت الدكتورة باين إلى أن نماذج اللغة الكبيرة مفيدة بشكل خاص في تلخيص وتنظيم المعلومات. وفي البيئات السريرية، يُستخدمون بالفعل في نسخ المحادثات وتحويلها إلى رسائل إحالة للأخصائيين، أو أوراق معلومات للمرضى، أو سجلات طبية.

اختتم الفريق أن الذكاء الاصطناعي يمتلك إمكانات في الرعاية الصحية، لكنه غير جاهز حاليًا لتقديم نصائح طبية مباشرة. ويؤكدون أن تحسين أطر التقييم ومعايير السلامة ضروريان قبل دمج مثل هذه الأنظمة بشكل مسؤول في الأدوار الموجهة للمرضى. هدفهم، كما قالوا، ليس رفض الذكاء الاصطناعي في الطب، بل تطويره بطريقة تضع سلامة المرضى ودقة التشخيص في المقام الأول.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات