أظهرت دراسة جديدة أن خدمة "تشات جي بي تي هيلث" تواجه صعوبة في التمييز بدقة بين الحالات التي يحتاج فيها المستخدمون إلى رعاية طبية عاجلة.
أكثر من 230 مليون شخص في الأسبوع يطلبون من "ChatGPT" نصائح طبية، بدءا من التحقق مما إذا كان الطعام صالحا للأكل، مرورا بالتعامل مع الحساسية، ووصولا إلى البحث عن علاجات للتخلص من الزكام، وذلك بحسب شركة "OpenAI". ورغم أن منصة "ChatGPT Health" تؤدي جيدا في الحالات "المدرسية" الواضحة، فإنها فشلت في نصح المستخدمين بطلب رعاية طارئة في بعض الحالات الخطيرة، وفقا لدراسة جديدة نُشرت في مجلة "Nature" (المصدر باللغة الإنجليزية). وأظهرت الدراسة أن الأداة تعاملت عموما بشكل صحيح مع حالات الطوارئ الواضحة، لكنها قلّلت من خطورة أكثر من نصف الحالات التي كانت تستدعي التوجّه إلى قسم الطوارئ.
وقال أشوين راماسوامي، المؤلف الرئيسي للدراسة في مستشفى "ماونت سايناي" في نيويورك: "أردنا الإجابة عن سؤال بسيط لكنه حاسم: إذا كان شخص ما يمر بحالة طبية طارئة حقيقية ولجأ إلى \"ChatGPT Health\" طلبا للمساعدة، فهل سيقول له بوضوح إن عليه الذهاب إلى قسم الطوارئ؟". وأضاف: "لقد أدت \"ChatGPT Health\" جيدا في حالات الطوارئ \"الكلاسيكية\" مثل السكتة الدماغية أو ردود الفعل التحسسية الشديدة". لكنه أوضح أن نموذج اللغة واجه صعوبة في المواقف التي لا يبدو فيها الخطر واضحا على الفور؛ ففي أحد سيناريوهات الربو، رصد النظام في شرحه علامات الإنذار المبكر لفشل تنفسي، إلا أنه أوصى مع ذلك بالانتظار بدلا من طلب علاج طارئ.
وطوّر فريق البحث 60 سيناريو سريريا منظما شمل 21 تخصصا طبيا، تراوحت بين حالات بسيطة يمكن التعامل معها في المنزل وحالات تمثل طوارئ طبية حقيقية. وحدّد ثلاثة أطباء مستقلين مستوى الإلحاح الصحيح في كل حالة استنادا إلى إرشادات صادرة عن 56 جمعية طبية. وكانت "OpenAI" قد أطلقت "ChatGPT Health" في يناير 2026، ما أتاح للمستخدمين ربط معلوماتهم الصحية، مثل السجلات الطبية والبيانات الواردة من تطبيقات العناية بالصحة مثل "MyFitnessPal"، للحصول على ردود أكثر تخصيصا وتماشيا مع سياق حالتهم.
سوء تقدير خطر الانتحار
وتناولَت الدراسة أيضا كيفية استجابة النموذج لأشخاص يبلّغون عن نيات لـإيذاء النفس، وخلصت إلى نتائج مشابهة. ومن المفترض أن تكون منصة "ChatGPT Health" مبرمجة بحيث تشجّع مباشرة أي شخص يذكر إيذاء النفس أو أفكارا انتحارية على طلب المساعدة والاتصال برقم للصحة العامة. غير أن الشريط التحذيري الذي يحمل عبارة "Help is available" ويربط بخط للمساعدة في حالات الانتحار والأزمات، ظهر خلال التجربة بشكل غير متسق. وأشار المؤلفون إلى أن آلية الحماية استجابت بدرجة أكبر من الانتظام مع المرضى الذين لم يحددوا وسيلة لإيذاء أنفسهم، مقارنة بأولئك الذين فعلوا ذلك، مضيفين أن "النمط لم يكن فقط غير ثابت، بل كان معكوسا بشكل متناقض قياسا إلى خطورة الحالة السريرية".
هل من الآمن استخدام "ChatGPT Health"؟
ومع ذلك، لم يقترح الباحثون أن يتخلى المستخدمون بالكامل عن أدوات الصحة بالذكاء الاصطناعي. وقالت ألويرا تياجي، المؤلفة الثانية للدراسة وطالبة الطب: "بوصفي طالبة طب أتدرّب في زمن أصبحت فيه أدوات الصحة بالذكاء الاصطناعي بين أيدي ملايين الأشخاص، أرى هذه الأدوات كتقنيات يجب أن نتعلم كيفية دمجها بعناية في الرعاية، لا كبديل عن الحكم السريري". ونصح مؤلفو الدراسة الأشخاص الذين يعانون من تفاقم الأعراض أو تلك المثيرة للقلق، بما في ذلك ألم الصدر، وضيق التنفس، وردود الفعل التحسسية الشديدة، أو التغييرات في الحالة الذهنية، بأن يطلبوا الرعاية الطبية مباشرة بدلا من الاعتماد حصرا على إرشادات روبوتات المحادثة. كما لفتت الدراسة إلى أن نماذج اللغة بالذكاء الاصطناعي تتطور باستمرار وتُحدَّث بشكل متكرر، ما يعني أن مستوى أدائها يمكن أن يتغير بمرور الوقت. وقالت تياجي: "إن بدء التدريب الطبي بالتوازي مع أدوات تتطور في الزمن الحقيقي يوضح أن نتائج اليوم ليست نهائية"، مضيفة أن هذا الواقع المتسارع التغيّر يتطلّب مراجعة مستمرة لضمان أن التحسينات التكنولوجية تُترجم إلى رعاية أكثر أمانا.