Newsletterرسالة إخباريةEventsالأحداث
Loader

Find Us

FlipboardNabdLinkedinفايبر
Apple storeGoogle Play store
اعلان

تشات جي بي تي و"هلوساته".. عندما لا يميز الذكاء الاصطناعي بين الحقيقة والخيال

تشات جي بي تي، روبوت الدردشة القائم على الذكائء الاصطناعي
تشات جي بي تي، روبوت الدردشة القائم على الذكائء الاصطناعي Copyright AP Photo
Copyright AP Photo
بقلم:  يورونيوز
شارك هذا المقالمحادثة
شارك هذا المقالClose Button

على الرغْم من التطور الكبير الذي طرأ على الأنظمة القائمة على الذكاء الاصطناعي، فإنه لا تزال لديها مشكلة التمييز بين المعلومات الصحيحة والخاطئة، وذلك قد يكون له عواقب وخيمة عندما يتعلق الأمر بأمور حساسة.

اعلان

اقضِ بعض الوقت مع تشات جي بي تي، أو أحد روبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي، ولن يستغرق الأمر كثيرًا حتى تعطيك تلك البرمجيات معلومات خاطئة.

تلك المعلومات توصف بالهلوسات، أو مجرد اختلاق لأشياء، وقد أضحت الآن تشكل مشكلة لكل شركة ومنظمة وطالب مدرسة ثانوية يحاولون الاستعانة بالذكاء الاصطناعي لكتابة مستندات أو لإنجاز عمل معين. البعض يستخدم تلك الأنظمة في مهام قد تكون لها عواقب عالية الخطورة، كالعلاج النفسي أو كتابة المرافعات القانونية.

تقول دانييلا أمودي، رئيسة شركة Anthropic التي طورت برنامج Claude 2: "لا أعتقد أن هناك أي نموذج اليوم لا يعاني من بعض الهلوسة".

وتتابع: "لقد تم تصميمها نوعًا ما للتنبؤ بالكلمة التالية، وبالتالي سيكون هناك معدل معين من المعلومات التي سيقدمها النموذج بشكل غير دقيق".

شركات مثل Anthropic أو OpenAI التي طورت تشات جي بي تي، والشركات الأخرى التي تطور هذه الأنظمة المعروفة باسم "نماذج اللغات الكبيرة"، تقول إنها تعمل على جعلها أكثر صدقًا.

كم من الوقت سيستغرق ذلك - وما إذا كانت ستكون الأنظمة جيدة بما يكفي لتقديم مشورة طبية - على سبيل المثال ـ هو أمر يجب انتظاره.

تقول إميلي بندر، أستاذة علوم اللسانيات ومديرة مختبر اللسانيات الحاسوبية بجامعة واشنطن: "إنه أمر غير قابل للإصلاح. إنه أمر متأصل في عدم التطابق بين التقنية وحالات الاستخدام المقترحة."

AP Photo
عملاق التكنولوجيا غوغل طور هو الآخر روبوت دردشة قائم على الذكاء الاصطناعي أسماه "بارد"AP Photo

يقول سام ألتمان، مؤسس شركة OpenAI التي طورت تشات جي بي تي: "أعتقد أننا سنتغلب على مشكلة الهلوسة إلى حد كبير. أعتقد أن الأمر سيستغرق عامًا ونصف، أو عامين. شيء من هذا القبيل. عند تلك المرحلة لن نبقى نتحدث عن الهلوسات. هناك توازن بين الإبداع والدقة الكاملة، وسيحتاج النموذج إلى التعلم عندما تريد أحدهما."

لكن بالنسبة لبعض الخبراء الذين درسوا هذه التكنولوجيا، مثل عالمة اللسانيات بجامعة واشنطن، بندر، فإن هذه التحسينات لن تكون كافية.

كما تصف بندر نموذج اللغة كنظام "لنمذجة احتمالية سلاسل مختلفة من أشكال الكلمات"، مع الأخذ في الاعتبار بعض البيانات المكتوبة التي تم التدرب عليها.

إنها كالطريقة التي تتمكن بها أنظمة التدقيق الإملائي من اكتشاف كتابة الكلمة الخاطئة. تقول بندر إن هذه الأنظمة، وعند استخدامها لإنشاء نص، "مصممة لاختلاق الأشياء. هذا كل ما تفعله"، وإنها جيدة في تقليد أشكال الكتابة، مثل العقود القانونية أو البرامج النصية التلفزيونية.

"لكن نظرًا لأنها تختلق الأشياء فقط، فعندما يكون النص الذي انبثق عنها يمكن تفسيره على أنه شيء نراه صحيحًا، يكون ذلك عن طريق الصدفة. حتى إذا كان من الممكن ضبطها لتكون صحيحة في معظم الأوقات، فستظل لديها أوضاع فشل - ومن المحتمل أن يكون الفشل في حالات يصعب على الشخص الذي يقرأ النص ملاحظتها، لأنها حالات أكثر غموضًا"، حسب الباحثة بندر.

AP Photo
سام ألتمان، أحد مؤسسي شركة OpenAI التي طورت نظام تشات جي بي تيAP Photo

شين أورليك، رئيس شركة طورت نظام دردشة قائم على الذكاء الاصطناعي، يقول إن هذه الأخطاء ليست مشكلة كبيرة لشركات التسويق، بل قد تشكل نقطة قوة.

ويروي أورليك أن زبائنه يخبرونه أن النموذج الذي طورته شركته يفتح أعينهم على زوايا أو أشياء لم يفكروا بها من قبل.

يعلم أورليك أن الهلوسة لن يمكن إصلاحها بسهولة، ويقول إنه يعتمد على شركات مثل غوغل لوضع الكثير من الطاقة والموارد في الحلول، والتي يقول إنه يجب أن يكون لديها، أي غوغل، "مستوى عالٍ حقًا من المحتوى الحقيقي" لمحرك البحث الخاص بها.

ويتابع: "أعتقد أن عليهم حل هذه المشكلة. عليهم معالجة هذا الأمر. لذلك لا أعرف ما إذا كانت ستكون مثالية على الإطلاق، ولكن من المحتمل أن تستمر في التحسن مع مرور الوقت ".

المتفائلون بالتكنولوجيا، بمن فيهم مؤسس شركة مايكروسوفت بيل غيتس، يتوقعون مستقبلًا ورديًا. كتب غيتس في منشور على مدونة في تموز/ يوليو موضحًا بالتفصيل أفكاره حول المخاطر المجتمعية للذكاء الاصطناعي: "أنا متفائل بأنه بمرور الوقت، يمكن تعليم نماذج الذكاء الاصطناعي التمييز بين الحقيقة والخيال".

واستشهد بورقة عام 2022 من OpenAI كمثال على "العمل الواعد على هذه الجبهة". لكن حتى ألتمان، رئيس الشركة المطورة لتشات جي بي تي، لا يعتمد على النماذج لتكون صادقة عندما يبحث عن معلومات لنفسه، حيث قال خلال ندوة مع طلاب جامعيين في الهند، ضاحكًا: "ربما أكون أقل الناس على وجه الأرض ثقة بالإجابات التي تأتي من تشات جي بي تي".

المصادر الإضافية • أ ب

شارك هذا المقالمحادثة

مواضيع إضافية

الإمارات تؤكد وجود مساحة لنشطاء المناخ "للتجمع السلمي" خلال "كوب-28"

التلسكوب الفضائي الأوروبي "إقليدس" يكشف عن أولى صوره التجريبية

"ترجمة الضوء إلى صوت"..تكنولوجيا جديدة تسمح للمكفوفين بسماع كسوف الشمس الكلي خلال أيام