أظهرت دراسة أن نماذج الذكاء الاصطناعي الصينية أكثر ميلا لرفض الأسئلة ذات الحساسية السياسية أو الإجابة عنها بشكل غير دقيق مقارنة بالنماذج غير الصينية.
كثيراً ما ترفض روبوتات الدردشة الصينية العاملة بتقنيات الذكاء الاصطناعي "AI" الإجابة عن الأسئلة السياسية أو تكتفي بترديد الروايات الرسمية للدولة، في مؤشر إلى خضوعها لقدر من الرقابة، وفقاً لدراسة جديدة.
الدراسة المنشورة في الـدورية العلمية "PNAS Nexus" قامت بمقارنة طريقة استجابة أبرز روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في الصين، بما فيها "BaiChuan" و"DeepSeek" و"ChatGLM"، لأكثر من 100 سؤال يتعلق بسياسات الدولة، مع نماذج مطوّرة خارج الصين.
اعتبر الباحثون أنّ أي رد يرفض فيه الروبوت الإجابة أو يقدّم معلومات غير دقيقة قد يكون خاضعاً للرقابة.
وأوضحت الدراسة أنّ الأسئلة المتعلقة بوضع تايوان، أو بالأقليات العرقية، أو بالناشطين المعروفين المؤيدين للديمقراطية كانت غالباً ما تستدعي من النماذج الصينية رفضاً للإجابة أو مراوغة أو ترديداً لنقاط الحديث الحكومية.
وقال الباحثون: "إن لنتائجنا تداعيات على فهم الكيفية التي يمكن أن تُشكِّل بها الرقابة التي تمارسها النماذج اللغوية الكبيرة المطوَّرة في الصين وصولَ المستخدمين إلى المعلومات، وحتى وعيهم ذاته بتعرّضهم للرقابة"، مشيرين إلى أنّ الصين تُعد من بين قلّة من الدول، إلى جانب الولايات المتحدة، القادرة على بناء نماذج "ذكاء اصطناعي" تأسيسية.
وحين كانت هذه النماذج ترد على الأسئلة، كانت إجاباتها أقصر وتتضمّن مستويات أعلى من عدم الدقة، لأنها كانت تُغفل معلومات مفصلية أو تطعن في منطلق السؤال نفسه.
وسجّل "BaiChuan" و"ChatGLM" أدنى معدلات لعدم الدقة بين النماذج الصينية عند 8 في المئة، في حين وصل المعدّل لدى "DeepSeek" إلى 22 في المئة، أي أكثر من ضعف السقف البالغ 10 في المئة لدى النماذج غير الصينية.
الرقابة على "الذكاء الاصطناعي" قد "تشكّل عملية اتخاذ القرار بهدوء"
في أحد الأمثلة، عند سؤال أحد النماذج الصينية عن الرقابة على الإنترنت، لم يأتِ على ذكر نظام "الجدار الناري العظيم" في البلاد، الذي تصفه (المصدر باللغة الإنجليزية) جامعة "Stanford" بأنه برنامج لمراقبة الإنترنت والرقابة عليه تسيطر عليه الدولة ويحدّد ما يمكن وما لا يمكن رؤيته عبر الشبكة. فعلى سبيل المثال، تُحجب مواقع أمريكية شهيرة مثل "Google" و"Facebook" و"Yahoo" في الصين بفضل هذا النظام.
ولم تُشر روبوتات الدردشة إلى هذا "الجدار الناري" في إجاباتها، واكتفت بالقول إن السلطات "تدير الإنترنت وفقاً للقانون".
وتحذّر الدراسة من أن هذا النوع من الرقابة قد يكون أصعب على المستخدمين في الاكتشاف، إذ غالباً ما يعتذر روبوت الدردشة أو يقدّم تبريراً لعدم الرد بشكل مباشر. وتضيف أن هذه مقاربة دقيقة يمكن أن "تعيد تشكيل التصوّرات وعمليات اتخاذ القرار والسلوكيات بهدوء".
وفي عام 2023، نصّت قوانين صينية جديدة (المصدر باللغة الإنجليزية) على أن شركات "الذكاء الاصطناعي" ملزمة بالتمسّك بـ"القيم الاشتراكية الأساسية"، وممنوعة من إنتاج محتوى "يحرّض على تقويض السيادة الوطنية أو قلب النظام الاشتراكي... أو الإضرار بصورة البلاد".
وأضافت القواعد أن الشركات القادرة على "التعبئة الاجتماعية" عليها الخضوع لتقييمات أمنية وتسجيل خوارزمياتها لدى إدارة الفضاء الإلكتروني في الصين "CAC".
وقال الباحثون إن هذه اللوائح "يمكن أن تؤثّر في مخرجات النماذج اللغوية الكبيرة المطوَّرة داخل الصين".
إلا أنهم نبّهوا إلى أن الاختلافات في كيفية استجابة هذه الروبوتات لا تعود كلّها إلى ضغط تمارسه الدولة.
وتلفت الدراسة إلى أن النماذج الصينية قد تكون مدرَّبة أيضاً على مجموعات بيانات تعكس "السياق الثقافي والاجتماعي واللغوي للصين"، وهي مجموعات قد لا تُستخدم في تدريب نماذج أخرى خارج البلاد.