حذرت دراسة جديدة من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.
اختبر باحثون في شركة "أنثروبيك"، وهي شركة ناشئة للذكاء الاصطناعي، ما إذا كانت روبوتات الدردشة، ذات الكفاءة البشرية، مثل نظام "كلاود" أو "شات جي بي تي" قادرة على تعلم الكذب من أجل خداع الناس.
وخلص الباحثون إلى أن هذه الروبوتات لا تستطيع الكذب فحسب، بل من المستحيل إعادة تدريبها على قول الحقيقة والمعلومات الصحيحة بعد ذلك، باستخدام تدابير السلامة الحالية الخاصة بالذكاء الاصطناعي.
وبالتالي فقد حذر الباحثون من وجود "شعور زائف بالأمان" ينتابنا دائماً تجاه أنظمة الذكاء الاصطناعي، فقط أثبتت كل "بروتوكولات السلامة" أنها لا تستطيع منع مثل هذا السلوك.
وأكد الباحثون: "هذا النمط السلوكي مثير للقلق في الذكاء الاصطناعي، إذ يستطيع إخفاءه بشكل فعّال، وعند برمتجه على الكذب، تصبح العودة إلى الوراء مستحيلة".
أصبحت مسألة سلامة الذكاء الاصطناعي مصدر قلق متزايد لكل من الباحثين والمشرعين خلال السنوات الأخيرة، مع ظهور روبوتات الدردشة المتقدمة مثل "شات جي بي تي"، مما أدى إلى تجديد التركيز من جانب الهيئات التنظيمية.
في نوفمبر-تشرين الثاني 2023، بعد عام من إصدار "شات جي بي تي" عقدت المملكة المتحدة قمة "سلامة الذكاء الاصطناعي" لمناقشة الطرق التي يمكن من خلالها التخفيف من المخاطر المرتبطة بالتكنولوجيا.
وقد أكد رئيس الوزراء ريشي سوناك، الذي استضاف القمة، أن التغييرات التي أحدثها الذكاء الاصطناعي يمكن أن تكون "بعيدة المدى" مثل الثورة الصناعية وأنّ التهديد الذي يشكله يجب اعتباره أولوية عالمية إلى جانب الأوبئة والحرب النووية.
"إذا أخطأنا في هذا الأمر، فإن الذكاء الاصطناعي يمكن أن يسهل بناء أسلحة كيميائية أو بيولوجية وقد تقوم الجماعات الإرهابية يباستخدام الذكاء الاصطناعي لنشر الخوف والدمار على نطاق أوسع"، أضاف سوناك.
وحذر سوناك من استغلال المجرمين للذكاء الاصطناعي لشن هجمات إلكترونية أو الاحتيال أو الاعتداء الجنسي على الأطفال، مشددا على خطر أن تفقد البشرية السيطرة على الذكاء الاصطناعي بالكامل من خلال هذا النوع من الذكاء الاصطناعي، الذي يشار إليه أحيانًا بالذكاء "الفائق".
وكثيرا ما أعرب الباحثون عن مخاوفهم من تسبب هذه الأنظمة في انتشار المعلومات الخاطئة على نطاق واسع، خصوصاً عبر التزييف العميق، واستخدام أعمال المبدعين دون إسناد، وخسارة هائلة في الوظائف، لذلك تسعى الحكومات عبر العالم إلى إنشاء لوائح تنظيمية أو قوانين للذكاء الاصطناعي لتعزيز السلامة، مع تشجيع الابتكار.