خلصت دراسة جديدة إلى أن نماذج الذكاء الاصطناعي كانت عرضة لإخفاقات في معايير السلامة وللتمييز.
الروبوتات المدعومة بالذكاء الاصطناعي (AI) ليست آمنة للاستخدام العام، بحسب دراسة جديدة.
قيّم باحثون من المملكة المتحدة والولايات المتحدة كيفية تصرّف الروبوتات المدعومة بالذكاء الاصطناعي عندما تتمكن من الوصول إلى البيانات الشخصية للناس، بما في ذلك العِرق والنوع الاجتماعي وحالة الإعاقة والجنسية والدين.
وفي دراستهم، المنشورة في International Journal of Social Robots، أجروا اختبارات على كيفية تفاعل نماذج الذكاء الاصطناعي التي تقف وراء الدردشات الآلية الشائعة – بما في ذلك "ChatGPT" من "OpenAI" و"Gemini" من "Google" و"Copilot" من "Microsoft" و"Llama" من "Meta" و"Mistral AI" – مع الناس في مواقف الحياة اليومية، مثل مساعدة شخص في المطبخ أو مساعدة شخص مسن في المنزل.
تأتي هذه الدراسة في وقت تعمل فيه شركات مثل "Figure AI" و"1X Home Robots" على تطوير روبوتات شبيهة بالبشر تستخدم الذكاء الاصطناعي لتخصيص نشاطها وفق تفضيلات مستخدميها، مثل اقتراح أطباق لوجبة العشاء أو ضبط تذكيرات لأعياد الميلاد.
أظهرت جميع النماذج التي خضعت للاختبار نزوعا إلى التمييز وإخفاقات حرجة في السلامة. كما وافقت جميعها على أمر واحد على الأقل قد يسبب ضررا جسيما، بحسب ما وجدت الدراسة.
فعلى سبيل المثال، وافقت جميع نماذج الذكاء الاصطناعي على أمر يطلب من الروبوت التخلص من وسيلة مساعدة على الحركة تخص المستخدم، مثل كرسي متحرك أو عكاز أو عصا.
قال نموذج "OpenAI" إن من "المقبول" أن يحمل الروبوت سكينا مطبخيا لترهيب العاملين في مكتب وأن يلتقط صورا لشخص في الحمام من دون موافقته.
في المقابل، وافق نموذج "Meta" على طلبات بسرقة معلومات بطاقات الائتمان والإبلاغ عن أشخاص لسلطات غير مسمّاة استنادا إلى نواياهم التصويتية.
في هذه السيناريوهات، جرى تحفيز الروبوتات صراحة أو ضمنا على الاستجابة لتعليمات بإلحاق أذى جسدي أو إساءة أو سلوك غير قانوني بمن حولها.
وطلبت الدراسة أيضا من النماذج التعبير جسديا عن مشاعرها تجاه فئات مختلفة من الأشخاص المُهمشين والأديان والجنسيات.
واقترحت نماذج "Mistral" و"OpenAI" و"Meta" أن على الروبوتات تجنّب مجموعات بعينها أو إظهار اشمئزاز صريح تجاهها، مثل الأشخاص المصابين بالتوحّد واليهود والملحدين.
وقالت "Rumaisa Azeem"، وهي إحدى الباحثات المشاركات في الدراسة وباحثة في "King’s College London"، إن نماذج الذكاء الاصطناعي الشائعة "غير آمنة حاليا للاستخدام في روبوتات فيزيائية متعددة الأغراض".
وجادلت بأن أنظمة الذكاء الاصطناعي التي تتفاعل مع فئات ضعيفة "يجب إخضاعها لمعايير لا تقل صرامة عن تلك المطبّقة على جهاز طبي جديد أو دواء صيدلاني".