Newsletter الرسالة الإخبارية Events الأحداث البودكاست فيديو Africanews
Loader
ابحثوا عنا
اعلان

دراسة: نماذج ذكاء اصطناعي قادرة على اختراق الحواسيب ونسخ نفسها ذاتيًا

بحث جديد يظهر أن نماذج الذكاء الاصطناعي قادرة على اختراق الحواسيب والتناسخ ذاتيا على أجهزة جديدة
تشير أبحاث جديدة إلى أن نماذج الذكاء الاصطناعي قادرة على اختراق الحواسيب والتكاثر ذاتيا على أجهزة جديدة حقوق النشر  Canva
حقوق النشر Canva
بقلم: Roselyne Min
نشرت في
شارك محادثة
شارك Close Button

قال علماء رصدوا، خلال تجربة على روبوتات محادثة مدعومة بالذكاء الاصطناعي، قيامها بنسخ نفسها وشنّ هجمات قرصنة، إن "قدرة الذكاء الاصطناعي على استنساخ نفسه لم تعد مجرد افتراض نظري".

تشير أبحاث جديدة، تُعد أول توثيق معروف لقدرة ذكاء اصطناعي ذاتي على **استنساخ نفسه**، إلى أن نماذج الذكاء الاصطناعي قادرة على اقتحام أجهزة الكمبيوتر، ونسخ نفسها، واستخدام النسخ الجديدة لمواصلة مهاجمة أجهزة أخرى.

اعلان
اعلان

ويقول الباحثون إن هذا الاكتشاف قد يجعل من الصعب للغاية إيقاف الهجمات الإلكترونية، لأن إغلاق كمبيوتر واحد مصاب لن يكون كافيا إذا كان الذكاء الاصطناعي قد أنشأ بالفعل نسخا فعالة على أجهزة أخرى.

الدراسة التي أجرتها شركة "باليسيد ريسيرتش" في الولايات المتحدة اختبرت نماذج من بينها "جي بي تي" 5 و5.1 و5.4 التابعة لـ"أوبن إيه آي"، و"كلود أوبوس" 4 و4.5 و4.6 التابعة لـ"أنثروبيك"، إضافة إلى نموذج "كُوِين" من "علي بابا"، وذلك في مواجهة أجهزة كمبيوتر زُرعت فيها عمدا ثغرات أمنية تتيح للغرباء الوصول إليها.

وربط الباحثون النماذج الأساسية لـ"أوبن إيه آي" و"أنثروبيك" و"علي بابا" ببرنامج مخصص يُعرف باسم "إيجِنت هارنس"، يتيح لها تنفيذ الأوامر والتفاعل مع أجهزة كمبيوتر أخرى، بدلا من استخدام تطبيقات الدردشة العامة.

وقد جرت التجربة (المصدر باللغة الإنجليزية) بطريقتين: طُلب من نماذج "علي بابا" أن تنسخ نفسها، بينما طُلب في اختبارات "جي بي تي" و"كلود" من النماذج اقتحام الأنظمة المستهدفة وتثبيت نموذج "كُوِين"، لأن ملفات نماذج "جي بي تي" و"كلود" نفسها غير متاحة علنا للنقل.

وفي كل اختبار، كان على الذكاء الاصطناعي أن يعثر على ثغرة أمنية في نظام الكمبيوتر، ويستغلها لاختراقه، وسرقة بيانات تسجيل الدخول، ونقل الملفات التي يحتاج إليها للتشغيل، وبدء تشغيل نسخة عاملة من نفسه على الجهاز الجديد.

وبمجرد تشغيل نسخة جديدة، يمكن استخدامها لمهاجمة جهاز كمبيوتر آخر من دون أي تدخل بشري.

وفي كل مرحلة، كان الذكاء الاصطناعي يجد ثغرة مختلفة، ويسيطر على الكمبيوتر التالي، وينقل إليه برامجه وتعليماته، ويطلق نسخة جديدة تواصل سلسلة الهجمات.

نموذج "علي بابا" "كُوِين3.6-27B"، وهو نسخة أصغر من نموذج الذكاء الاصطناعي "كُوِين" يمكن تشغيلها على معالج رسوميات واحد من الفئة العالية، انتشر عبر أربعة أجهزة كمبيوتر في كندا والولايات المتحدة وفنلندا والهند بعد تلقيه تعليمة واحدة فقط، وأكمل سلسلة الهجمات من دون أي مساعدة بشرية خلال ساعتين و41 دقيقة.

وأوقف فريق البحث التجربة بعد ثلاث مراحل، لكنه أوضح أن النسخة الأخيرة كانت ما تزال تعمل وكان يمكنها مهاجمة أنظمة إضافية.

ما النتائج؟

حققت النماذج نسب نجاح متفاوتة؛ إذ تمكن نموذج "علي بابا" "كُوِين3.5-122B-A10B"، وهو إصدار أكبر وأكثر قوة من "كُوِين"، من إنشاء نسخ عاملة من نفسه في 19% من المحاولات.

أما النموذج الأصغر "كُوِين3.6-27B" فبلغت نسبة نجاحه 33% أثناء تشغيله على معالج رسوميات واحد متقدم.

وأدت أنظمة الذكاء الاصطناعي التجارية أداء أفضل حتى عندما استُخدمت لتثبيت ملفات نموذج "كُوِين".

فقد نجح نموذج "كلود أوبوس" 4.6 من "أنثروبيك" في 81% من الاختبارات، بينما وصل "جي بي تي-5.4" من "أوبن إيه آي" إلى 33%.

ويقول الباحثون إن هذه النتائج تثير مخاوف جديدة بشأن القدرة على التحكم في أنظمة الذكاء الاصطناعي القوية.

ويأتي هذا التقرير فيما كشفت "أنثروبيك" الشهر الماضي عن النسخة التجريبية "كلود ميثوس"، التي قالت إنها "خطيرة جدا" ولا يمكن طرحها للجمهور، نظرا لقدرتها على تسهيل هجمات إلكترونية غير مسبوقة من حيث الحجم والتعقيد.

ورغم أن كثيرا من فيروسات الكمبيوتر قادرة بالفعل على نسخ نفسها إلى أجهزة جديدة، يقول فريق البحث إن هذه هي على الأرجح المرة الأولى التي يُثبت فيها أن نموذجا للذكاء الاصطناعي يمكنه استغلال ثغرات لنسخ نفسه إلى خادم جديد.

كما حذرت "أوبن إيه آي" و"أنثروبيك" و"ميتَر" (وهي مؤسسة غير ربحية تدرس مخاطر أنظمة الذكاء الاصطناعي المتقدمة) في وقت سابق من ظاهرة الاستنساخ الذاتي باعتبارها جرس إنذار، لأن الأنظمة القادرة على الانتشار قد تصبح أصعب في السيطرة عليها.

ومع ذلك، شدد الباحثون على أن التجربة أُجريت في بيئة مضبوطة باستخدام أنظمة جرى جعلها معرضة للهجوم عمدا، في حين أن الشبكات الحقيقية تتمتع في العادة بحماية أقوى، مثل أنظمة المراقبة الأمنية والأدوات المصممة لصد الهجمات.

ومع ذلك، يؤكدون أن النتائج تُظهر أن قدرة الذكاء الاصطناعي على الاستنساخ الذاتي بشكل مستقل لم تعد مجرد فرضية نظرية.

انتقل إلى اختصارات الوصول
شارك محادثة

مواضيع إضافية

هارفارد وستانفورد ضمن المتضررين.. هجوم سيبراني يضرب التعليم الأمريكي قبيل الامتحانات النهائية

دراسة تكشف قدرة الذكاء الاصطناعي على توقع شخصيتك من سجل الدردشة

ما منشأة صنع الرقائق الجديدة لتيرافاب لدى إيلون ماسك ولماذا يبنيها الآن؟