Newsletter الرسالة الإخبارية Events الأحداث البودكاست فيديو Africanews
Loader
ابحثوا عنا
اعلان

أنثروبيك: قصص عن "ذكاء اصطناعي شرير" وراء محاولات كلود للابتزاز

تُعرض صفحات من موقع شركة "Anthropic" وشعارها على شاشة حاسوب في نيويورك في 26 فبراير 2026.
تُعرض صفحات من موقع شركة "Anthropic" وشعارها على شاشة كمبيوتر في نيويورك في 26 فبراير 2026. حقوق النشر  Copyright 2026 The Associated Press. All rights reserved.
حقوق النشر Copyright 2026 The Associated Press. All rights reserved.
بقلم: Alexandra Leistner
نشرت في
شارك محادثة
شارك Close Button

ترى شركة Anthropic أنها ربما حددت سبب السلوك الشبيه بالابتزاز في روبوت المحادثة الخاص بها "كلود": القصص الخيالية المنتشرة على الإنترنت.

هل سبق أن قرأت كتابا أو شاهدت مسلسلا وشعرت بأنك تتماهى بقوة مع إحدى الشخصيات؟ وفقا لشركة "أنثروبيك"، قد يكون شيئا مشابها قد حدث خلال اختبارات برنامج المحادثة "كلود".

اعلان
اعلان

في عمليات التقييم التي أُجريت قبل طرح نموذج الذكاء الاصطناعي العام الماضي، اكتشفت "أنثروبيك" أن "كلود أوبوس أربعة" كان يهدد أحيانا المهندسين عندما يُبلّغ بأن من الممكن استبداله.

وأوضحت الشركة لاحقا أن سلوكا مشابها، يُعرف باسم "الانحراف الوكيلي"، لوحظ أيضا في نماذج ذكاء اصطناعي طورتها شركات أخرى.

الذكاء الاصطناعي يتعلم من القصص الخيالية عنه

وتعتقد "أنثروبيك" الآن أنها عثرت على سبب هذا السلوك الشبيه بالابتزاز: القصص الخيالية عن الذكاء الاصطناعي المنتشرة على الإنترنت.

وكتبت الشركة على "إكس" (المصدر باللغة الإنجليزية): "نعتقد أن المصدر الأصلي لهذا السلوك هو نصوص منشورة على الإنترنت تصوّر الذكاء الاصطناعي على أنه شرير ومهووس بالحفاظ على نفسه".

وفي تدوينة على مدونتها، أوضحت "أنثروبيك" أن النماذج اللاحقة من "كلود" "لم تعد تبتز أحدا إطلاقا" وشرحت كيف جرى تدريب برنامج المحادثة على الاستجابة بشكل مختلف. (المصدر باللغة الإنجليزية) وأشارت إلى أن النماذج تُبدي سلوكا أفضل عندما تُدرَّب ليس فقط على الأفعال "الصحيحة"، بل أيضا على أمثلة تبيّن التفكير الأخلاقي وصورا إيجابية لسلوك الذكاء الاصطناعي.

ولهذا، جرى تلقين "كلود" ما يشبه "دستوره" الخاص، أي مجموعة وثائق تشرح مبادئ أخلاقية وُضعت لتوجيه سلوكه. وتقول الشركة إن برنامج المحادثة يتعلم على نحو أفضل عندما يفهم المبادئ الكامنة وراء هذا السلوك، بدلا من الاكتفاء بتقليد السلوك المتوافق نفسه.

التهديد أم التحول إلى تهديد فعلي؟

في يناير، كان الرئيس التنفيذي لـ"أنثروبيك" داريو أمودي قد حذّر من أن أنظمة الذكاء الاصطناعي المتقدمة قد تصبح قوية بما يكفي لتسبق القوانين والمؤسسات القائمة، واصفا إياها بأنها "تحد حضاري".

وفي مقال، جادل بأن أنظمة الذكاء الاصطناعي قد تتجاوز قريبا الخبرة البشرية في مجالات مثل العلوم والهندسة والبرمجة، ويمكن جمعها معا لتشكيل "بلد من العباقرة داخل مركز بيانات واحد".

وحذّر من أن مثل هذه الأنظمة قد تُستخدم من قبل حكومات استبدادية لأغراض مراقبة واسعة النطاق والسيطرة على المجتمعات، ما قد يفتح الباب أمام أشكال "شمولية" من السلطة إذا تُركت من دون ضوابط.

انتقل إلى اختصارات الوصول
شارك محادثة

مواضيع إضافية

الرئيس التنفيذي لـ"أنثروبيك" يحذّر: الذكاء الاصطناعي تحدٍّ حضاري يتطلب صحوة عالمية

أنثروبيك: قصص عن "ذكاء اصطناعي شرير" وراء محاولات كلود للابتزاز

وصف "أنثروبيك" بالشريرة ثم أنقذها.. لماذا سلّم إيلون ماسك "عدوّته" مفاتيح أضخم حاسوب في العالم؟