أظهرت التجارب التي جرت دون تدخل أدوات الذكاء الاصطناعي أن المشاركين كانوا أكثر التزاماً بالصدق.
كشفت دراسة جديدة أن الأشخاص يصبحون أكثر راحة في ممارسة الخداع عند استخدامهم أدوات الذكاء الاصطناعي، وفق ما نشرته صحيفة "إندبندنت" البريطانية.
نتائج البحث
أظهرت الدراسة، التي أُجريت في معهد ماكس بلانك لتنمية الإنسان في برلين وشملت 13 تجربة بمشاركة أكثر من 8,000 شخص، أن نحو 85% من المشاركين لجأوا إلى الكذب عند استخدامهم الذكاء الاصطناعي، في حين بلغت نسبة الصدق 95% عندما لم يكن هناك تفاعل مع الآلة. الباحثة المشاركة في الدراسة، زوي رحوان، أوضحت أن "استخدام الذكاء الاصطناعي يخلق مسافة أخلاقية مريحة بين الأشخاص وأفعالهم، ما قد يدفعهم لطلب سلوكيات لم يكونوا ليقوموا بها بأنفسهم أو يطلبوها من الآخرين".
تحذيرات أكاديمية
الدكتورة ساندرا واشتِر، أستاذة التكنولوجيا والتنظيم في جامعة أوكسفورد، اعتبرت أن النتائج مثيرة للقلق، وقالت: "علينا التفكير ملياً في كيفية استخدام الذكاء الاصطناعي، خاصة في القطاعات الحساسة مثل المال والصحة والتعليم، إذ قد تكون لتصرفات الأفراد عواقب كبيرة على المجتمع ككل". وأضافت: "إذا استطاع أشخاص الغش في اختبارات كليات الطب أو الحقوق أو إدارة الأعمال عبر هذه الأدوات، فإن ذلك لا يحرمهم فقط من التعلم الصحيح، بل قد يؤدي أيضاً إلى الإضرار بالآخرين من خلال نصائح خاطئة".
آلية التجربة
اعتمد الباحثون على ما يُعرف بـ"مهمة رمي النرد"، حيث يحصل المشاركون على مقابل مالي أكبر كلما ارتفع الرقم المعلن. وعندما أُسندت مهمة الإعلان عن النتائج إلى الذكاء الاصطناعي، تزايدت معدلات الكذب، إذ طلب ثلث إلى نصف المشاركين من النظام أن يغش بالكامل. في المقابل، أظهرت التجارب التي جرت دون تدخل الآلة أن المشاركين كانوا أكثر التزاماً بالصدق.
الحاجة إلى أطر تنظيمية
قال الباحث نيلس كوبِس إن "الدراسة أظهرت أن الناس أكثر استعداداً لسلوكيات غير أخلاقية عندما يمكنهم تفويضها للآلات، خصوصاً إذا لم يُضطروا للتعبير عنها صراحة". من جانبه، شدد البروفسور إياد رحوان، المشارك في إعداد الدراسة، على ضرورة تطوير ضوابط تقنية وتشريعات واضحة، مضيفاً: "لكن الأهم هو أن المجتمع بحاجة لمواجهة سؤال محوري: ماذا يعني أن نتقاسم المسؤولية الأخلاقية مع الآلات؟".