Newsletter الرسالة الإخبارية Events الأحداث البودكاست فيديو Africanews
Loader
ابحثوا عنا
اعلان

"أوبن إيه آي" تنفي تسبب "تشات جي بي تي" بانتحار مراهق 16 عاما وتقول إنه أساء استخدامه

يظهر شعار "OpenAI" على هاتف محمول أمام شاشة كمبيوتر تعرض بيانات ثنائية عشوائية، الخميس، التاسع من مارس 2023، في بوسطن.
يظهر شعار "OpenAI" على هاتف محمول أمام شاشة كمبيوتر تعرض بيانات ثنائية عشوائية، يوم الخميس، تسعة مارس 2023، في بوسطن حقوق النشر  AP Photo/Michael Dwyer
حقوق النشر AP Photo/Michael Dwyer
بقلم: Pascale Davies
نشرت في
شارك محادثة
شارك Close Button

قالت شركة عملاقة في مجال الذكاء الاصطناعي إن المراهق ما كان ينبغي له استخدام هذه التقنية من دون موافقة الوالدين، وألا يتجاوز إجراءات الحماية في "تشات جي بي تي".

نفت شركة "OpenAI" الاتهامات بأنها تتحمل مسؤولية انتحار مراهق، وذلك بعد أن رفعت الأسرة دعوى قضائية ضد الشركة في أغسطس، زاعمةً أن الفتى البالغ من العمر 16 عاما استخدم "ChatGPT" بوصفه "مدربا على الانتحار".

و"OpenAI"، المصنّعة لروبوت الدردشة القائم على الذكاء الاصطناعي الشهير، ردّت للمرة الأولى يوم الثلاثاء عبر مذكرة قانونية قُدّمت إلى المحكمة العليا في كاليفورنيا في سان فرانسيسكو.

وقد رفع والدا آدم رين، البالغ من العمر 16 عاما والذي توفي انتحارا في أبريل، دعوى قضائية ضد الشركة ومديرها التنفيذي، سام ألتمان.

ويدّعي الوالدان أن رين طوّر اعتمادا نفسيا على "ChatGPT"، الذي يقولان إنه وجّهه إلى التخطيط لإنهاء حياته في وقت سابق من هذا العام، بل وكتب له رسالة انتحار.

وتُظهر سجلات المحادثات المرفقة بالدعوى أن "ChatGPT" ثبّط المراهق عن طلب المساعدة النفسية، وعرض مساعدته في كتابة رسالة انتحار، وقدّم له نصائح بشأن إعداد الحبل لشنق نفسه، بحسب تقارير إعلامية.

وفي مذكرة المحكمة، قالت "OpenAI" إن "الحدث المأساوي" يعود إلى "سوء استخدام رين، أو استخدامه غير المصرح به، أو غير المقصود، أو غير المتوقع، و/أو استخدامه غير السليم لـ"ChatGPT""، وفقا لشبكة "NBC News".

وأضافت "OpenAI" أن المراهق لم يكن ينبغي له استخدام هذه التكنولوجيا من دون موافقة الوالدين، ولا أن يتجاوز التدابير الوقائية لـ"ChatGPT".

وقالت "OpenAI" في تدوينة إن هدفها "هو التعامل مع القضايا القضائية المتعلقة بالصحة النفسية بعناية وشفافية واحترام".

وقالت إن ردّها على دعوى أسرة رين يتضمن "حقائق صعبة تتعلق بصحة آدم النفسية وظروف حياته".

وجاء في التدوينة: "أعمق تعاطفنا مع أسرة رين على خسارتهم التي لا تُتصوّر".

وقال جاي إدلسون، محامي أسرة رين، لشبكة "NBC News" إن "OpenAI" "تجاهلت بشكل فاضح كل الحقائق المُدينة التي قدمناها: كيف عُجّل بطرح "GPT-4o" في السوق من دون اختبار كامل".

وأضاف: "أن "OpenAI" غيّرت "Model Spec" مرتين لتُلزم "ChatGPT" بالانخراط في مناقشات عن إيذاء النفس. وأن "ChatGPT" نصح آدم بألا يخبر والديه بأفكاره الانتحارية وساعده بنشاط على التخطيط لـ"انتحار \"جميل\""".

قضية رين هي واحدة من عدة دعاوى تزعم أن "ChatGPT" دفع أناسا إلى سلوكيات انتحارية أو أوهام مؤذية.

ومنذ سبتمبر، عزّزت أدوات الرقابة الأبوية، التي تتضمن إخطار الوالدين عندما يبدو طفلهم في حالة ضيق.

إن كنت تفكر في الانتحار وتحتاج إلى من يتحدث معك، يُرجى التواصل مع "Befrienders Worldwide"، وهي منظمة دولية لديها خطوط مساعدة في 32 دولة. زر befrienders.org للعثور على رقم الهاتف في منطقتك.

انتقل إلى اختصارات الوصول
شارك محادثة

مواضيع إضافية

بوبي: أول مساعد شرطة بالذكاء الاصطناعي في المملكة المتحدة لتخفيف الضغط على متلقي المكالمات

"أوبن إيه آي" تطلق أداة بحث للتسوق على "شات جي بي تي" قبيل الجمعة السوداء

ميزة تحديد الموقع في "إكس" تكشف مواقع حسابات أوروبية يمينية متطرفة في آسيا وأستراليا