عاجل
المعذرة، هذه المادة غير متوفرة في منطقتكم

المفوضية الأوروبية تكشف عن خططها لاعتماد تقنيات الذكاء الاصطناعي وفق أساليب أخلاقية

Access to the comments محادثة
بقلم:  يورونيوز
euronews_icons_loading
رئيسة المفوضية الأوروبية أورسولا فون دير لايين تجرب خوذة الواقع المعزز في معرض للتقنيات في بروكسل
رئيسة المفوضية الأوروبية أورسولا فون دير لايين تجرب خوذة الواقع المعزز في معرض للتقنيات في بروكسل   -   حقوق النشر  AP Photo
حجم النص Aa Aa

تعتزم المفوضية الاوروبية تقديم خطتها الأربعاء، لتنفيذ آليات تقنيات الذكاء الاصطناعي لضمان أن يتم استخدام التقنيات وفق أساليب أخلاقية. وتستعد المفوضية الأوروبية لاقتراح القواعد الجديدة وتطبيقها في قطاعات مثل الرعاية الصحية والنقل.

في مجال الصحة، تجمع منصة HumanITcare بيانات المريض مثل ضغط الدم أو معدل دقات القلب من خلال أجهزة مختلفة. يقوم النظام بتشغيل تنبيه في حالة حدوث مشكلة. أما القرار النهائي متروك للأطباء الذين يتمتعون بصلاحية الوصول إلى هذه المعلومات.

وفي هذا الإطار، تسعى المفوضية إلى إنشاء سوق بيانات أوروبية واحدة، والتأكد من أن استخدام تكنولوجيا الذكاء الاصطناعي ستأخذ بعين الاعتبار الخصوصية والأبعاد الأخلاقية.

وتقول نوريا باستور، مديرة تنفيذية في HumanITcare " تساعدنا تقنية الذكاء الاصطناعي عبر تفعيل خاصية الإنذارات التي ترسلها المنصة إلى الأطباء حيث يتم إعدادها بالتعرف على صحة المريض" مضيفة في هذا الصدد " لا يعمل الإنذار كعامل منبه فحسب، بقدر ما يسهم أيضا في تسهيل التوصل إلى بيانات فعندما يدخل الأطباء إلى المنصة يمكنهم رؤية المؤشرات المختلفة ويمكنهم اتخاذ قرارهم يتعلق بالمريض مثلا بناءً على تلك المعلومات ".

هذه الرؤية تندرج في إطار مساعي الاتحاد الأوروبي لمواكبة جهود الصين والولايات المتحدة فيما يتعلق بتطوير تقنيات الذكاء الاصطناعي، ولكن على نحو يتوافق مع القيم الأوروبية مثل الحفاظ على خصوصية المستخدم على سبيل المثال.

تعمل تقنية الذكاء الاصطناعي من خلال أداة تعمل على تسريع المهام مثل فحص السيرة الذاتية ، ولكنها يمكن أن تعيد إنتاج ميول متحيزة تعتمد على أساس الجنس أو العرق.

يريد البرلمان الأوروبي ضمان اتخاذ أي قرار نهائي من قبل إشراف بشري. وفي السياق ذاته تقول المفوضية إن مشاريع الذكاء الاصطناعي يجب أن تكون شفافة، وأن تكون خاضعة للإشراف البشري، ولِلُوغاريتمات آمنة وموثوقة، وأن تخضع لقواعد حماية الخصوصية والبيانات.

ويقول إيبان غارسيا، النائب في البرلمان الأوروبي : "يجب أن يكون للذكاء الاصطناعي دائمًا منظور محوره الإنسان" موضحا "يجب أن يكون دائمًا مرتبطًا بالتنمية البشرية وبالطبع يجب أن يتم توجيهه لصالح أكبر عدد من الأشخاص. بالإضافة إلى ذلك ، يجب تطبيقه مع احترام الحقوق الأساسية" .

لكن التشريعات الصارمة بشكل مفرط يمكن أن تعرقل التطور التكنولوجي. تفضل الولايات المتحدة النهج المعاكس ، وهذا هو سبب مطالبة العديد من الأصوات بالتوازن.

ويمكن أن يساعد الذكاء الاصطناعي على اكتشاف تهديدات الاحتيال، والأمن السيبراني، وتحسين الرعاية الصحية، وإدارة المخاطر المالية، ومعالجة تغير المناخ. ولكن يمكن استخدامه أيضًا لدعم الممارسات التجارية من قبل الحكومات الاستبدادية".

وعلى غرار "النظام الأوروبي العام لحماية البيانات" الذي يعزز حق مستخدمي الانترنت وبات يُستشهد به في الولايات المتحدة وكوريا الجنوبية، يريد الاتحاد الأوروبي فرض معايير جديدة لتصبح مرجعا دولياً في هذا المجال. وتؤكد المفوضية الأوروبية ان الشركات التي تعمل في مجال الذكاء الاصطناعي تحتاج إلى تثبيت آليات المساءلة لمنع إساءة استخدام التقنية، وذلك بموجب مبادئ توجيهية أخلاقية جديدة لتقنية مفتوحة أمام “الأنظمة الاستبدادية”.