Newsletter الرسالة الإخبارية Events الأحداث البودكاست فيديو Africanews
Loader
ابحثوا عنا
اعلان

شركة أنثروبيك تقاضي وزارة الدفاع الأميركية بسبب تصنيفها خطرا على سلاسل الإمداد

تُعرض صفحات من موقع شركة "Anthropic" وشعاراتها على شاشة كمبيوتر في نيويورك يوم الخميس، 26 شباط/فبراير 2026.
تُعرَض صفحات من موقع "Anthropic" وشعارات الشركة على شاشة حاسوب في نيويورك يوم الخميس 26 فبراير 2026. حقوق النشر  AP Photo/Patrick Sison
حقوق النشر AP Photo/Patrick Sison
بقلم: Pascale Davies مع AP
نشرت في
شارك محادثة
شارك Close Button

أعلن البنتاغون الأسبوع الماضي أن شركة "أنثروبيك" تمثل خطرا على سلسلة الإمداد، ما يلزم الشركات بالتوقف عن استخدام نظام "كلود" داخل وزارة الدفاع.

رفعت شركة "Anthropic" دعوى قضائية ضد وزارة الدفاع الأميركية أمام القضاء يوم الاثنين (المصدر باللغة الإنجليزية) بعدما صنّفتها الوكالة الأسبوع الماضي "مخاطر على سلسلة التوريد".

اعلان
اعلان

تأتي الشكوى القانونية عقب خلاف بين "Anthropic" ووزارة الدفاع حول ما إذا كان ينبغي للجيش أن يتمتع بوصول غير مقيّد إلى أنظمة الذكاء الاصطناعي التي تطورها الشركة.

فقد اتخذ البنتاغون الأسبوع الماضي إجراءات ضد الشركة المطوِّرة لروبوت الدردشة "Claude"، واعتبرها خطرا على سلسلة التوريد، ما يعني أن على الشركات التوقف عن استخدام "Claude" في الحالات المرتبطة مباشرة بالوزارة.

وقال الرئيس دونالد ترامب إنه سيأمر الوكالات الفدرالية بوقف استخدام "Claude"، لكنه منح البنتاغون مهلة ستة أشهر للتخلص تدريجيا من منتج مدمج بعمق في أنظمة عسكرية سرية، من بينها تلك المستخدمة في الحرب في إيران.

وكتب الرئيس التنفيذي لـ"Anthropic" داريو أمودي في مدوّنة نُشرت الخميس (المصدر باللغة الإنجليزية): "لا نعتقد أن هذا الإجراء يستند إلى أساس قانوني سليم، ولا نرى خيارا سوى الطعن فيه أمام القضاء".

وطالبت الدعوى بأن يأمر القاضي بإلغاء "تصنيف مخاطر سلسلة التوريد" ومنع الوكالات الفدرالية من تطبيقه.

وجاء في ملف الدعوى أن "الدستور لا يسمح للحكومة باستخدام نفوذها الهائل لمعاقبة شركة على تعبير محمي"، مضيفة: "تلجأ "Anthropic" إلى السلطة القضائية كملاذ أخير لإنصاف حقوقها ووقف الحملة غير القانونية ذات الدوافع الانتقامية التي تشنّها السلطة التنفيذية".

ورفضت وزارة الدفاع التعليق يوم الاثنين، مستشهدة بسياسة تقضي بعدم التعليق على القضايا المنظورة أمام القضاء، بحسب ما أفادت وكالة "أسوشيتد برس".

وقالت "Anthropic" إنها سعت إلى منع استخدام تقنيتها في هدفين رفيعي المستوى: المراقبة الجماعية للأميركيين، والأسلحة الذاتية التشغيل بالكامل.

وأصر وزير الدفاع بيت هيغسِث ومسؤولون آخرون علنا على أن على الشركة قبول "كل الاستخدامات القانونية" لـ"Claude"، وهددوا باتخاذ إجراءات عقابية إذا لم تمتثل "Anthropic".

تطوّر "Anthropic" روبوت الدردشة "Claude"، وهي الوحيدة بين الشركات النظيرة التي لم تزوّد بعد شبكة عسكرية داخلية أميركية جديدة بتقنيتها.

وكانت "Anthropic" قد فازت في تموز/يوليو الماضي بعقد قيمته 200 مليون دولار (167 مليون يورو) مع وزارة الدفاع الأميركية لـ"نمذجة قدرات ذكاء اصطناعي متقدمة من شأنها تعزيز الأمن القومي الأميركي"، على ما ذكرت الشركة.

ووقّعت الشركة في عام 2024 شراكة مع "Palantir Technologies" (المصدر باللغة الإنجليزية)target="_blank" rel="noopener noreferrer nofollow" href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" tooltip="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/"> لدمج "Claude" في برامج الاستخبارات والدفاع الأميركية.

انتقل إلى اختصارات الوصول
شارك محادثة

مواضيع إضافية

شركة برمجيات فرنسية تطلق مرافقين افتراضيين بالذكاء الاصطناعي لمساعدة المهندسين

أستراليا تعتمد قيود عمرية لروبوتات الدردشة وألعاب البالغين ومحركات البحث

هل ينجح إنشاء منصة تواصل اجتماعي أوروبية مموَّلة من دافعي الضرائب؟