رسميًا | البنتاجون يصنف شركة Anthropic خطرًا على سلاسل التوريد

رسميًا | البنتاجون يصنف شركة Anthropic خطرًا على سلاسل التوريد

اتخذت وزارة الدفاع الأميركية قرارًا رسميًا بتصنيف شركة Anthropic ضمن قائمة مخاطر سلسلة التوريد. هذه الخطوة تصعيدية جاءت بعد أسابيع من الخلافات الحادة بين الطرفين حول شروط استخدام تقنيات الذكاء الاصطناعي داخل المؤسسات العسكرية، حيث ترفض Anthropic استخدام أدواتها في تطوير أسلحة ذاتية أو برامج مراقبة جماعية، بينما تؤكد الحكومة الأميركية أن هذه القيود تمنح شركة خاصة قدرًا كبيرًا من التحكم في كيفية استخدام أدوات الذكاء الاصطناعي.

يعني هذا التصنيف عمليًا منع الشركات المتعاقدة مع وزارة الدفاع من استخدام نظام Claude داخل منتجاتها أو أنظمة تقدم للحكومة، مما يعرض عقود هذه الشركات للإلغاء. تؤكد شركة Anthropic أن الإجراء الذي اتخذته الوزارة يفتقر إلى الأساس القانوني، وتعلن استعدادها للطعن فيه أمام القضاء الأميركي.

جاء هذا القرار بعد مفاوضات طويلة لم تصل إلى اتفاق، ترافقت مع تصريحات من وزير الحرب الأميركي بيت هيجسيث الذي أعلن سابقًا عن التفكير في تصنيف الشركة كمخاطر محتملة. حدد البيت الأبيض مهلة زمنية مدتها ستة أشهر لإزالة أنظمة Claude من البنية التقنية للحكومة، وهو أمر قد يكون معقدًا للغاية نظرًا لاعتماد القطاع العسكري بشكل متزايد على أدوات الذكاء الاصطناعي في تحليل المعلومات الاستخباراتية وتقييم البيانات.

تشير تقارير إلى أن أدوات تحليل استخباراتية تعتمد على Claude لعبت دورًا مهمًا في العمليات العسكرية الأميركية الأخيرة، بما في ذلك الضربة الصاروخية التي استهدفت المرشد الأعلى الإيراني علي خامنئي. في هذا السياق، يهدد وزير الدفاع باستخدام هذا التصنيف حتى ضد الشركات التي تتعامل مع Anthropic في نشاطات تجارية خارجية، وهو ما يعتبره مسؤولو الشركة تجاوزًا للقانون المنظم لعقود الدفاع. يُتوقع أن يتحول هذا النزاع إلى مواجهة قضائية رئيسية تحدد شكل العلاقة المستقبلية بين شركات الذكاء الاصطناعي والمؤسسات العسكرية في الولايات المتحدة.

إرسال التعليق

You May Have Missed