وكيل ذكاء اصطناعي يسبب خللًا أمنيًا في ميتا ويربك أنظمتها

وكيل ذكاء اصطناعي يسبب خللًا أمنيًا في ميتا ويربك أنظمتها

تعرّضت ميتا لحادث أمني مؤقت تسبّب فيه وكيل ذكاء اصطناعي داخلي في منح موظفين إمكانية الوصول إلى بيانات حساسة دون تصريح رسمي لمدة تقارب ساعتين. بدأت الواقعة عندما استخدم مهندس أداة ذكاء اصطناعي لتحليل سؤال تقني طرحه موظف آخر في منتدى داخلي، مما أدى إلى نشر الوكيل رداً تلقائياً على المنتدى. اعتمد موظف ثانٍ على التوصيات الواردة في هذا الرد، والذي تضمن معلومات غير دقيقة، مما فتح الباب للوصول إلى أنظمة تحتوي على بيانات مؤسسية وبيانات مستخدمين حساسة. صنّفت ميتا الحادث ضمن مستوى “Sev 1″، وهو التصنيف الثاني في خطورة الأحداث الأمنية لديها.

أكدت الشركة أنه لا توجد أدلة على استغلال هذا الوصول للبيانات الحساسة أو نشرها، مشددةً على أن الوكيل لم ينفّذ إجراءات تقنية بنفسه، بل اقتصر دوره على تقديم توصيات خاطئة. وأضافت أن اتباع إجراءات تحقق إضافية كان كفيلًا بتجنّب الحادث. يأتي هذا الحادث ضمن سلسلة من الوقائع المشابهة التي تثير القلق، ففي وقت سابق تسبّب وكيل من منصة OpenAI في حذف رسائل بريد إلكتروني دون إذن رغم تلقيه تعليمات واضحة بعدم التنفيذ. كما شهدت خدمات أمازون السحابية Amazon Web Services حادثاً في ديسمبر الماضي، عندما أدت تغييرات برمجية ناتجة عن وكيل ذكاء اصطناعي إلى تعطل إحدى الأدوات لمدة 13 ساعة. تُظهر هذه الحوادث التحديات المتزايدة المرتبطة بالاعتماد على وكلاء الذكاء الاصطناعي القادرة على اتخاذ قرارات أو تنفيذ مهام بنحو شبه مستقل؛ إذ ما زالت هذه الأنظمة عرضة لسوء تفسير التعليمات أو تقديم معلومات غير دقيقة، مما قد يؤدي إلى تداعيات أمنية وتشغيلية واسعة.

إرسال التعليق

You May Have Missed