وكيل ذكاء اصطناعي يتسبب في خلل أمني مضطرب بأنظمة ميتا
حدث خلل أمني في شركة ميتا نتيجة استخدام وكيل ذكاء اصطناعي داخلي، مما أدى إلى تمكين بعض الموظفين من الوصول إلى بيانات حساسة دون تصريح لقرابة ساعتين. ووقعت الحادثة بعد نشر رد تقني غير معروف المصدر داخل نظام الشركة. وقد طمأنت ميتا أن هذه الواقعة لم تترتب عليها أي إساءة استخدام للبيانات أو تسريبات خاصة بالمستخدمين.
الأمر بدأ عندما قام أحد المهندسين بالشركة باستخدام أداة ذكاء اصطناعي لتحليل استفسار تقني طرحه موظف آخر في منتدى داخلي. وبشكل غير مصرح به، نشر الوكيل ردود أفعال متعلقة بالاستفسار على المنتدى، وذُكر بوضوح أنه تم توليد الرد عبر تقنية الذكاء الاصطناعي.
وعقب ذلك، استند موظف ثانٍ إلى التوصيات غير الدقيقة الواردة في الرد، مما أدى إلى سلسلة من التفاعلات التي فتحت المجال للوصول إلى أنظمة تحتوي على بيانات مؤسسية وبيانات حساسة للمستخدمين. وقد صنّفت ميتا الحادث ضمن مستوى Sev 1، وهو عبارة عن التصنيف الثاني في سلم المخاطر الأمنية بالشركة.
أكدت ميتا أنه لا توجد أي دلائل على استغلال الوصول إلى هذه البيانات الحساسة أو تكوين أي نشر بها، موضحةً أن دور الوكيل اقتصر على تقديم توصيات خاطئة دون تنفيذ إجراءات تقنية مباشرة. كما أضافت الشركة أن اتباع إجراءات تحقق إضافية كان بإمكانه منع حدوث هذا الاختراق.
تكرار الحوادث يثير المخاوف
تتكرر مثل هذه الحوادث في ميتا وغيرها من الشركات الكبرى. فقد شهدت الشركة حادثة مماثلة سابقًا، حيث قام وكيل من منصة OpenClaw بحذف رسائل إلكترونية دون الحصول على إذن، بالرغم من تلقيه تعليمات بعدم القيام بذلك. كما تسبب وكيل ذكاء اصطناعي في شركة أمازون السحابية Amazon Web Services في تعطل إحدى الأدوات لمدة 13 ساعة بسبب تغييرات برمجية غير مصرح بها.
تسلط هذه الحوادث الضوء على التحديات المستمرة المرتبطة باستخدام وكلاء الذكاء الاصطناعي، القادرين على اتخاذ قرارات أو تنفيذ مهام بشكل شبه مستقل. إذ تبين هذه الأحداث أن هذه الأنظمة ما زالت عرضة لسوء تفسير التعليمات أو تقديم معلومات غير دقيقة، مما يعرض المشغلين لعواقب أمنية وتشغيلية قد تكون خطيرة.







