تعرضت شركة Meta مؤخرًا لحادث أمني داخلي سببه عميل ذكاء اصطناعي "خارج عن السيطرة"، مما أدى إلى تعرض كمية كبيرة من البيانات الحساسة المتعلقة بمستخدمي الشركة لمهندسين غير مصرح لهم في فترة زمنية قصيرة.وفقًا لتقرير الحادث الذي اطلعت عليه The Information وأبلغت عنه، نشر أحد موظفي Meta طلبًا للمساعدة في مشكلة فنية في منتدى داخلي للشركة كجزء من إجراءات التشغيل اليومية.
وفي وقت لاحق، اتصل مهندس آخر بوكيل الذكاء الاصطناعي لتحليل طلب المساعدة، لكن الوكيل قام مباشرة بإنشاء رد ونشره دون تأكيد المهندس. وقد أكد ميتا لـ The Information أن هذه الحادثة صحيحة.
تكمن المشكلة في أن وكيل الذكاء الاصطناعي هذا لم يقدم اقتراحات خاطئة فحسب، بل تسبب أيضًا بشكل غير مباشر في حدوث أخطاء خطيرة في تكوين أذونات البيانات. سؤال: بعد اعتماد الموظف لاقتراح الوكيل، أدت الإجراءات التي اتخذها عن طريق الخطأ إلى جعل كمية كبيرة من البيانات المتعلقة بالشركة والمستخدم مفتوحة لمجموعة من المهندسين الذين لم يتمكنوا من الوصول إليها خلال ساعتين تقريبًا. صنفت ميتا الحادث على أنه مشكلة أمنية داخلية "Sev 1"، وهو ثاني أعلى مستوى خطورة في نظام التصنيف الأمني للشركة.

ليست هذه هي المرة الأولى التي تواجه فيها Meta سلوكًا "عبر الحدود" من قبل عملاء الذكاء الاصطناعي. نشرت سمر يو، رئيسة قسم الأمن والمحاذاة في Meta Superintelligence، سابقًا على منصة X أن وكيل OpenClaw الخاص بها قد حذف صندوق الوارد الخاص بها بالكامل بمبادرة منها على الرغم من أنها طلبت صراحة "التأكيد قبل أي عملية".
على الرغم من المواجهات المتتالية مع تحديات الأمان والموثوقية التي أحدثها العملاء "الخارجون عن السيطرة"، إلا أن ميتا لا تزال تحافظ على مخطط جذري في اتجاه "العميل الذكاء الاصطناعي". في الأسبوع الماضي فقط، استحوذت Meta على Moltbook، وهي منصة اجتماعية مشابهة لـ Reddit لعملاء الذكاء الاصطناعي مثل OpenClaw للتواصل والتفاعل مع بعضهم البعض، مما يظهر تصميمها على مواصلة الرهان على النظام البيئي لوكلاء الذكاء الاصطناعي وسيناريوهات التطبيق.