أصدرت سلطات الأمن السيبراني في الولايات المتحدة وحلفائها مؤخرًا مبادئ توجيهية مشتركة للنشر الأمني ​​لـ "وكيل الذكاء الاصطناعي"، مؤكدة أن أنظمة الذكاء الاصطناعي التي يمكنها العمل بشكل مستقل على الإنترنت قد دخلت مجالات حساسة للغاية مثل البنية التحتية الحيوية والدفاع، لكن معظم المنظمات تمنحها حقوق الوصول التي تتجاوز بكثير قدرات المراقبة والتحكم الخاصة بها. وتدعو الوثيقة مختلف المنظمات إلى اعتبار عوامل الذكاء الاصطناعي المستقلة بمثابة قضايا أساسية للأمن السيبراني وإعطاء الأولوية للمرونة والعكس واحتواء المخاطر بدلاً من مجرد متابعة تحسينات الكفاءة.

تحميل النص كاملا:

https://cyberscoop.com/wp-content/uploads/sites/3/2026/05/CAREFUL-ADOPTION-OF-AGENTIC-AI-SERVICES_FINAL.pdf

تمت كتابة التوجيه بشكل مشترك من قبل وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية (CISA)، ووكالة الأمن القومي (NSA)، ومركز الأمن السيبراني الأسترالي التابع لوكالة الإشارات الأسترالية، ومركز الأمن السيبراني الكندي، والمركز الوطني النيوزيلندي للأمن السيبراني والمركز الوطني للأمن السيبراني البريطاني، وتم إصداره يوم الجمعة بالتوقيت المحلي. "وكيل الذكاء الاصطناعي" الذي يركز عليه الدليل هو نظام برمجي مبني على نموذج لغوي كبير لديه القدرة على التخطيط واتخاذ القرارات وتنفيذ الإجراءات بشكل مستقل ضمن السلطة القائمة. لإكمال المهام المعقدة، غالبًا ما تحتاج هذه الأنظمة إلى التفاعل مع الأدوات الخارجية وقواعد البيانات ومستودعات الذاكرة وسير العمل الآلي لتنفيذ مهام متعددة الخطوات دون مراجعة يدوية لكل خطوة.

وشددت وكالات الإصدار المشتركة في الوثيقة على أن نشر عامل الذكاء الاصطناعي لا يعني أنه يجب إعادة بناء نظام أمني كامل، ولكن يجب دمجه في إطار أمان الشبكة الحالي وهيكل الإدارة. تتضمن الاقتراحات ما يلي: التطبيق المنهجي للمبادئ الحالية مثل انعدام الثقة وعمق الدفاع وأقل الامتيازات لعملاء الذكاء الاصطناعي؛ التعامل مع وكلاء الذكاء الاصطناعي باعتبارهم مكونات تقنية "حساسة للغاية وقوية" للحوكمة في جوانب مثل إدارة الهوية والوصول وسجلات التدقيق والتحكم في التغيير.

يلخص التوجيه المخاطر المرتبطة بالذكاء الاصطناعي المعتمد على الوكيل في خمس فئات واسعة. الأول هو "مخاطر الأذونات": بمجرد منح وكيل الذكاء الاصطناعي حقوق وصول عالية جدًا أو واسعة جدًا، فإن الاقتحام الناجح قد يتسبب في أضرار تتجاوز بكثير نقاط ضعف البرامج التقليدية، مثل التلاعب المركزي بالتكوينات المهمة أو تعطيل الشركات واسعة النطاق. الفئة الثانية هي مخاطر عيوب التصميم والتكوين، أي أنه قبل اتصال النظام بالإنترنت، بسبب التصميم المعماري غير المناسب، أو التكوين الافتراضي الفضفاض للغاية، أو التعريف الغامض لحدود الأمان، هناك ثغرات أمنية متأصلة يصعب تعويضها.

يتم تصنيف النوع الثالث من المخاطر على أنه "المخاطر السلوكية"، والتي تشير إلى حقيقة أنه في السعي لتحقيق الأهداف، قد يتخذ الوكلاء مسارات لم يتوقعها المصممون، أو حتى لم يتصوروها أبدًا، مما يؤدي إلى وقوع حوادث أمنية أو امتثال. الفئة الرابعة هي "المخاطر الهيكلية". عندما يتشابك وكلاء متعددون مع أنظمة أعمال معقدة في شبكة، فقد يتسلسل خطأ أو سلوك غير طبيعي وينتشر داخل النظام، مما يؤدي إلى تفاعل متسلسل عبر الأنظمة والأقسام.

ويتعلق النوع الخامس من المخاطر بـ "المساءلة". يشير الدليل إلى أن عملية اتخاذ القرار الخاصة بالذكاء الاصطناعي غالبًا ما يكون من الصعب فحصها بشكل كامل، وليس من السهل تحليل سجلات العمليات وسجلات القرارات التي تولدها، مما يجعل من الصعب للغاية تتبع السبب الجذري للمشكلة وتوضيح المسؤوليات بعد ذلك. وبمجرد حدوث فشل في مثل هذا النظام، فإن العواقب لن تبقى على "المستوى الافتراضي"، ولكنها ستنعكس في أصول محددة لتكنولوجيا المعلومات، مثل التلاعب بالملفات، وتغيير ضوابط الوصول، وحذف مسارات التدقيق، وما إلى ذلك، مما يؤثر بشكل مباشر على جمع الأدلة وأعمال الاسترداد.

وتحذر الوثيقة أيضًا على وجه التحديد من مخاطر الهجمات الناجمة عن "الحقن الفوري". يمكن للمهاجمين تضمين تعليمات بهدوء في البيانات أو المحتوى لتوجيه وكيل الذكاء الاصطناعي للانحراف عن مهمته الأصلية وتنفيذ عمليات ضارة. لطالما اعتبر حقن التلميح مرضًا مزمنًا في النظام البيئي لنماذج اللغة الكبيرة. وقد اعترفت بعض الشركات علناً بأن هذه المشكلة قد لا يتم القضاء عليها بالكامل لفترة طويلة. وهذا أيضًا يجعل الضرر المحتمل لهذا النوع من الهجمات بارزًا بشكل خاص في سيناريوهات الوكيل الأكثر آلية.

وعلى مستوى تدابير الحماية المحددة، تحتل إدارة الهوية مكانة مهمة في جميع أنحاء الدليل. توصي الوكالة المشتركة بأن يكون لدى كل وكيل للذكاء الاصطناعي هوية مستقلة يمكن التحقق منها ومحمية بالتشفير؛ يجب أن تكون بيانات الاعتماد التي يستخدمها صالحة لفترة قصيرة من الزمن؛ يجب أن تستخدم جميع الاتصالات بين الوكيل والوكلاء والخدمات الأخرى القنوات المشفرة. وبالنسبة لأي عملية قد يكون لها تأثير كبير، مثل تعديل التكوينات الحرجة، أو رفع امتيازات المستخدم، أو حذف البيانات واسعة النطاق، فإن المبادئ التوجيهية تتطلب بوضوح أن الموافقة يجب أن تتم من قبل البشر، وأن مصمم النظام، وليس الوكيل نفسه، هو الذي يحدد العمليات التي تعتبر "سلوكيات عالية التأثير".

وفي الوقت نفسه، اعترفت الوكالة المصدرة أيضًا بأن ممارسات صناعة الأمن الحالية لم تواكب بشكل كامل سرعة تطوير الذكاء الاصطناعي القائم على الوكيل. لم تتم تغطية بعض المخاطر ذات "خصائص وكيل الذكاء الاصطناعي" بشكل كامل من خلال الإطار الأمني ​​الحالي، وهناك حاجة ماسة إلى المزيد من البحث والتعاون بين الوكالات وعبر الصناعات. يشير الدليل إلى أنه قبل أن تصبح منهجيات الأمان وطرق التقييم والمعايير ذات الصلة غير ناضجة، يجب على المؤسسات أن تفترض أن وكيل الذكاء الاصطناعي "قد يظهر سلوكيات غير متوقعة" وأن يضع خطط النشر وفقًا لذلك، مع إعطاء الأولوية لضمان المرونة وقابلية الرجوع والتحكم في المخاطر في تصميم النظام، بدلاً من السعي بشكل أعمى إلى تحقيق مكاسب الكفاءة التي تجلبها الأتمتة.