في الساعات الأولى من صباح الأربعاء بتوقيت بكين، أصدرت شركة OpenAI، وهي شركة تكنولوجية أمريكية ناشئة، إعلانًا أعلنت فيه عن إطلاق عملية توظيف عالمية لأعضاء شبكة "الفريق الأحمر"، بهدف إدخال قوى خارجية للكشف عن العيوب والمخاطر في أنظمة الذكاء الاصطناعي مسبقًا. إن مفهوم ما يسمى بشبكة "الفريق الأحمر"، أو RedTeaming، يأتي من عمليات المحاكاة العسكرية.أي ابحث عن فريق من الأشخاص لمحاكاة "عدو" وهمي لاختبار مدى استعداد فريقك ("الفريق الأزرق").


(المصدر: OpenAI)

في مجال الذكاء الاصطناعي، تتمثل مهمة "الفريق الأحمر" في محاكاة المتسللين أو غيرهم من الأشخاص الذين يحتمل أن يكونوا خطرين في محاولة للعثور على نقاط الضعف في نماذج اللغات الكبيرة، وبالتالي منع الذكاء الاصطناعي من المساعدة في أغراض غير قانونية مثل تعريض الأمن الاجتماعي للخطر في المجتمع الحقيقي.

وقالت OpenAI إنه في السنوات القليلة الماضية، ساعد الخبراء في مجالات مختلفة في اختبار النماذج التي لم يتم إصدارها بعد. وتقوم الآن بإنشاء "قوة نظامية" لتجنيد عدد كبير من الأشخاص من مناطق مختلفة ولغات مختلفة ومجالات مهنية مختلفة وتجارب حياتية مختلفة لجعل نموذج الذكاء الاصطناعي أكثر أمانًا بشكل مشترك. على عكس الماضي، الذي لم يتم فيه سوى تعيين مجموعة من الأشخاص للاختبار المركزي قبل ظهور إصدار مهم على الإنترنت، فإن OpenAI ستمكن عددًا غير محدد من الأعضاء من إجراء الاختبار طوال دورة التطوير بأكملها بناءً على الطلب.

وفي الوقت نفسه، ستصبح شبكة "الفريق الأحمر" هذه أيضًا مكتبة الخبراء العالمية لـ OpenAI، وستوفر OpenAI أيضًا منصة للتواصل بين أعضاء "الفريق الأحمر". تسرد OpenAI أيضًا بعض اتجاهات الخبراء التي يأملون في توظيفها على موقعها الرسمي على الإنترنت، ولكنها تؤكد أيضًا على أنها لا تقتصر على هذه المجالات.

العلوم المعرفية: العلوم المعرفية

الكيمياء: الكيمياء

علم الأحياء: علم الأحياء

الفيزياء: الفيزياء

علوم الكمبيوتر: علوم الكمبيوتر

إخفاء المعلومات: إخفاء المعلومات

العلوم السياسية: العلوم السياسية

علم النفس: علم النفس

الإقناع : الإقناع

الاقتصاد: الاقتصاد

الأنثروبولوجيا: الأنثروبولوجيا

علم الاجتماع: علم الاجتماع

HCI (التفاعل بين الإنسان والحاسوب): التفاعل بين الإنسان والحاسوب

الإنصاف والتحيز: الإنصاف والتحيز

محاذاة: محاذاة الهدف

التعليم: التعليم

الرعاية الصحية: الرعاية الطبية

القانون: القانون

سلامة الطفل: سلامة الطفل

الأمن السيبراني: أمن الشبكات

المالية: المالية

معلومات خاطئة/معلومات مضللة:معلومات خاطئة/كاذبة

الاستخدام السياسي: التطبيق السياسي

الخصوصية: الخصوصية

القياسات الحيوية: القياسات الحيوية

اللغات واللغويات: اللغات واللغويات

بالمناسبة، ذكرت OpenAI أيضًا أنها ستدفع مكافآت للأعضاء الذين يشاركون في مشروع "الفريق الأحمر" (لكنها لم تحدد المبلغ الذي ستدفعه)، لكن OpenAI أكدت أيضًا أن المشاركة في مشروع "الفريق الأحمر" تتطلب عمومًا التوقيع على اتفاقية السرية، أو البقاء صامتًا لفترة زمنية غير محددة.

ذكرت OpenAI أن قناة التطبيق ستظل مفتوحة حتى الأول من ديسمبر من هذا العام. ستقوم الشركة بمراجعة الطلبات بشكل دوري وستقوم لاحقًا بتقييم ما إذا كانت هناك حاجة إلى مزيد من التوظيف المفتوح.

أعضاء "الفريق الأحمر" في OpenAI الذين صعدوا إلى المسرح

وكما ذكر OpenAI، فإن نظام "الفريق الأحمر" موجود منذ فترة طويلة، وقد تلقى العديد من الأعضاء بالفعل مقابلات عامة من وسائل الإعلام.

وفي مقال كاشف في صحيفة فايننشال تايمز في أبريل من هذا العام، قال أندرو وايت، أستاذ الهندسة الكيميائية في جامعة روتشستر في الولايات المتحدة، إنه شارك في اختبار "الفريق الأحمر" لـ GPT-4، وكان هدف هجومه هو استخدام ChatGPT لإنشاء سم عصبي جديد. قال وايت إنه استخدم وظيفة "المكونات الإضافية" لتغذية النموذج الكبير بأبحاث الكيمياء وكتالوجات الشركات المصنعة للمواد الكيميائية، حتى أن النموذج الكبير وجد له مكانًا يمكنه من خلاله إنتاج سمومه الافتراضي.

وقال وايت إن النماذج الكبيرة يمكن أن تساعد في النهاية العديد من الأشخاص على إجراء تجارب كيميائية بشكل أسرع وأكثر دقة، ولكن هناك أيضًا خطر كبير من أن بعض الأشخاص سيستخدمون الذكاء الاصطناعي لإجراء بعض التجارب الخطيرة.

بعد تلقي تعليقات من وايت، أجرت OpenAI تغييرات على النظام للتأكد من أنها لن تستجيب لأسئلة مماثلة. وبحسب وسائل الإعلام، هناك حوالي 10 أعضاء من "الفريق الأحمر" من خلفيات مختلفة - محامون ومدرسون وموظفون في مجال مراقبة المخاطر وباحثون أمنيون، وما إلى ذلك. ويوجد معظمهم في الولايات المتحدة وأوروبا. وكشفوا أنه في الأشهر التي سبقت إصدار GPT-4، أمضوا ما يقرب من 10 إلى 40 ساعة في اختبار النموذج، وحصلوا على أجر حوالي 100 دولار في الساعة.