تضغط حكومة المملكة المتحدة على شركات مثل OpenAI، وAnthropic، وGoogle لشرح طريقة العمل الداخلية لنماذجها اللغوية الكبيرة (LLMs). في حين أن رمز بعض النماذج يكون عامًا، فإن نماذج مثل GPT-3.5 وGPT-4 ليست كذلك، وتتردد OpenAI جدًا في مشاركة العديد من التفاصيل.

تستعد المملكة المتحدة لاستضافة قمة عالمية جديدة للذكاء الاصطناعي، والتي ستجمع الحكومات والشركات والباحثين لدراسة المخاطر التي يشكلها الذكاء الاصطناعي ومناقشة كيفية الحد منها.

أحد أسباب عزوف الشركات عن مشاركة بياناتها الداخلية هو أن مثل هذا السلوك قد يكشف معلومات خاصة عن منتجاتها. إذا عرفت الجهات الفاعلة الخبيثة المزيد من المعلومات الداخلية، فيمكنها أيضًا جعل نماذج الذكاء الاصطناعي عرضة للهجمات الإلكترونية.

وفقًا لصحيفة فايننشال تايمز، فإن أحد الأشياء التي تريد الحكومة التحقق منها هو أوزان النماذج، والتي تحدد قوة الروابط بين الخلايا العصبية في طبقات مختلفة من النموذج. وفي الوقت الحالي، لا يُطلب من شركات الذكاء الاصطناعي مشاركة هذه التفاصيل، ولكن كانت هناك دعوات لمزيد من الشفافية في هذا الصدد.

ستعقد المملكة المتحدة قمتها الأولى في بلتشلي بارك في نوفمبر. يحتل بليتشلي بارك مكانة مهمة في تاريخ الحوسبة حيث تم هنا فك تشفير الرسائل النازية. تم تسمية اختبار تورينج المتعلق بالذكاء الاصطناعي على اسم آلان تورينج، الذي قام أيضًا بفك الرموز هناك.

وأشارت صحيفة فايننشال تايمز إلى أن شركات جوجل DeepMind وOpenAI وAnthropic اتفقت جميعها في يونيو على فتح نماذجها أمام الحكومة البريطانية لأغراض البحث والأمن. ولسوء الحظ، لم يتفق الطرفان على نطاق الافتتاح وتفاصيله الفنية في ذلك الوقت. أما الآن، فإن مستوى الانفتاح الذي تطلبه الحكومة مرتفع للغاية.

في نهاية المطاف، لكي تنجح القمة، يجب على الحاضرين أن يفهموا بشكل كامل كيفية عمل النماذج حتى يتمكنوا من فهم مخاطرها بشكل أفضل. ما إذا كان لديهم إمكانية الوصول الكافي إلى النماذج هو سؤال آخر.