في دعوى قضائية فيدرالية ضد شركة OpenAI في الولايات المتحدة، اعترف إيلون موسك في شهادته بأن شركة الذكاء الاصطناعي xAI التي أسسها استخدمت نموذج OpenAI لتدريب برنامج الدردشة الآلي Grok من خلال ما يسمى تكنولوجيا "التقطير"، مما دفع مرة أخرى هذه الممارسة الضمنية في الصناعة إلى دائرة الضوء.

في الآونة الأخيرة، انتقدت OpenAI وAnthropic الأطراف الثالثة لتدريبها على سلوك النماذج الجديدة من خلال الاستجواب المكثف لروبوتات الدردشة وواجهات برمجة التطبيقات التي يمكن الوصول إليها بشكل عام، وهي عملية تُعرف في الصناعة باسم "التقطير". وفي الأشهر القليلة الماضية، تركز اهتمام الرأي العام على بعض الشركات الصينية. لقد تم اتهامهم بإنشاء نماذج ترجيح مفتوحة المصدر من خلال التقطير. وتقترب قدرات هذه النماذج من قدرات المنتجات الأمريكية المتطورة، لكن من الممكن تقديمها للعالم الخارجي بتكلفة أقل. ومع ذلك، داخل دائرة التكنولوجيا، يعتقد العديد من الممارسين منذ فترة طويلة أن المختبرات المتطورة في الولايات المتحدة ستستخدم أيضًا أساليب مماثلة لتجنب التخلف عن المنافسة.

وقد تم الآن تأكيد هذه التكهنات في حالة واحدة على الأقل. وعندما سُئل ماسك خلال شهادة يوم الخميس أمام المحكمة الفيدرالية في كاليفورنيا عما إذا كانت تقنية xAI استخدمت تقنية التقطير لتدريب Grok استنادًا إلى نماذج OpenAI، قال ماسك إنها "ممارسة شائعة بين شركات الذكاء الاصطناعي". وعندما سأل الطرف الآخر عما إذا كان يمكن فهم ذلك على أنه "نعم"، كانت إجابته "نعم جزئيًا".

يقاضي Musk حاليًا شركة OpenAI، وكذلك الرئيس التنفيذي للشركة Sam Altman والمؤسس المشارك Greg Brockman، بدعوى أنهم انتهكوا مهمة OpenAI الأصلية غير الربحية من خلال تحويلها من منظمة غير ربحية إلى هيكل ربحي. تبدأ المحاكمة هذا الأسبوع، حيث أصبحت شهادة " ماسك " واحدة من الأحداث الدرامية المركزية.

يعد اعتراف ماسك مهمًا لأن تكنولوجيا التقطير يُنظر إليها على أنها تهديد للمزايا الأساسية لشركات الذكاء الاصطناعي الكبيرة: تستثمر هذه الشركات مبالغ ضخمة من المال في بناء البنية التحتية للحوسبة في محاولة للبقاء في المقدمة عبر حواجز الحجم، في حين أن التقطير قد يسمح لمطوري البرامج الآخرين بتدريب نماذج "ليست بعيدة" في القدرات بتكلفة أقل بكثير من التكلفة الأصلية. على هذه الخلفية، ليس هناك نقص في السخرية في الصناعة - من أجل الحصول على ما يكفي من بيانات التدريب، قامت Frontier Labs نفسها باختبار حدود حقوق الطبع والنشر مرارًا وتكرارًا، حتى أنها اتُهمت بـ "تجاوز الحدود"، ولكن يتعين عليهم الآن مقاومة الآخرين من استخدام واجهات الامتثال "للتعلم بعيدًا" عن نماذجهم.

انطلاقًا من الجدول الزمني، تم تأسيس xAI في عام 2023، أي بعد عدة سنوات من تأسيس OpenAI، لذلك ليس من المستغرب أنها حاولت "التعلم" من الشركة الرائدة في الصناعة في ذلك الوقت. ومن غير الواضح ما إذا كان التقطير يشكل انتهاكا واضحا للقانون. قد تأتي قيود أكثر واقعية من شروط الخدمة التي تحددها كل شركة لاستخدام المنتجات - غالبًا ما يُنظر إلى التقطير على أنه انتهاك لهذه الشروط، ولا يمس بالضرورة القانون التشريعي نفسه.

في مواجهة المخاوف بشأن "السرقة الأدبية" النموذجية من الصين، أطلقت OpenAI وAnthropic وGoogle عملاً مشتركًا من خلال "Frontier Model Forum" لمحاولة تبادل المعلومات الاستخبارية والاستجابة بشكل مشترك لمحاولات التقطير. ووفقا للتقارير، فإن عمليات التقطير هذه للنماذج الكبيرة غالبا ما تعتمد على استجواب آلي منهجي وواسع النطاق لاستنتاج "الأنماط السلوكية الداخلية" للنموذج. من أجل الحد من مثل هذا السلوك، تحاول Frontier Labs تحديد وحظر الدفعات المشبوهة والطلبات غير الطبيعية لمنع النموذج من "استنزاف جوهره". وحتى وقت كتابة المقالة، لم تستجب شركة OpenAI لطلب التعليق على شهادة ماسك.

في وقت لاحق من المحاكمة، سُئل " ماسك " عن تصريح رفيع المستوى أدلى به في الصيف الماضي: أن تقنية xAI ستتفوق قريبًا على جميع الشركات باستثناء Google من حيث القدرات. وأجرى تصنيفا ذاتيا لكبار مزودي الذكاء الاصطناعي في العالم في المحكمة، قائلا إن الأنثروبيك تحتل حاليا المرتبة الأولى، تليها OpenAI وجوجل، في حين أن النماذج مفتوحة المصدر في الصين تحتل المرتبة الثانية. وبالمقارنة، وصف شركة xAI بأنها شركة أصغر بكثير، تضم حاليًا بضع مئات فقط من الموظفين.