أثناء محاكمة الدعوى القضائية التي رفعها إيلون ماسك ضد سام ألتمان وOpenAI، قالت ميرا موراتي، مديرة التكنولوجيا السابقة في OpenAI، في شهادة مسجلة بالفيديو إنها لا تستطيع الوثوق بالتصريحات الشفهية للرئيس التنفيذي آنذاك سام ألتمان. وشهدت تحت القسم بأن ألتمان أدلى بتصريحات كاذبة لها بشأن عملية مراجعة السلامة لنموذج جديد.

قالت مولاتي في شهادتها إن ألتمان أخبرها أن الإدارة القانونية في OpenAI قررت أن نموذج الذكاء الاصطناعي الجديد لا يحتاج إلى تقديمه إلى مجلس سلامة النشر الداخلي للشركة للمراجعة. عندما سئل: "على حد علمك، هل يقول السيد ألتمان الحقيقة عندما يقول هذا؟" فأجابت بشكل لا لبس فيه: "لا".

وقالت مولاتي أيضًا إن سلوك ألتمان خلال فترة وجودها في OpenAI جعل عملها أكثر صعوبة، مؤكدة أن انتقاداتها كانت "تتعلق بالإدارة بالكامل". قالت إنها كانت مسؤولة عن مهمة صعبة للغاية في منظمة معقدة للغاية. "كنت أطلب من سام أن يقود، وأن يقود بطريقة واضحة، دون تقويض قدرتي على القيام بعملي."

إحدى الحالات المحددة التي اختلفت فيها مع ألتمان كانت العملية الأمنية المحيطة بنموذج GPT معين. بعد سماع ما قاله ألتمان، تحدث مولاتي على وجه التحديد مع جيسون كوون، الذي انضم إلى OpenAI في عام 2021 كمستشار عام في ذلك الوقت وهو الآن كبير مسؤولي الإستراتيجية. وقالت إن هناك "عدم تطابق" بين تصريحات كوون وألتمان، وأكدت أن "ما قاله جيسون وما قاله سام ليسا نفس الشيء". ومن باب الحذر الشديد، حرصت في النهاية على تقديم النموذج إلى لجنة السلامة للمراجعة.

هذه ليست المرة الأولى التي يتهم فيها ألتمان بالكذب. كتب إيليا سوتسكيفر، المؤسس المشارك لشركة OpenAI، سابقًا في مذكرة من 52 صفحة إلى مجلس الإدارة أن ألتمان "يظهر نمطًا مستمرًا من الكذب الذي يقوض مديريه التنفيذيين ويضع المديرين التنفيذيين ضد بعضهم البعض". وقد قرأ هذا في رواية أخرى.

قدمت شهادة مولاتي، التي ظهرت أثناء التحديث المباشر لقضية Musk v. Altman، نافذة نادرة على الخلافات داخل كبار المسؤولين في OpenAI حول الحوكمة الأمنية وأساليب الإدارة. مع ظهور المزيد من الشهادات ذات الصلة علنًا، فإن هذه الدعوى القضائية المحيطة بالاتجاه المستقبلي لشركة OpenAI وسلوك قيادتها تجذب انتباه الصناعة والهيئات التنظيمية إلى عمليات صنع القرار الداخلي والسلامة لشركات الذكاء الاصطناعي الكبيرة.