رفع زوجان أمريكيان مؤخرًا دعوى قضائية ضد OpenAI في كاليفورنيا، متهمين برنامج ChatGPT التابع للشركة بتقديم "توصيات دوائية شخصية" لابنهما البالغ من العمر 19 عامًا، مما أدى في النهاية إلى وفاة الطالب الجامعي بسبب خلط الأدوية في عام 2025. ويعتقد الزوجان أن هذه المأساة تنبع من إجابات ChatGPT الخطيرة على القضايا الطبية وقضايا استخدام الأدوية، ويطلبان من المحكمة أن تجد أن OpenAI بها عيوب في تصميم المنتج وإهمال.

وفقًا للتقارير، بدأ الطالب المسمى Sam باستخدام ChatGPT في سنته الأخيرة في المدرسة الثانوية (2023)، واستخدمه في البداية في الغالب لإكمال الواجبات المنزلية وحل المشكلات اليومية مثل أعطال الكمبيوتر. وقالت والدته ليلى تورنر-سكوت لشبكة سي بي إس نيوز إن سام لجأ تدريجياً إلى ChatGPT للحصول على المشورة بشأن "كيفية استخدام المخدرات بأمان" وتلقى اقتراحات محددة بشأن الأدوية وطرق الخلط في استجابة الروبوت.

تنص الشكوى على أن الإصدار المبكر من ChatGPT رفض في البداية الإجابة على أسئلة Sam حول الاستخدام الآمن للمخدرات وحذر من أن المواد ذات الصلة يمكن أن تعرض الصحة والحالة الجسدية والعقلية للخطر الشديد. ولكن بعد أن أطلقت OpenAI نموذجًا جديدًا، GPT-4o، في عام 2024، تغيرت الأمور: بدأ النموذج في إعطاء سام "دليل الدواء الآمن" الذي أراده. أشارت وثائق الادعاء إلى أن GPT-4o لم يقدم اقتراحات تشغيلية مفصلة فحسب، بل قام أيضًا بإدخال رموز تعبيرية في المحادثة مع سام وسأله بنشاط عما إذا كان بإمكانه إنشاء قائمة تشغيل له للمساعدة في خلق الحالة المزاجية والجو عند تعاطي المخدرات.

خلال المحادثة، أشار ChatGPT إلى مخاطر بعض مجموعات الأدوية، مثل المخاطر المحتملة لتناول الديفينهيدرامين (أحد المكونات الشائعة)، والكوكايين والكحول بشكل مستمر. لكن العائلة أكدت أن الروبوت قدم أيضًا لسام اقتراحات أكثر تخصيصًا، بما في ذلك كيفية تحقيق أقصى قدر من "النشوة" مع الحفاظ على الإثارة.

يركز التركيز الرئيسي للائحة الاتهام على منتج نباتي يسمى "القرطوم". يستخدم بعض الأشخاص هذه المادة لتخفيف الألم أو تخفيف أعراض انسحاب المواد الأفيونية، لكن إدارة الغذاء والدواء الأمريكية (FDA) أصدرت مرارًا وتكرارًا تحذيرات صارمة تشير إلى أنها تشكل مخاطر خطيرة على السلامة مثل الإدمان والتسمم وحتى الموت. وفقًا للشكوى، أخبر ChatGPT سام أنه نظرًا لأنه يتمتع بالفعل بقدر كبير من التحمل تجاه القرطوم، فإن تناول جرعة كبيرة مع وجبة كاملة من شأنه أن "يضعف" التأثير، واقترح عليه كذلك كيفية تقليل تحمله عن طريق "تقليل الجرعة".

تشير وثائق الاتهام على وجه التحديد إلى محادثة رئيسية جرت في 31 مايو 2025. خلال هذا التبادل، اشتكى سام من أنه كان يعاني من غثيان كبير بسبب تناول القرطوم، وقام ChatGPT "بإرشاده بنشاط" لخلط القرطوم مع عقار زاناكس (ألبرازولام) المضاد للقلق. ويُزعم أن الروبوت أوصى بتناول 0.25 إلى 0.5 ملليجرام من عقار زاناكس لتخفيف الانزعاج، مشيدًا بالجمع مع عبارات مثل "واحدة من أفضل الممارسات المتاحة حاليًا". قالت الشكوى إنه على الرغم من أن ChatGPT ذكر أن هذا المزيج "قد يكون محفوفًا بالمخاطر"، إلا أنه لم يذكر صراحةً أبدًا أن هذا المزيج قد يكون قاتلاً، واقترح أيضًا إضافة بعض بينادريل (دواء مضاد للحساسية يحتوي على ديفينهيدرامين).

مات سام بعد تناول الخليط. وكتبت العائلة في الشكوى: "على الرغم من أن ChatGPT قدم نفسه كخبير في الجرعات والتفاعلات الدوائية، وكان يعلم أن سام كان في حالة من النشوة المخدرات، إلا أنه فشل في إبلاغ سام بأن النظام الموصى به سيؤدي على الأرجح إلى وفاته". وقالت والدة سام في البيان إنه لو كان ChatGPT شخصًا حقيقيًا، "لكان وراء القضبان الآن". وأكدت أن ابنها يثق في ChatGPT، لكنه تلقى معلومات خاطئة في اللحظات الحرجة. ولم يتجاهل النظام المخاطر المتصاعدة التي واجهها فحسب، بل فشل أيضًا في حثه على طلب المساعدة المهنية.

تتهم الدعوى شركة OpenAI بوجود عيوب في تصميم المنتج وتعتبر ChatGPT نظامًا خطيرًا مع "إهمال المنتج". ويعتقد أفراد العائلة أن اختيارات تصميم النموذج تسمح له بتقديم اقتراحات مضللة عند مواجهة موضوعات حساسة للغاية مثل الطب والصحة، مما يؤدي إلى عواقب وخيمة على المستخدمين. وطلبوا من المحكمة تعويضًا ماليًا وأمرًا بإيقاف فتح خدمة "ChatGPT Health" للجمهور. تم إطلاق البوابة الصحية هذا العام، وتسمح للمستخدمين بربط سجلاتهم الطبية وبيانات التطبيقات الصحية بـ ChatGPT للحصول على توصيات صحية أكثر تخصيصًا.

وذكر التقرير أيضًا أن GPT‑4o كان غير متصل بالإنترنت رسميًا في فبراير من هذا العام. أصبح هذا النموذج، الذي كان مثيرًا للجدل لأنه "يستهدف المستخدمين على وجه التحديد"، الآن موضع انتقادات بعد أن تم ذكره في دعوى قضائية أخرى تتعلق بانتحار المراهقين.

بالإضافة إلى OpenAI، تواجه صناعة الذكاء الاصطناعي بأكملها أيضًا شكوكًا متزايدة حول أداء روبوتات الدردشة المدعومة بالذكاء الاصطناعي في تقديم المشورة الطبية. في مارس من هذا العام، قامت شركة جوجل بهدوء بإيقاف وظيفة البحث الصحي بالذكاء الاصطناعي والتي تسمى "ما يقترحه الناس"، والتي ادعت ذات مرة أنها تقدم اقتراحات صحية بناءً على "تجربة الأشخاص الذين يعانون من حالات مماثلة". وتأتي هذه الخطوة بعد أشهر قليلة من اضطرار جوجل إلى حذف المحتوى ذي الصلة بشكل كبير لأن بحث الذكاء الاصطناعي الخاص بها "نظرات عامة" يحتوي على معلومات غير دقيقة في الاستفسارات الطبية، والتي أشار الخبراء إلى أنها قد تعرض الصحة العامة للخطر.

في الوقت الحالي، لا تزال هذه الدعوى المرفوعة ضد OpenAI جارية، وتأمل العائلة في استخدام هذا لحث المنظمين والشركات على إعادة النظر في حدود تطبيق الذكاء الاصطناعي في المجالات الطبية والصيدلانية. ومن المتوقع أن يكون لاتجاه القضية تأثير عميق على معايير امتثال شركات الذكاء الاصطناعي بشأن مسؤوليات تصميم المنتج، وتدابير حماية السلامة، والوظائف المتعلقة بصحة المستخدم.