في ربيع عام 2026، أصبح داريو أمودي فجأة مصدر إزعاج في وادي السيليكون. كاد هوانج رينكسون أن يسمي أمودي بشكل مباشر، وانتقد بشدة هؤلاء الرؤساء التنفيذيين الذين يواصلون التنبؤ بأن الذكاء الاصطناعي سوف يقضي على الوظائف على نطاق واسع باعتبارهم يعانون من "عقدة الرب": بمجرد أن تصبح رئيسًا تنفيذيًا، فمن السهل أن تعتقد أنك تعرف كل شيء. وقال ألتمان إن أمودي كان يستخدم "الخوف" للتسويق، وقال يانغ ليكون ببساطة إنه لا يفهم كيف ستؤثر الثورة التكنولوجية على التوظيف.
حتى وسائل الإعلام بدأت تتساءل: لماذا لا يوقف رئيس الذكاء الاصطناعي الذي يستمر في التحذير من نهاية العالم نفسه؟
العمودي يسيء للناس بالطبع، ليس فقط لأن حسه الأخلاقي مرتفع للغاية وذكائه العاطفي منخفض للغاية.
الأمر الدقيق هو أنه كان يؤمن بمخاطر الذكاء الاصطناعي لفترة طويلة، وهو يحول هذا الاعتقاد إلى سلاح الأنثروبيك التجاري الأكثر حدة.
لم تعد هذه الشركة، التي تأسست بعد ترك OpenAI، مجرد فريق بحث تحت شعار "سلامة الذكاء الاصطناعي". أصبح Claude Code واحدًا من أقوى المنتجات في سوق الذكاء الاصطناعي للمؤسسات، حيث تصل إيراداته السنوية إلى مليارات الدولارات. والأمر الأكثر مبالغة هو أنه وفقًا لموقع Business Insider، تجاوزت قيمة Anthropic في السوق الثانوية الخاصة تريليون دولار أمريكي.
عندما يقف الشخص على أرض أخلاقية عالية ويذكر الجميع بالتباطؤ، وفي نفس الوقت يراهن في وسط الملعب، وتكبر الرهانات أكثر فأكثر، فمن الصعب عليه ألا يصبح هدفًا.
01
Public Enemy
أصبح العمودي الشخص الأكثر إزعاجًا في صناعة الذكاء الاصطناعي.
آخر شخص أطلق النار هو Huang Renxun.
في أحد البرامج الصوتية، دعا هوانغ رينكسون الرؤساء التنفيذيين للتكنولوجيا الذين توقعوا في كثير من الأحيان أن الذكاء الاصطناعي سوف يسبب بطالة على نطاق واسع، بل ويؤدي إلى خطر انقراض البشرية باعتبارهم يعانون من "عقدة الرب".
فكرته العامة هي أنه بمجرد أن تشغل منصب الرئيس التنفيذي، فمن السهل على الأشخاص أن يبدأوا في التفكير بأنهم يعرفون كل شيء. لكن المناقشة العامة حول الذكاء الاصطناعي يجب أن تعود إلى الحقائق، بدلا من أن تقودها روايات مبالغ فيها عن يوم القيامة.

لم يتم ذكر هذه الكلمات بالاسم، لكن من الصعب عدم التفكير في العمودي.
ليست هذه هي المرة الأولى التي يتم فيها استفزاز هوانغ رينكسون من خلال رواية أمودي حول مخاطر الذكاء الاصطناعي.
لقد دعمت Amodei دائمًا ضوابط أكثر صرامة لتصدير الرقائق، بل إنها كتبت مقالًا طويلًا يدعو إلى فرض قيود أقوى. وفي منتدى دافوس هذا العام، قارن تصدير رقائق الذكاء الاصطناعي المتقدمة إلى الصين بـ "بيع الأسلحة النووية".
بالطبع لن يقبل جين هسون هوانغ هذا البيان.
في بودكاست آخر، عندما سُئل هوانغ جين-هسون عن هذا التشبيه، قال مباشرة إنه "سخيف". وهو يعتقد أن مقارنة رقائق الذكاء الاصطناعي بالأسلحة النووية هو تشبيه سيئ وغير منطقي.
إذا كان الهجوم المضاد الذي قام به Huang Jen-Hsun يأتي من تضارب المصالح المباشر بين Nvidia و Anthropic بشأن سياسة الرقائق، فإن هجوم OpenAI يشبه إلى حد كبير المواجهة المباشرة بين المنافسين القدامى.
في محادثة بودكاست، قال ألترامان إن الأنثروبيك تستخدم "الخوف" للتسويق.
استخدم استعارة قاسية إلى حد ما: إنه مثل شخص يقول، لقد صنعنا قنبلة وسنسقطها على رأسك قريبًا، وبعد ذلك يمكننا أن نبيع لك ملجأ من القنابل مقابل 100 مليون دولار.
تشير هذه الجملة بوضوح إلى معاينة Claude Mythos التي أصدرتها Anthropic للتو. وفقًا لبيان Anthropic الخاص، فإن نموذج أمان الشبكة هذا قوي جدًا ولن يكون مفتوحًا للجمهور في الوقت الحالي. وبدلاً من ذلك، سيتم وضعها في مشروع يسمى "Wings of Glass" للقيام بأعمال أمنية دفاعية للمنظمات الشريكة.
هذا ليس "الهجوم" الوحيد من OpenAI. في 13 أبريل، كشفت The Verge عن مذكرة داخلية من أربع صفحات تم إرسالها إلى الموظفين من قبل دينيس دريسر، كبير مسؤولي الإيرادات في OpenAI. موضوع المذكرة هو كيفية الفوز بسوق الذكاء الاصطناعي للمؤسسات، ولكن هناك قسمًا مخصصًا لمناقشة الأنثروبولوجيا، والتي تكاد تفكك الخصم نقطة تلو الأخرى.
يكتب أن قصة Anthropic مبنية على "الخوف والقيود وفكرة أن قلة من النخبة يجب أن تتحكم في الذكاء الاصطناعي."
وقالت أيضًا إن شركة Anthropic اعتمدت كثيرًا على سيناريوهات التعليمات البرمجية ولم يكن لديها احتياطيات كافية من الطاقة الحاسوبية، وتساءلت عن بيان إيراداتها السنوية، قائلة إن Anthropic أدرجت تقاسم إيراداتها مع Amazon وGoogle على أساس إجمالي، مما أدى إلى المبالغة في تقدير إيراداتها السنوية البالغة 30 مليار دولار أمريكي بحوالي 8 مليارات دولار أمريكي.
Amodei وUltraman عدوان قديمان، وOpenAI وAnthropic منافسان مباشران؛ كما تأثرت أعمال الرقائق الخاصة بشركة Huang Renxun بشكل مباشر بمقترحات سياسة Amodei. يبدو أن هجومهم المضاد يسير على الطريق الصحيح.
لكن الأمر لم ينته بعد.
انتقد يان ليكون أيضًا Amodei علنًا على X. هذه المرة، ينشأ الجدل حول تأثير الذكاء الاصطناعي على التوظيف.
في مقابلة مع موقع Axios في عام 2025، قال أمودي إن الذكاء الاصطناعي قد يلغي نصف وظائف الياقات البيضاء على مستوى المبتدئين في غضون سنة إلى خمس سنوات مقبلة ويدفع معدل البطالة إلى ما بين 10٪ إلى 20٪. وقال أيضًا إن شركات الذكاء الاصطناعي والجهات التنظيمية لا يمكنها الاستمرار في التقليل من التأثير القادم.
ردا على حكم أمودي بشأن التوظيف، قال يانغ ليكون على قناة X: "داريو مخطئ" و"إنه لا يعرف شيئا عن كيفية تأثير الثورة التكنولوجية على سوق العمل". حتى أنه قال إن مثل هذه الأسئلة يجب أن يستمع إليها الاقتصاديون وليس أي شخص في دائرة الذكاء الاصطناعي، بما في ذلك يانغ ليكون نفسه.
حتى الرأي العام بدأ تساوره بعض الشكوك.
على سبيل المثال، تعليقات وسائل الإعلام المعروفة: تساءلت صحيفة التايمز عن سبب عدم توقف عملاق الذكاء الاصطناعي الذي حذر من نهاية العالم من تلقاء نفسه. أشارت TechCrunch إلى أن Anthropic قيدت افتتاح Mythos، ظاهريًا لحماية أمن الإنترنت، لكن هذا الافتتاح الانتقائي قد يساعدها أيضًا في تأمين عملاء الشركات الكبيرة ومنع الشركات الصغيرة من تكرار القدرات من خلال التقطير، وبالتالي حماية مصالحها التجارية الخاصة.

من الواضح أن العمودي يقود الأنثروبولوجيا ويحتل نوعًا من الأرضية الأخلاقية العالية. ولكن كلما وقفت على أرض مرتفعة، كلما أصبحت هدفًا أكثر.
السؤال هو، هل لمجرد أن العمودي مبدئي للغاية، ومصر للغاية على "السلامة" ولا يتردد في الإساءة إلى الآخرين، فإنه يتعرض للهجوم بدوره؟
كلما حاول أمودي أن يكون "قائدًا أخلاقيًا"، كلما كانت المفارقة الأخلاقية أكثر وضوحًا لديه - فهو يقف في منتصف الملعب، ويضع الرهانات بينما يذكر الجميع بأن هذه اللعبة قد تكون سامة.
هذا أمر محرج حقًا.
02
كيف أصبح "ملك الأمان"
في المذكرة، ذكر دينيس، كبير مسؤولي الإيرادات في OpenAI، كلمة: "النخبة".
هذه بالفعل واحدة من أكثر العلامات التجارية لفتًا للانتباه على العمودي.
كادت مواجهته على أسس أخلاقية عالية أن تصبح ذروة سمعته - في مواجهة متطلبات وزارة الحرب الأمريكية، رفضت الأنثروبيك تخفيف حدود استخدام كلود، وأصرت على أنه لا يُسمح باستخدامه في المراقبة واسعة النطاق، ولا يُسمح باستخدامه في أسلحة مستقلة تمامًا دون مشاركة بشرية في صنع القرار.
قال العمودي في ذلك الوقت إنهم "لا يستطيعون الموافقة بضمير حي" على الطلب. في تلك اللحظة، هلل الجمهور بإحساس بالتحرر المفقود منذ زمن طويل. وأخيرا وقفت نخبة وادي السيليكون مرة أخرى وقالت "لا" لقوة أعظم.
لكي نفهم من أين أتى "ملك الأمن" هذا، لا يزال يتعين علينا أن ننظر إلى أصوله.
ولد العمودي في سان فرانسيسكو عام 1983. كان والده عامل جلود إيطالي من توسكانا، وكان يعاني من مشاكل صحية طويلة الأمد وتوفي عندما كان أمودي صغيرًا. والدته يهودية أمريكية ولدت في شيكاغو، وعملت كمديرة مشروع مكتبة.
كان العمودي من الطلاب المتفوقين في العلوم منذ أن كان طفلاً. التحق بواحدة من أشهر المدارس الثانوية العامة النخبوية في سان فرانسيسكو، وتم اختياره ضمن فريق أولمبياد الفيزياء الأمريكي في عام 2000. وبعد دخوله الكلية، ذهب إلى معهد كاليفورنيا للتكنولوجيا، وهو أحد أفضل كليات العلوم والهندسة في الولايات المتحدة، ثم انتقل إلى جامعة ستانفورد للحصول على شهادة جامعية في الفيزياء، وأخيراً ذهب إلى برينستون لإكمال درجة الدكتوراه في الفيزياء الحيوية.
هو شخصية فنية تدمج أبحاث الفيزياء وعلم الأعصاب والذكاء الاصطناعي في أبعاد متعددة، والتي تحدد أيضًا منظوره المعقد.
في عام 2014، قام إنج بتجنيد العمودي في مختبر بايدو للذكاء الاصطناعي في وادي السيليكون للمشاركة في أبحاث أنظمة التعرف على الكلام. وفي وقت لاحق، أصبح أحد مؤلفي ورقة Deep Speech 2. يركز هذا النظام على التعرف الشامل على الكلام، ويغطي اللغة الإنجليزية والماندرين. كما أنه يحاول استخدام بيانات واسعة النطاق، وقوة الحوسبة، والتدريب لإعادة عملية التعرف على الكلام التقليدية. خلال هذا الوقت بدأ أمودي في تطوير غرائزه المبكرة حول الحجم. وذكر لاحقًا في إحدى المقابلات أنه وجد أنه عندما يكون النموذج أكبر، وتكون البيانات أكثر، ويكون وقت التدريب أطول، فإن النتائج ستستمر في التحسن. بالنسبة له، فإن فكرة Scaling التي انتشرت لاحقًا عبر GPT وجيل النماذج الكبيرة لكلود قد وضعت بالفعل الأساس للتعرف على الكلام في Baidu.
تلعب دانييلا أمودي أيضًا دورًا مهمًا. لقد تركت أيضًا OpenAI، وشارك الأخ والأخت في تأسيس Anthropic.
يشكل الأخ والأخت هيكلًا ثنائي النواة. فالعمودي يشبه إلى حد كبير ممثل الخطوط الفنية وقصص السلامة، في حين أن دانييلا مسؤولة بشكل أكبر عن عمليات الشركة والبناء التنظيمي وترويج الأعمال. إن المزاج الفريد لشركة أنثروبيك اليوم - حيث تبدو وكأنها مؤسسة بحثية أمنية من ناحية، وشركة ذكاء اصطناعي تتمتع بتمويل سريع وتوسع سريع من ناحية أخرى - يأتي إلى حد كبير من هذا الاقتران.
يجلب هذا النوع من الروابط العائلية أيضًا إحساسًا خاصًا بالاستقرار لشركة Anthropic، مما يجعل الشركة أشبه بمجموعة صغيرة انفصلت عن المنظمة القديمة، مع هوية ذاتية قوية، معتقدة أنها تريد القيام بالذكاء الاصطناعي بطريقة أخرى.
في نهاية عام 2020، أصدرت OpenAI تحديثًا تنظيميًا مهذبًا للغاية، معلنة أن نائب رئيس الأبحاث أمودي آنذاك سيغادر. يشكره المقال على مساهماته في السنوات الخمس الماضية، ويذكر مشاركته في GPT-2، وGPT-3، ووضع اتجاهات البحث بشكل مشترك مع إيليا سوتسكيفر وآخرين.
وبمهارة أكبر، كتبت OpenAI أيضًا أن Amodei والعديد من زملائه يخططون لبدء مشروع جديد "قد يركز بشكل أقل على تطوير المنتجات وأكثر على البحث". تُستخدم معظم الصفحات الأخرى لإظهار تصميم OpenAI في المجال الأمني.
بعد سنوات، عندما أصبح الصراع بين Anthropic وOpenAI علنيًا، نظر الناس إلى "الانفصال" الودي في ذلك العام. ليس من الصعب أن نرى أن الجانبين كان لديهما بالفعل خلافات حول كيفية إعطاء الأولوية لنمو قدرات الذكاء الاصطناعي والحدود الأمنية.
وبعد بضعة أشهر، تأسست أنثروبيك. منذ ذلك الحين، تحول الأمن ببطء من موقف أمودي الشخصي إلى العمود الفقري للشركة.
لديها RSP، وهي "سياسة التوسع المسؤول". ويستخدم مستويات ASL لتحديد متطلبات المخاطر للنماذج في مراحل مختلفة من القدرة، يشبه إلى حد ما إصدار الذكاء الاصطناعي لمستويات السلامة الحيوية؛ فهو يوجه السلوك النموذجي من خلال مجموعة من المبادئ "الدستورية"؛ كما أنها تواصل الاستثمار في أبحاث قابلية التفسير ومحاولات فتح الصندوق الأسود النموذجي.
من المؤكد أن أمودي يستغل "الأمن"، ولكن فقط إذا كان يؤمن أيضاً بالأمن على المدى الطويل. من ترك OpenAI، إلى تأسيس Anthropic، إلى RSP، و"دستور" الذكاء الاصطناعي، وقابلية الشرح، وتصنيف المخاطر النموذجية، وحدود عقود الدفاع، كان سلوكه ثابتًا تمامًا على المدى الطويل.
هذا أيضًا هو ما يجعل العمودي معقدًا.
يتمتع بثقة نخبوية قوية بالنفس - لقد رأيت مخاطر أكبر، لذلك أنا مؤهل لتذكير الجميع بأن يكونوا أبطأ وأكثر صرامة وأكثر خوفًا. لكن نفس الثقة هي التي تجعله يبدو متعاليًا.
وعندما بدأ العمودي في إدارة شركة تجارية، عندما التقت "الأخلاق" بالعمل، أصبح الحفاظ على التوازن الدقيق أكثر صعوبة.
03
عندما تصبح "السلامة" هي الخط الرئيسي للشركة
"السلامة" هي عمل إنساني وآلية فحص في نفس الوقت.
الشيء المميز في Anthropic هو أنها كانت منظمة جديدة تشكلت من قبل مجموعة من الأشخاص الذين تركوا OpenAI منذ البداية. تشمل أسباب المغادرة الطرق التقنية والمفاهيم الأمنية والخلافات حول "من يجب أن يحدد مستقبل الذكاء الاصطناعي".
لذا فإن الثقافة مهمة بشكل خاص في الأنثروبولوجيا، فهي أشبه بنظام التشغيل.

العمودي مصمم تنظيمي يتمتع بمزاج الباحث. لقد قال ذات مرة في إحدى المقابلات إن حوالي ثلث، أو حتى 40%، من وقته ينفق على التأكد من أن الثقافة الإنسانية جيدة.
تتحدث الأنثروبيك دائمًا عن الحذر وضبط النفس والحدود ظاهريًا، لكنها في الداخل ليست ثقافة فاترة. على العكس من ذلك، لدى Anthropic قناة Slack تشبه المفكرة العامة الشخصية، حيث يكتب الموظفون أفكارهم الخاصة، وتقدم العمل، وحتى يناقشون العمودي بشكل مباشر.
من المتصور أنه سواء كان الأمر يتعلق بعتبة دخول الأنثروبولوجيا أو التشكيل المستمر والتصادم للثقافة الداخلية، فقد شكلت آلية فحص معينة للمواهب.
في العام الماضي، كانت شركة Meta تصطاد الأشخاص باستخدام دفتر الشيكات الخاص بها من أجل تعزيز فريق الذكاء الاصطناعي الخاص بها. لقد تم رفع سعر المواهب في صناعة الذكاء الاصطناعي إلى مستوى مبالغ فيه، وكاد كبار الباحثين والمهندسين أن يصبحوا نجومًا بارزين في السوق الحرة. في مواجهة هذا النوع من الصيد غير المشروع، تقوم بعض الشركات بشكل غريزي "بتتبع السعر"، أو على الأقل تعلن صراحةً أنها تريد زيادة رواتب الموظفين والحفاظ على الناس في المقام الأول.
العمودي لم يفعل ذلك. لقد أوضح علنًا أن شركة Anthropic لن تنتهك على الفور مبادئ التعويضات الخاصة بها لمجرد أن شركة خارجية تقدم عرضًا مرتفعًا لشخص ما. وقال إنه إذا ضرب زوكربيرج اسم شخص ما بشكل عشوائي مثل سهم، فهذا لا يعني أن هذا الشخص يجب أن يحصل على عشرة أضعاف ما يحصل عليه زميله الموهوب الذي بجانبه.
الأمر الأكثر إثارة للاهتمام هو أن Amodei قال إن بعض موظفي Anthropic لم يكونوا مستعدين حتى للتحدث مع Zuckerberg عندما واجهوا الصيد غير المشروع من Meta. هناك بالتأكيد عنصر الرياء في هذه الجملة. ولكن ما تريد إيصاله حقًا هو أن "الإجماع" بين الموظفين الأنثروبيين موجود وقوي.
يجب على Amodei إقناع الموظفين بأن Anthropic ليست شركة ذكاء اصطناعي أخرى تريد فقط العمل بشكل أسرع؛ وفي الوقت نفسه، يجب عليه أن يأخذ هذه الشركة لتعمل بسرعة كافية. وإلا، فمهما كانت رواية السلامة جميلة، فإنها ستصبح مجرد تعليق أخلاقي على هامش اللعبة.
حققت "السلامة" نتائج رائعة كعمل تجاري.
لقد اجتذبت Anthropic بشكل طبيعي العملاء الذين يحتاجون إلى موثوقية أعلى وإمكانية تحكم منذ البداية. عندما تم إطلاق كلود لأول مرة، أكد على الموثوقية والقدرة على التنبؤ وقابلية التشغيل. كان شركاؤها الأوائل هم أدوات إنتاج المعرفة والبحث والتعليم وسير العمل مثل Notion وQuora وDuckDuckGo وJuni Learning.
الأنثروبيك لا تبيع "أرخص نموذج". المؤسسات، والحكومة، والتعليمات البرمجية، والمالية، والرعاية الصحية، والتعليم، والقطاع العام - يهتم هؤلاء العملاء أكثر بالاستقرار والامتثال والحدود الأمنية والمسؤولية طويلة الأجل. ويمكن أيضًا أن نرى من السعر أن كلود ليس طريقًا منخفض السعر. سعر Claude Opus 4.7 هو 5 دولارات أمريكية لكل مليون رمز إدخال و25 دولارًا أمريكيًا لكل مليون مخرج؛ كلود سونيت 4.6 هو مدخلات بقيمة 3 دولارات أمريكية ومخرجات بقيمة 15 دولارًا أمريكيًا. بالمقارنة، فإن Grok 4.20 الخاص بـ xAI لديه مدخلات قدرها 2 دولار ومخرجات تبلغ 6 دولارات، وهو أمر أكثر تطرفًا بشكل واضح؛ يحتوي GPT-5.5 من OpenAI على مدخلات بقيمة 5 دولارات ومخرجات بقيمة 30 دولارًا، وهو في نفس النطاق السعري المرتفع مثل Claude Opus.
ذكرت رويترز أيضًا سابقًا أن Anthropic لديها أكثر من 300000 عميل تجاري ومؤسسات، مما يساهم بحوالي 80٪ من الإيرادات. يدفع عملاء المؤسسات بناءً على الاستخدام، مع الاحتفاظ بشكل أكثر استقرارًا ومساحة أكبر للتوسع. بمجرد إدخال التعليمات البرمجية وتدفق المكاتب والمنصات السحابية والأنظمة الحكومية، لا يمكن مقارنة الدخل بمنتجات الاشتراك العادية.
في المقابل، أحدثت OpenAI أكبر ضجيج على الجانب C مع ChatGPT، وقد قامت بالفعل بتثقيف المستخدمين على نطاق غير مسبوق؛ ومع ذلك، فإن وجود العديد من مستخدمي الجانب C لا يعني أن هيكل الإيرادات هو الأفضل.
أحدث بيان لـ OpenAI هو أن إيرادات الشركات تجاوزت 40٪ من إجمالي الإيرادات، وتأمل في اللحاق بجانب المستهلك بحلول نهاية عام 2026. وبعبارة أخرى، حتى OpenAI تعمل بجد لدخول سوق المؤسسات.
يعد التعاون بين Anthropic ووزارة الحرب الأمريكية DoW مثالًا نموذجيًا. لفترة طويلة، كانت Anthropic هي شركة الذكاء الاصطناعي الوحيدة التي تعاونت معها DoW في "المجال السري". يتم استخدام كلود لمهام مثل تحليل الاستخبارات، والنمذجة والمحاكاة، والتخطيط القتالي، والعمليات السيبرانية.
باتباع هذا الخط من التفكير، وبالنظر إلى "الصراع" الشرس بين Anthropic وDoW، فإنه يُظهر قدرة Amodei على التعامل مع الأمن كعمل تجاري - من خلال التأكيد على النتيجة النهائية المتمثلة في "المراقبة الجماعية" و"الأسلحة المستقلة"، حتى لو فقد التعاون مع DoW، فقد تم رفع الرؤية العامة و"الموثوقية" لشركة Anthropic إلى مستوى أعلى، وقد اكتسبت تأييدًا غير مسبوق في سوق رأس المال.
ارتفعت الإيرادات السنوية لشركة أنثروبيك من 9 مليارات دولار أمريكي في نهاية عام 2025 إلى 30 مليار دولار أمريكي في أبريل 2026؛ وفي فبراير/شباط من هذا العام، أكملت تمويلاً بقيمة 30 مليار دولار أميركي بقيمة 380 مليار دولار أميركي، وخططت جوجل لاحقاً لاستثمار ما يصل إلى 40 مليار دولار أميركي فيه. وتشير بعض التقارير إلى أن تقييمها في السوق الثانوية قد وصل إلى 1.1 تريليون دولار أمريكي.
يبدو الأمان وكأنه قيد من القيود، ولكن في الأنثروبيك ينتهي به الأمر إلى أن يصبح لغة أعمال أكثر تقدمًا.
لكن أسلوب الإدارة هذا له بالتأكيد جانب خطير.
عندما تقوم شركة ما بتحويل "السلامة" إلى اعتقاد تنظيمي، فمن الطبيعي أن تكتسب إحساسًا بالتفوق الأخلاقي، وسيكون من الأسهل تصوير المنافسين على أنهم أشخاص غير مسؤولين ودمج خيارات العمل في خيارات القيمة.
ولهذا السبب، كلما زادت النجاح الأنثروبي، أصبح العمودي أكثر إزعاجًا.
04
وجها "الأمن"
سيكون من السذاجة بعض الشيء اعتبار العمودي "رجل علوم وهندسة" لديه مُثُل وأهداف أساسية ولكن ذكاء عاطفي منخفض، لذلك فهو يقول الحقيقة دائمًا ويسيء إلى الناس.
كان هناك مقال في صحيفة وول ستريت جورنال يلقي الضوء على الخلاف الذي دام 10 سنوات بين أمودي وألترامان.
قصة Amodei في OpenAI بعيدة كل البعد عن تفسيرها من خلال "الاختلافات في المفاهيم الأمنية".
في عام 2018، بعد انسحاب " ماسك "، وافق "أمودي" على البقاء بشرط ألا يتولى بروكمان (أحد المؤسسين المشاركين) وسوتسكيفي السلطة - فقد ناقش أولاً توزيع السلطة، وليس المسار الفني.
لاحقًا، في مشروع النموذج الرئيسي، تعاون هو وشقيقته دانييلا لمنع بروكمان الذي أراد الانضمام. أحد الأسباب هو أن أحد الباحثين الأساسيين "لم يرغب في العمل معه". ووصف الباحث نفسه لاحقًا بأنه يُستخدم "كسلاح بالوكالة" من قبل كبار المسؤولين التنفيذيين، مما يدل على أن أمودي يعرف كيفية استخدام الأشخاص لتشكيل تحالفات.
عندما أصبح GPT-2/3 مشهورًا، أصبح أكثر حساسية بشأن إسناد الائتمان والتعرض له: كان غير راضٍ عن "سرقة بروكمان الأضواء" في البودكاست، وأصبح غاضبًا عندما اكتشف أن ألتمان وبروكمان سيقابلان أوباما بدونه.
في العام التالي، طلب ترقيته إلى نائب رئيس الأبحاث. وافق ألتمان، وأدرج في البريد الإلكتروني لمجلس الإدارة "وعد أمودي بعدم الاستهانة بالمشاريع التي لا يوافق عليها"، وهو ما كان بمثابة بند لوقف إطلاق النار.
هذه التفاصيل تبين أن السلامة هي عقيدة العمودي وسلاح تنظيمي حاد. يتحدث عن الأحوال، ويناضل من أجل المشاريع، ويناضل من أجل حق التعبير، ويستخدم لغة "الخطر" لتحديد من يستطيع البقاء في القلب.
غادرت OpenAI أخيرًا لتأسيس Anthropic. وبدلاً من الخروج المثالي، كان من الأفضل القول إنه نقل ساحة المعركة إلى الخارج بعد فشله في الاستيلاء على السلطة في الداخل.
بمجرد أن تولى قيادة الأنثروبيك، أصبحت الأمور أكثر تعقيدًا. لم تعد الأنثروبيك ساحة اختبار مثالية في مختبر الأبحاث، بل أصبحت سفينة حربية تجارية سريعة النمو. في هذا الوقت، تغيرت السلامة من مبدأ خالص إلى نقطة بيع منتج راسخة.
كلما زاد التركيز الإنساني على مخاطر الذكاء الاصطناعي بطريقة رفيعة المستوى، كلما سلط الضوء على الحاجة إلى وجوده؛ فكلما دعت الآخرين إلى العمل بسرعة كبيرة، كلما تمكنت من تقديم نفسها باعتبارها الشريك الأكثر موثوقية للشركات والحكومات والجهات التنظيمية.
سردها يحمل بطبيعة الحال مقارنة أخلاقية. وهذا يعني أن اختيار كلود لا يعني مجرد اختيار نموذج، بل أيضًا اختيار طريق أكثر مسؤولية وقابلية للتحكم.
بالنسبة للمنافسين، هذا أمر مزعج للغاية. أنت فقط تبيع المنتجات، وتجعل الآخرين يبدون وكأنهم مقامرين غير مسؤولين. لقد أصبح الأمن بمثابة خندق للتميز وأداة للتسويق. العملاء من المؤسسات على استعداد لدفع المزيد مقابل "راحة البال"، ومن المرجح أن تقوم الإدارات الحكومية بتسليم المشاريع الحساسة إلى الشركة "الأكثر أمانًا".
في هذه العملية، أصبح الأمن أيضًا ورقة مساومة سياسية.
أفاد موقع أكسيوس أنه في الربع الأول من عام 2026، وصلت نفقات الضغط الفيدرالي في أنثروبيك إلى 1.6 مليون دولار أمريكي، وهو ما يتجاوز مليون دولار أمريكي في OpenAI ويحقق رقمًا قياسيًا خاصًا به؛ وكانت قد أعلنت سابقًا عن استثمار بقيمة 20 مليون دولار أمريكي في منظمة مناصرة من الحزبين الجمهوري والديمقراطي تركز على شفافية الذكاء الاصطناعي وحواجز السلامة، وتخطط لتوسيع فريق السياسات التابع لها وإنشاء مكتب طويل الأجل في واشنطن.
بصراحة، يتنافس Amodei بالفعل على قواعد اللعبة في عصر الذكاء الاصطناعي.
يكمن تعقيد Amodei في حقيقة أن هذين الأمرين قد يكونان صحيحين في نفس الوقت: فهو يؤمن بأمن الذكاء الاصطناعي، وقد قام بالفعل بتحويل أمن الذكاء الاصطناعي إلى سلاح الأنثروبيك التجاري الأكثر حدة. فالأمن هو دينه ورافعة سلطته.
المبادئ والمصالح ليست متعارضة فحسب، بل تغذي وتقوي بعضها البعض. وهذا التشابك بين الحق والباطل هو ما يجعله يُثنى عليه باعتباره "الملك الأمني"، كما يجعله البعض يعتبره تاجرًا ماهرًا.
كلما تمكنت الأنثروبولوجيا من تفسير المخاطر بشكل أفضل، زادت الفرص المتاحة لها لتحديد المخاطر؛ فكلما زادت الفرص المتاحة لها لتحديد المخاطر، زادت قدرتها على وضع نفسها في مركز قواعد عصر الذكاء الاصطناعي.
هذا هو "سحر الأمان" للعمودي، و"العدو العام" هو أحد الآثار الجانبية الضرورية لممارسة السحر.
ربما يستمتع بالأمر.