تتبّع تاريخ Anthropic منذ التأسيس والأبحاث المبكرة إلى تطوير نماذج Claude والمعالم الرئيسية التي شكلت عملها المبني على سلامة ومحاذاة الذكاء الاصطناعي.

Anthropic هي شركة أبحاث ومنتجات في مجال الذكاء الاصطناعي معروفة بشكل خاص بسلسلة نماذج Claude للغة. تأسّست على يد باحثين ذوي خبرة عميقة في أنظمة الذكاء الاصطناعي واسعة النطاق، وتعمل Anthropic عند تقاطع الأبحاث الأساسية، المنتجات العملية، والعمل على سلامة ومحاذاة الذكاء الاصطناعي.
يتتبع هذا المقال تاريخ Anthropic منذ نشأتها وحتى اليوم، ويسلّط الضوء على الأفكار والقرارات والمعالم الرئيسية التي شكّلت الشركة. سنتحرك ترتيبًا زمنيًا: نبدأ بسياق أبحاث الذكاء الاصطناعي الذي سبق التأسيس، ثم نستعرض المؤسِّسين والفريق المبكر، مهمة الشركة وقيمها، الأسس التقنية، التمويل والنمو، تطور المنتج من Claude إلى Claude 3.5، ودور Anthropic في مجتمع أبحاث الذكاء الاصطناعي الأوسع.
تاريخ Anthropic مهم لأكثر من مجرد فضول عن الشركة. منذ البداية اعتُبرت مسائل سلامة ومحاذاة الذكاء الاصطناعي أسئلة بحثية مركزية بدلًا من أن تكون أمورًا ثانوية. مفاهيم مثل الذكاء الاصطناعي الدستوري (Constitutional AI)، فرق الاختراق المكثفة (red‑teaming)، وتقييمات النماذج للسلامة ليست مشاريع جانبية بل أجزاء أساسية من كيفية بناء وطرح أنظمة Anthropic. هذا الموقف أثّر في طريقة تفكير مختبرات أخرى، صانعي سياسات، والعملاء حول النماذج المتقدمة.
الغاية هنا أن نقدّم سردًا تاريخيًا موضوعيًا ومتوازنًا لتطوّر Anthropic: ما الذي سعت الشركة إلى تحقيقه، كيف تطور عملها على Claude والأدوات المرتبطة، أي اتجاهات بحثية كانت محورية، وكيف شكّلت اعتبارات السلامة جدولها الزمني ومعالمها. هذا ليس نشرة تسويقية، بل نظرة تاريخية موجهة للقرّاء الراغبين في فهم كيف حاولت إحدى الشركات المؤثرة مواءمة التقدّم التقني السريع مع مخاوف السلامة طويلة الأجل.
في النهاية، ستحصل على صورة واضحة عن أصل Anthropic، كيف شكّلت أولوياتها منتجاتها وأبحاثها، ولماذا يهم نهجها لمستقبل الذكاء الاصطناعي.
بحلول أواخر العقد الثاني من القرن الحادي والعشرين، غيّر التعلم العميق مجالات رؤية الحاسوب والكلام. شبكات الالتفاف التي فازت بمسابقة ImageNet، وأنظمة تعرف الكلام على نطاق واسع، ونُظم الترجمة الآلية العملية أظهرت أن تكبير البيانات والحوسبة يمكن أن يفتح قدرات جديدة لافتة.
نقطة تحول مهمة كانت معمارية المحوّل (Vaswani وآخرون، 2017). على خلاف الشبكات التكرارية، تعالج المحوّلات الاعتمادات بعيدة المدى بكفاءة وتوازي جيدًا عبر وحدات معالجة الرسوميات (GPUs). هذا مكّن تدريب نماذج أكبر بكثير على مجموعات نصية هائلة.
أظهر BERT من Google (2018) أن التدريب المسبق على نص عام ثم التخصيص يمكن أن يتفوق على نماذج متخصصة في العديد من مهام معالجة اللغة الطبيعية. بعد ذلك بزمن قصير دفعت سلسلة GPT من OpenAI الفكرة إلى الأمام: درّب نموذجًا تلقائيًا ضخمًا واحدًا واعتمد على الحجم إلى جانب توجيه بسيط بدلًا من التخصيص لكل مهمة.
حوالي 2019–2020، رسّخت أعمال قوانين التحجيم ملاحظات الممارسين: أداء النماذج يتحسن بشكل متوقع مع زيادة المعاملات والبيانات والحوسبة. أظهرت الدراسات أن النماذج الأكبر:
مثّلت GPT‑2 في 2019 ثم GPT‑3 في 2020 مثالًا على كيف يمكن للحجم الخالص أن يحوّل نموذج نصّي عام إلى أداة مرنة للترجمة، والتلخيص، والإجابة عن الأسئلة، وأكثر — غالبًا بدون تدريب خاص بالمهمة.
بالتزامن مع هذا التقدّم، ازداد قلق الباحثين وصانعي السياسات حول كيفية بناء النماذج المتنامية ونشرها. تضمنت المخاطر التي نوقشت في المجتمعات التقنية والسياسية:
الإصدار الجزئي لنموذج GPT‑2، الذي برّرته مخاطر سوء الاستخدام، أشار إلى أن المختبرات الرائدة كانت تتعامل مع هذه الأسئلة في الزمن الحقيقي.
استكشفت مجموعات أكاديمية ومنظمات غير ربحية—مثل CHAI في بيركلي، ومعهد مستقبل الإنسانية، ومركز الأمن والتكنولوجيا الناشئة—استراتيجيات المحاذاة، أدوات التوضيح، وأطر الحوكمة. أنشأت DeepMind وOpenAI فرق سلامة داخلية وبدأتا بنشر أعمال حول مواضيع مثل تعلم المكافأة، الإشراف القابل للتوسع، ومحاذاة القيم.
بحلول أوائل عشرينات القرن الحادي والعشرين، دفعت ضغوط التنافس بين المختبرات الكبرى والشركات التقنية إلى تكبير النماذج بسرعة وجداول نشر عدوانية. العروض العامة وواجهات برمجة التطبيقات التجارية أظهرت طلبًا قويًا على الذكاء التوليدي، مما جذب استثمارات كبيرة.
في المقابل، جادل العديد من الباحثين بأن السلامة والموثوقية والحوكمة لا تواكب السرعة في زيادة القدرات. كانت اقتراحات المحاذاة التقنية لا تزال في مراحل مبكرة، وكان الفهم الإمبريقي لأوضاع الفشل محدودًا وممارسات التقييم غير مطوّرة.
شكل هذا التوتر—بين السعي إلى نماذج أكبر وأكثر عمومية والدعوات لتطوير حذر ومدروس—البيئة البحثية التي سبقت تأسيس Anthropic.
تأسست Anthropic في 2021 على يد الأشقاء داريو ودانييلا أمودي (Dario وDaniela Amodei) ومجموعة صغيرة من الزملاء الذين قضوا سنوات في قلب أبحاث الذكاء الاصطناعي المتقدمة.
قاد داريو فريق نماذج اللغة في OpenAI وساهم في أعمال مؤثرة حول قوانين التحجيم، التوضيح، وسلامة الذكاء الاصطناعي. قادت دانييلا أعمال السلامة والسياسة في OpenAI وعملت سابقًا في أبحاث عصبية وحاسوبية تركز على سلوك الأنظمة المعقدة وفشلها. أحاط بهما باحثون، مهندسون، ومتخصصو سياسة من OpenAI وGoogle Brain وDeepMind ومختبرات أخرى شاركوا مجتمعين في تدريب ونشر وتقييم بعض أوائل النماذج واسعة النطاق.
بحلول 2020–2021، خرجت نماذج اللغة الكبرى من بُعد البحث النظري إلى أنظمة عملية تؤثر على المنتجات والمستخدمين والنقاش العام. رصد الفريق المؤسس الفُرص والمخاطر عن كثب: مكاسب القدرات السريعة، سلوكيات ناشئة مفاجئة، وتقنيات السلامة التي لا تزال غير ناضجة.
حفزت عدة مخاوف إنشاء Anthropic:
تصوّر Anthropic كشركة أبحاث ذكاء اصطناعي بجعل السلامة مبدأً تنظيمياً مركزياً. بدلاً من أن تكون السلامة إضافة نهائية، أراد المؤسسون أن تكون منسوجة في كيفية تصميم النماذج وتدريبها وتقييمها ونشرها.
منذ اللحظة الأولى كان لدى Anthropic رؤية للتقدم في قدرات الذكاء الاصطناعي المتقدمة مع تطوير تقنيات تجعل تلك الأنظمة أكثر قابلية للتفسير، وقابلة للتوجيه، ومفيدة بشكل موثوق.
هذا يعني:
رأى المؤسسون فرصة لخلق منظمة تُرشّح فيها قرارات توسيع النماذج، كشف القدرات، والشراكات عبر عدسة السلامة والأخلاق بدلًا من التعامل معها كلّ على حدة تحت ضغط تجاري.
عكست التوظيفات الأولى في Anthropic هذه الفلسفة. جمع الفريق المبكر بين:
سمح هذا المزج لAnthropic بمقاربة تطوير الذكاء الاصطناعي كمشروع اجتماعي‑تقني وليس كتحدٍ هندسي بحت. صُمِّمت قرارات تصميم النموذج، البنية التحتية، التقييم، واستراتيجيات النشر بمشاركة الباحثين والمهندسين وموظفي السياسة منذ البداية.
تزامن إنشاء الشركة مع نقاشات مكثفة في مجتمع الذكاء الاصطناعي حول كيفية التعامل مع الأنظمة سريعة التحجيم: الوصول المفتوح مقابل واجهات برمجة محكومة، المصدر المفتوح مقابل الإصدارات المتحكّم بها، مركزيّة الحوسبة، والمخاطر طويلة الأمد للنماذج غير المحاذية.
وضعت Anthropic نفسها كمحاولة للإجابة على سؤال مركزي في هذه النقاشات: كيف يبدو بناء مختبر ذكاء اصطناعي طليعي تُوجَّه هياكله، أساليبه، وثقافته بوضوح نحو السلامة والمسؤولية طويلة الأجل، مع استمرار الدفع إلى حدود البحث؟
أسّست Anthropic حول مهمة واضحة: بناء أنظمة ذكاء اصطناعي موثوقة، قابلة للتفسير، وقابلة للتوجيه، وتعود بالنفع على المجتمع. منذ البداية صوّرت الشركة عملها ليس فقط على أنه بناء نماذج قادرة، بل كعمل يحدد كيف تتصرف أنظمة الذكاء الاصطناعي المتقدمة مع ازدياد قوتها.
تلخّص Anthropic قيمها لسلوك الذكاء الاصطناعي بكلمات ثلاث: مفيد، صادق، وغير ضار.
ليست هذه الشعارات للتسويق؛ بل تعمل كنقاط مرجعية هندسية. تُشكّل بيانات التدريب ومجموعات التقييم وسياسات النشر كلها حول قياس وتحسين هذه الأبعاد الثلاثة، لا مجرد القدرة الصرفة.
تتعامل Anthropic مع سلامة الذكاء الاصطناعي والموثوقية كقيود تصميم أساسية، لا كأمور لاحقة. تُرجمت هذه الرؤية إلى استثمارات كبيرة في:
تكرّس اتصالات الشركة العامة التأكيد على المخاطر طويلة الأمد للأنظمة القوية والحاجة إلى سلوك قابل للتنبؤ وقابل للفحص.
لتطبيق قيمها، قدّمت Anthropic مفهوم الذكاء الاصطناعي الدستوري (Constitutional AI). بدل الاعتماد فقط على تغذية بشرية لتصحيح سلوك النموذج، يستخدم النهج "دستورًا" مكتوبًا من مبادئ عالية المستوى — مستندًا إلى معايير مقبولة على نطاق واسع مثل حقوق الإنسان وإرشادات السلامة العامة.
يتدرب النموذج ليقوم بـ:
توسع هذه الطريقة إشراف المحاذاة: مجموعة مبادئ مكتوبة بعناية يمكن أن توجه العديد من تفاعلات التدريب دون حاجة إلى أن يقوم البشر بتقييم كل رد بمفردهم. كما تجعل السلوك أكثر شفافية، لأن القواعد الحاكمة قابلة للقراءة والنقاش والتعديل مع مرور الوقت.
تؤثر مهمة Anthropic وتركيزها على السلامة مباشرة في اتجاهات البحث التي تتبعها وكيفية إطلاقها للمنتجات.
على جانب البحث يعني ذلك إعطاء الأولوية للمشروعات التي:\n
وعلى جانب المنتج، تُصمم أدوات مثل Claude مع ضوابط سلامة مدمجة من نقطة الصفر. يُعامل سلوك الرفض، تصفية المحتوى، والمحفزات النظامية المستندة إلى مبادئ دستورية كميزات منتج أساسية، لا إضافات. وتبرز العروض للمؤسسات قابلية التدقيق، سياسات سلامة واضحة، وسلوك نموذج متوقّع.
من خلال ربط مهمتها بخيارات تقنية ملموسة — سلوك مفيد وصادق وغير ضار؛ طرق تدريب دستورية؛ أبحاث التوضيح والسلامة — رسّخت Anthropic تاريخها وتطوّرها حول سؤال محوري: كيف نجعل الأنظمة القوية تتوافق مع القيم البشرية؟
من أشهر شهورها الأولى تناولت Anthropic أبحاث السلامة والقدرة كأجندة واحدة مترابطة. يمكن تجميع التركيز التقني المبكر للشركة في عدة مسارات أساسية.
خيط رئيسي في الأبحاث المبكرة فحص كيف تتصرف النماذج اللغوية الكبيرة تحت محفزات مختلفة وإشارات تدريب وإعدادات نشر. اختبرت الفرق منهجيًا:
أفضى هذا العمل إلى تقييمات مُنظَّمة لـ"المنفعة" و"عدم الإضرار"، وإلى معايير داخلية تتتبّع المقايضات بين الاثنين.
بنت Anthropic على أساليب مثل التعلم المعزز من ردود البشر، لكن أضافت تعديلات خاصة بها. جرّب الباحثون:\n
دخلت هذه الجهود في العمل المبكر على الذكاء الاصطناعي الدستوري: تدريب النماذج على اتباع "دستور" من المبادئ بدلاً من الاعتماد فقط على تفضيلات البشر. هدف هذا الأسلوب جعل المحاذاة أكثر شفافية وقابلية للتدقيق والاتساق.
ركّز ركيزة أخرى على التوضيح — محاولة رؤية ما يعرفه النموذج داخليًا. نشرت Anthropic أعمالًا حول السمات والدوائر في الشبكات العصبية، وتحقّقًا في كيفية تمثيل المفاهيم عبر الطبقات والتنشيطات.
رغم أن هذه الدراسات كانت استكشافية إلى حدٍ ما، فقد أسست أساسًا تقنيًا لمشروعات التوضيح الآلي اللاحقة، وأشارت إلى أن الشركة جادة في فتح "الصندوق الأسود" للنماذج.
لدعم كل هذا، استثمرت Anthropic بكثافة في أطر التقييم. صممت فرق مخصصة محفزات عدائية، اختبارات سيناريو، وفحوصات آلية لكشف الحالات الحديّة قبل نشر النماذج على نطاق واسع.
باعتبار أطر التقييم كقطع بحثية من الدرجة الأولى — قابلة للتكرار والإصدار والنشر — اكتسبت Anthropic بسرعة سمعة في مجتمع أبحاث الذكاء الاصطناعي لنهج منضبط ومُوجَّه بالسلامة يندمج بإحكام مع تطوير نماذج Claude الأكثر قدرة.
تشكّل مسار Anthropic مبكرًا بتمويل استثنائي لشركة بحثية ناشئة.
تصف التقارير العامة مرحلة بذرة في 2020–2021، تلتها جولة Series A كبيرة في 2021 بنحو 100 مليون دولار أو أكثر، مما أتاح للفريق المؤسس توظيف باحثين أساسيين وبدء جولات تدريب جادة.
في 2022 أعلنت Anthropic عن جولة Series B أكبر، وأُبلغ عن قيمتها بنحو 580 مليون دولار. مكّنت هذه الجولة الشركة من المنافسة على طليعة أبحاث الذكاء الاصطناعي واسعة النطاق حيث تكاليف الحوسبة والبيانات مرتفعة.
منذ 2023 تحوّل التمويل نحو شراكات استراتيجية مع مزودي السحابة الرئيسيين. أبرزت الإعلانات العامة أطر استثمارية بمليارات الدولارات مع Google وAmazon، شملت استثمارات رأسمالية والتزامات سحابية وأجهزة عميقة. جمعت هذه الشراكات رأس المال مع إمكانية الوصول إلى بنى حوسبة واسعة النطاق.
مكّن هذا التدفق المالي Anthropic من:\n
انتقلت الشركة من مجموعة مؤسِسة صغيرة—غالبيتها من باحثي ومهندسي OpenAI السابقين—إلى مؤسسة متنامية تغطي تخصصات متعددة. مع توسّع عدد الموظفين إلى مئات حسب التقارير العامة، ظهرت أدوار جديدة تتجاوز البحث النقي في التعلم الآلي.
أتاح التمويل لAnthropic توظيف:\n
أشارت هذه التركيبة إلى أن Anthropic رأت السلامة ليس كموضوع بحثي فحسب، بل كوظيفة تنظيمية تتطلب مهندسين، باحثين، محامين، متخصصي سياسة، ومتخصصي تواصل يعملون معًا.
مع تزايد التمويل، اكتسبت Anthropic القدرة على متابعة أبحاث سلامة طويلة الأمد وفي الوقت نفسه إطلاق منتجات قصيرة الأجل. في المراحل الأولى، ذهبت غالبية الموارد نحو البحث الأساسي وتدريب نماذج الأساس. مع الجولات اللاحقة والشراكات السحابية الاستراتيجية استطاعت الشركة:\n
أسفر ذلك عن تحول من فريق تأسيسي صغير ثقيل الجانب البحثي إلى مؤسسة أكبر وأكثر تنظيمًا يمكنها تكرار تطوير Claude كمنتج تجاري بينما تستثمر بكثافة في أبحاث السلامة والحوكمة الداخلية.
Anthropic هي شركة أبحاث ومنتجات في مجال الذكاء الاصطناعي تركز على بناء نماذج لغوية واسعة النطاق، ومعروفة بشكل خاص بسلسلة نماذج Claude. تقع الشركة عند تقاطع:
منذ التأسيس، تعاملت Anthropic مع قضايا السلامة والمحاذاة كمشكلات بحثية مركزية وليست كملحقات اختيارية، وهذه التوجهات تشكل أعمالها التقنية ومنتجاتها وممارسات الحوكمة.
تأسست Anthropic في 2021 على يد داريو ودانييلا أمودي (Dario وDaniela Amodei) مع زملاء من مختبرات مثل OpenAI وGoogle Brain وDeepMind. كان لدى الفريق المؤسس خبرة مباشرة في تدريب ونشر بعض أوائل نماذج اللغة الضخمة، ورأى الفريق إمكاناتها ومخاطرها معًا.
أطلقوا Anthropic لأنهم كانوا قلقين من أن:
صُممت Anthropic كمنظمة تُعطي أولوية للسلامة والفائدة المجتمعية على أنها قيود تصميم أساسية لا تُهمَل.
تلخّص Anthropic أهداف السلوك لنماذجها بثلاث كلمات مميِّزة:
تُعامل هذه المبادئ كأهداف هندسية: تشكّل بيانات التدريب، مقاييس التقييم، سياسات السلامة، وقرارات النشر لنماذج مثل Claude.
الذكاء الاصطناعي الدستوري (Constitutional AI) هو طريقة Anthropic لتوجيه سلوك النموذج باستخدام مجموعة مكتوبة من المبادئ بدلاً من الاعتماد فقط على تقييمات البشر.
عمليًا، تقوم Anthropic بـ:
تهدف هذه الطريقة إلى:
اتّسمت أجندة Anthropic التقنية منذ البداية بدمج عمل القدرات مع سلامة النماذج. شملت أولوياتها المبكرة:
جمعت Anthropic تمويلًا كبيرًا وشراكات استراتيجية لدعم أبحاثها على نطاق الطليعة:
مَوَّل هذا التدفق المالي بشكل أساسي تكاليف الحوسبة لتدريب نماذج Claude، وأدوات التقييم لأبحاث السلامة، وتوسيع فرق متعددة التخصّصات في البحث والهندسة والسياسة.
شهدت سلسلة Claude تطورًا عبر أجيال رئيسية:
تختلف Anthropic عن مختبرات أخرى في الطليعة بعدة نواحٍ متعلقة بتنظيمها حول السلامة والحوكمة:
تُستخدم Claude عبر طيف من المنظمات والمنتجات، عادة كطبقة استدلال ومساعدة عامة بدلاً من واجهة محادثة ضيقة. أنماط الاستخدام الشائعة تشمل:
تُبرز قصة Anthropic عدّة دروس أوسع حول تطوير الذكاء الاصطناعي في الطليعة:
كانت هذه المسارات مترابطة بشدّة مع تطوير Claude بدلًا من كونها منفصلة عن العمل المنتج.
في كل مرحلة، جمعت الشركة بين مكاسب الأداء وتحديثات في التدريب على السلامة، التقييم، وسلوك الرفض.
ومع ذلك، تنافس Anthropic أيضًا في مقدمة القدرات، لذا تُعرّف هويتها بمحاولة ربط التقدّم التقني بالسلامة بشكل وثيق.
تستفيد هذه حالات الاستخدام عادةً من طول السياق لدى Claude، استخدامه للأدوات، ودرع السلامة ليتلاءم مع سير العمل ومتطلبات الامتثال.
فهم مسار Anthropic يساعد في تفسير الجدل الحالي حول كيفية موازنة التقدّم السريع مع السلامة والتأثير المجتمعي طويل الأمد.