تعرف على معنى الذكاء الاصطناعي العام (AGI)، كيف تعمل نماذج اللغة الكبيرة، والحجج الأساسية التي تبيّن لماذا نماذج النص الحالية قد لا تصبح AGI حقيقية بمجرّد التكبير أو التخصيص.

إذا قرأت أخبار التكنولوجيا، وثائق المستثمرين، أو صفحات المنتجات، ستلاحظ أن كلمة الذكاء تُستخدم بشكل مضخّم. الروبوتات الحوارية "قريبة من البشر"، ومساعدو الترميز "يكادون يكونون مهندسين مبتدئين"، ويُطلَق على بعض نماذج اللغة الكبيرة القوية أحيانًا أنها خطوات أولى نحو الذكاء الاصطناعي العام (AGI).
هذه المقالة موجهة للممارسين الفضوليين، والمؤسّسين، وقادة المنتج، والقراء التقنيين الذين يستخدمون أدوات مثل GPT-4 أو Claude ويتساءلون: هل هذا ما يبدو عليه AGI — أم أن هناك شيئًا مهمًا مفقودًا؟
نماذج اللغة الكبيرة مثيرة للإعجاب حقًا. فهي:
لدى معظم غير المتخصصين، يبدو هذا غير قابل للتمييز عن "الذكاء العام". عندما يستطيع نموذج كتابة مقال عن كانط، وتصحيح خطأ TypeScript لديك، والمساعدة في صياغة مذكرة قانونية في نفس الجلسة، من الطبيعي افتراض أننا نقترب من AGI.
لكن هذا الافتراض يساوي بهدوء بين البراعة في اللغة والذكاء العام. هذا هو اللبّ الذي ستفكّه هذه المقالة.
الحُجّة التي ستُطوَّر فصلًا بعد فصل هي:
نماذج اللغة الحالية متعلّمة أنماط نصية ورمز بكفاءة عالية، لكن تلك البنية ونمط التدريب يجعلان من غير المرجح أن تصبح AGI حقيقية بمجرد التكبير أو التخصيص وحدهما.
ستستمر في التحسّن، والاتساع، وأن تكون أكثر فائدة. قد تكون جزءًا من أنظمة شبيهة بـ AGI. ومع ذلك هناك أسباب عميقة—حول التأريض في العالم، والفاعلية، والذاكرة، والتجسّد، ونماذج الذات—لماذا "نموذج لغة أكبر" ليس بالضرورة نفس مسار "الذكاء العام".
توقّع جولة رأي مدعومة بأبحاث حالية، وقدراتَ محددة وفشلًا لنماذج اللغة، والأسئلة المفتوحة التي يناقشها العلماء الجادون، بدلًا من الضجيج أو نشر الخوف.
عندما يقول الناس AGI، نادرًا ما يقصدون الشيء نفسه. لتوضيح النقاش، من المفيد فصل بعض المفاهيم الأساسية.
الذكاء الاصطناعي (AI) هو المجال الواسع لبناء أنظمة تؤدي مهامًا تتطلب سلوكًا يمكن وصفه بـ "الذكي": تمييز الكلام، اقتراح أفلام، لعب جو، كتابة شيفرة، وأكثر.
معظم ما نراه اليوم هو ذكاء ضيّق (أو ذكاء ضعيف): أنظمة مصممة ومدرّبة لمجموعة محددة من المهام ضمن ظروف معينة. مُصنّف صور يوسم القطط والكلاب، أو روبوت دردشة لخدمة العملاء مخصّص للأسئلة المصرفية، يمكن أن يكون بارعًا جدًا ضمن ذلك التخصّص لكنه يفشل فشلًا ذريعًا خارجه.
الذكاء الاصطناعي العام (AGI) مختلف للغاية. يشير إلى نظام يمكنه:
قاعدة عملية: قد يتمكّن AGI، من حيث المبدأ، من تعلّم أي وظيفة فكرية تتقاضاها القدرة البشرية، طالما أعطي وقتًا وموارد، دون حاجة لإعادة تصميم مخصّصة لكل مهمة جديدة.
مصطلحات قريبة تظهر عادة:
بالمقابل، تبقى روبوتات المحادثة ونماذج الصور الحديثة ضيّقة: مثيرة للإعجاب، لكنها محسّنة لأنماط محددة في بيانات محددة، وليست ذكاءً عامًّا مفتوح النطاق.
حلم AGI المعاصر يبدأ باقتراح آلان تورينج عام 1950: إذا أمكن للآلة أن تُجري محادثة لا يمكن تمييزها عن إنسان (اختبار تورينج)، هل يمكن اعتبارها ذكية؟ هذا وضع الذكاء العام جزئيًا في إطار السلوك، خصوصًا اللغة والاستدلال.
من خمسينيات القرن الماضي حتى ثمانينياته، سعى الباحثون إلى AGI عبر الذكاء الرمزي أو "GOFAI". كان يُنظر إلى الذكاء كمناورة رموز صريحة وفق قواعد منطقية. برمجيات لإثبات النظريات، ولعب الألعاب، وأنظمة الخبراء جعلت البعض يعتقد أن التفكير البشري قريبٌ جدًا.
لكن GOFAI واجه صعوبات مع الإدراك، الحس السليم، والتعامل مع بيانات العالم الواقعي الفوضوية. استطاعت الأنظمة حلّ الألغاز المنطقية لكنها فشلت في مهام يجدها طفل بسيطة. هذا الفجوة أدت إلى فصول جفاف في البحث ونظرة أكثر حذراً للـ AGI.
مع نمو البيانات والحوسبة، تحوّل الذكاء الاصطناعي من القواعد المكتوبة يدويًا إلى التعلّم من الأمثلة. أعاد التعلم الإحصائي ثم التعلم العميق تعريف التقدّم: بدلاً من ترميز المعرفة، تتعلم الأنظمة الأنماط من مجموعات بيانات ضخمة.
محطات مثل DeepBlue وAlphaGo احتُفي بها كخطوات نحو الذكاء العام. في الواقع، كانت متخصّصة للغاية: كل واحدة أتقنت لعبة واحدة بقواعد ثابتة، دون نقل إلى التفكير اليومي.
سلسلة GPT مثلت قفزة دراماتيكية أخرى، هذه المرة في اللغة. GPT-3 وGPT-4 يستطيعا صياغة مقالات، وكتابة شيفرة، وتقليد أساليب، مما غذّى التكهنات بأن AGI يقترب.
مع ذلك، هذه النماذج لا تزال متعلّمات للأنماط على النص. لا تشكّل أهدافًا، ولا تبني نماذجٍ مؤسّسة للعالم، ولا توسّع قدراتها باستقلاليّة.
عبر كل موجة—الذكاء الرمزي، التعلم الإحصائي التقليدي، التعلم العميق، والآن نماذج اللغة الكبيرة—حُلِم بالـ AGI على أثر إنجازات ضيّقة ثم أعيد تفسير الحلم عندما ظهرت حدودها.
نماذج اللغة الكبيرة متعلّمات أنماط مدرّبات على مجموعات هائلة من النصوص: كتب، مواقع، شيفرات، منتديات، والمزيد. هدفها بسيط بشكل مضلّل: بالنظر إلى نص معين، توقع أي توكن (وحدة نصية صغيرة) من المرجح أن يأتي بعده.
قبل التدريب، يُقسّم النص إلى توكنات: قد تكون كلمات كاملة ("قطة"), أجزاء كلمات ("مثير", "-ة"), أو حتى علامات ترقيم. أثناء التدريب، يرى النموذج مرارًا تسلسلات مثل:
"جلست القطة على الـ ___"
ويتعلّم إعطاء احتمال عالٍ للتوكنات المحتملة ("حصيرة"، "أريكة") واحتمال منخفض لتوكنات غير معقولة ("الرئاسة"). هذا العملية، المطبّقة على تريليونات التوكنات، تشكّل مليارات المعاملات الداخلية.
تحت الغطاء، النموذج دالة كبيرة تحوّل تسلسلاً من التوكنات إلى توزيع احتمالات على التوكن التالي. التدريب يستخدم هبوط التدرّج لتعديل المعاملات تدريجيًا بحيث تصبح التنبؤات أقرب إلى أنماط البيانات.
"قوانين التكبير" تصف انتظامًا لاحظه الباحثون: عندما تزيد حجم النموذج، حجم البيانات، والحوسبة، يتحسّن الأداء بطريقة متوقعة. النماذج الأكبر المدربة على مزيد من النص عادة ما تكون أفضل في التنبؤ—حتى حدود عملية من حيث توفر البيانات والحوسبة واستقرار التدريب.
نماذج اللغة لا تخزن حقائق مثل قاعدة بيانات ولا تستدل مثل إنسان. إنما تُشفّر انتظامات إحصائية: أي الكلمات والعبارات والبنى تميل إلى الظهور معًا، وفي أي سياقات.
لا تملك مفاهيم مؤسّسة بالحس أو التجربة الفيزيائية. يمكن للنموذج أن يتحدّث عن "الأحمر" أو "الثقيل" فقط عبر كيف استُخدمت تلك الكلمات في النص، لا عبر رؤية الألوان أو رفع الأشياء.
هذا سبب أن النماذج قد تبدو عارفة لكنها ترتكب أخطاء واثقة: فهي تمتدّ الأنماط، لا تستشير نموذجًا صريحًا للواقع.
التدريب المسبق هو المرحلة الطويلة الأولى حيث يتعلّم النموذج أنماط اللغة العامة بتوقع التوكن التالي على مجموعات نصية ضخمة. هنا تتبلور معظم القدرات.
بعد ذلك، التخصيص يكيِّف النموذج ما بعد التدريب لأهداف أضيق: اتباع التعليمات، كتابة الشيفرة، الترجمة، أو المساعدة في مجالات محددة. يُعرض النموذج أمثلة منسقة للسلوك المرغوب ويُعدَّل قليلاً.
التعلّم التعزيزي من ملاحظات البشر (RLHF) يضيف طبقة أخرى: يقيم البشر المخرجات أو يقارنون بينها، ويُحسّن النموذج ليعطي استجابات يفضّلها الناس (أكثر فائدة، أقل ضررًا، أكثر صدقًا). RLHF لا يمنح النموذج حواسًا جديدة أو فهمًا أعمق؛ إنما يشكّل كيف يعرض ويصف ما تعلّمه بالفعل.
معًا، تخلق هذه الخطوات أنظمة جيدة جدًا في توليد نصّ فصيح بالاستفادة من الأنماط الإحصائية—دون امتلاك معرفة مؤسّسة، أهداف، أو وعي.
تبدو نماذج اللغة رائعة لأنها يمكن أن تؤدي طيفًا واسعًا من المهام التي كانت تبدو بعيدة المنال للحواسيب.
يمكن لنماذج اللغة توليد مقتطفات شيفرة عاملة، إعادة هيكلة الشيفرة الموجودة، وحتى شرح مكتبات غير مألوفة بلغة بسيطة. للعديد من المطورين، تعمل كمبرمِج مرافق كفؤ: تقترح حالات حافة، تكتشف أخطاء واضحة، وتبني هياكل وحدات كاملة.
كما أنها تتفوّق في التلخيص. مع مستند طويل، يمكن للنموذج اختزاله إلى نقاط رئيسية، تمييز عناصر العمل، أو تكييف النغمة لجمهور مختلف.
والمترجمة أيضًا من مواطن القوة. تعالج النماذج الحديثة عشرات اللغات، غالبًا باقتناص فروق النمط والسجل بما يكفي للتواصل المهني اليومي.
مع التكبير، تبدو قدرات جديدة "تظهر من العدم": حل أحاجي منطقية، اجتياز امتحانات مهنية، أو اتباع تعليمات متعددة الخطوات فشلت النسخ السابقة فيها. في اختبارات معيارية—مسائل رياضيات لفظية، أسئلة نقض القانون، اختبارات طبية—تصل النماذج المتقدمة الآن إلى أو تتجاوز معدلات البشر المتوسطة.
هذه السلوكيات الناشئة تُغر الناس ليقولوا إن النماذج "تفكر" أو "تفهم" مثل البشر. رسوم الأداء ولوائح الترتيب تعزز فكرة أننا نقترب من الذكاء العام.
تُدرّب النماذج لاستكمال النص بطرق تتوافق مع الأنماط المرصودة. هذا الهدف، مع الحجم، يكفي لمحاكاة الخبرة والفاعلية: تبدو واثقة، تتذكّر سياق الجلسة، وتبرّر إجاباتها بسلاسة.
لكن هذا وهم الفهم. النموذج لا يعرف ما ستفعله الشيفرة عند تنفيذها، ولا ما يعنيه تشخيص طبي لمريض، ولا ما العواقب الفعلية لخطة. لا يملك تأريضًا في العالم خارج النص.
الأداء القوي في اختبارات—even المصممة للبشر—لا يعني تلقائيًا AGI. إنه يبيّن أن التعلّم النمطي على نصوص ضخمة يمكن أن يحاكي مهارات متخصّصة، لكنه لا يثبت الذكاء المرن المؤسّس عبر المجالات الذي يعنيه عادةً "الذكاء الاصطناعي العام".
نماذج اللغة الكبيرة متقنة في التنبؤ بالنص، لكن هذا التصميم نفسه يخلق حدودًا صعبة لما يمكن أن تكون عليه.
النماذج لا ترى ولا تسمع ولا تتحرّك أو تتلاعب بالأشياء. تواصلها الوحيد مع العالم هو عبر النص (وفي بعض النماذج الأحدث عبر صور ثابتة أو مقاطع قصيرة). لا تملك تدفقًا حسّيًا مستمرًا، ولا جسدًا، ولا وسيلة للعمل ومراقبة النتائج.
بدون حسّ وتجسّد، لا يمكنها تكوين نموذج مؤسّس ومحدّث باستمرار للواقع. كلمات مثل "ثقيل" أو "لزج" أو "قابل للكسر" مجرد جيران إحصائيون في النص، ليست قيودًا مُختبرة تجربياً. هذا يسمح بمحاكاة فهم قوية، لكنه يقيّدها على إعادة تركيب الأوصاف الماضية بدلًا من التعلّم من التفاعل المباشر.
لأن النموذج مُدرّب على إكمال تسلسل التوكنات، فهو يُنتج الاستمرارية التي تتناسب مع أنماطه المتعلّمة، ليس بالضرورة الصحيحة. عندما تكون البيانات قليلة أو متضاربة، يملأ الفراغات باختراعات مقنعة.
النموذج أيضًا يفتقر إلى حالة اعتقاد دائمة. كلّ استجابة تُولَّد حديثًا من المطالبة والأوزان؛ لا توجد دفاتر داخلية دائمة لِـ "المعتقدات التي أحتفظ بها". ميزات الذاكرة طويلة الأمد تُضاف خارجيًا، لكن النظام الأساسي لا يراجع معتقداته كما يفعل البشر.
تدريب النموذج عملية دفعة غير متصلة ومكلفة مواردياً. عادةً ما يعني تحديث معرفته إعادة تدريب أو تخصيص على مجموعة بيانات جديدة، لا تعلّمًا سلسًا من كل تفاعل.
هذا يخلق حدًا مهمًا: لا يمكن للنموذج متابعة التغيرات السريعة في العالم بثقة، أو تكييف مفاهيمه استنادًا إلى الخبرة الجارية، أو تصحيح مفاهيم خاطئة عميقة عبر تعلّم تدريجي خطوة بخطوة. في أحسن الأحوال، يحاكي هذا التكيّف بإعادة صياغة المخرجات على ضوء مطالبات حديثة أو أدوات مرفقة.
نماذج اللغة تتقن التقاط الانتظامات الإحصائية: أي الكلمات تترافق، أي الجمل عادةً ما تتبع أخرى، كيف تبدو التفسيرات. لكن هذا ليس مرادفًا لفهم كيف ولماذا يعمل العالم.
الفهم السببي يتضمن صياغة فرضيات، التدخل، ملاحظة ما يتغير، وتحديث النماذج الداخلية عند فشل التنبؤات. متنبِّئ نصي بحت ليس لديه وسيلة مباشرة للتدخل أو لتجربة المفاجأة. يمكنه وصف تجربة لكنه لا يستطيع إجرائها. يمكنه ترديد لغة سببية لكنه يفتقر إلى آلية داخلية مرتبطة بالأفعال والنتائج.
طالما بقي النظام محصورًا في توقع النص من نصٍ سابق، يظل أساسًا متعلّمًا للأنماط. يمكنه تقليد الاستدلال، وسرد الأسباب، والتظاهر بأنه يراجع وجهات نظره، لكنه لا يعيش في عالمٍ مشترك تُختبر فيه "معتقداته" بالعواقب. تلك الفجوة مركزية لِـ لماذا إتقان اللغة وحده من غير المرجح أن يؤدي إلى الذكاء الاصطناعي العام.
اللغة واجهة قوية للذكاء، لكنها ليست مادة الذكاء بحد ذاتها. النظام الذي يتنبأ بجمل معقولة يختلف اختلافًا جوهريًا عن وكيلٍ يفهم ويخطط ويتصرف في العالم.
البشر يتعلّمون المفاهيم عبر الرؤية واللمس والحركة والتلاعب. "كوب" ليس مجرد كيفية استخدام الكلمة في الجمل؛ إنه شيء يمكنك الإمساك به، ملؤه، إسقاطه أو كسره. يسمي علماء النفس هذا التأريض: ربط المفاهيم بالإدراك والفعل.
من المرجح أن يحتاج ذكاء اصطناعي عام إلى تأريض مشابه. لكي يعمم باطمئنان، يجب أن يربط الرموز (مثل الكلمات أو التمثيلات الداخلية) بدورات منتظمة ومستقرة في العالم الفيزيائي والاجتماعي.
نماذج اللغة التقليدية تتعلم من النص وحده. "فهمها" للكوب إحصائي بحت: ترابط الكلمات عبر مليارات الجمل. هذا قوي للمحادثة والترميز، لكنه هشّ خارج أنماط النص المألوفة، خصوصًا في المجالات التي تعتمد على التفاعل المباشر.
يتضمن الذكاء العام أيضًا استمرارية عبر الزمن: ذاكرة طويلة الأمد، أهداف مستمرة، وتفضيلات مستقرة نسبيًا. البشر يجمّعون الخبرات، يراجعون معتقداتهم، ويتابعون مشاريع عبر أشهر وسنوات.
نماذج اللغة لا تملك ذاكرة داخلية متأصلة لتفاعلاتها ولا أهدافًا جوهرية. أي استمرارية أو "شخصية" تُضاف خارجيًا عبر أدوات (قواعد بيانات، ملفات تعريف، مطالبات نظام). افتراضيًا، كل استعلام هو تمرين جديد في مطابقة الأنماط، ليس خطوة في تاريخ حياة مترابط.
غالبًا ما يُعرّف AGI بقدرته على حل نطاق واسع من المهام، بما في ذلك الجديدة منها، عبر التفكير في السبب والنتيجة والتدخل في البيئة. هذا يعني:
نماذج اللغة ليست وكلاء؛ هي تولّد التوكن التالي في تسلسل. يمكنها وصف خطط أو الحديث عن السببية لأن مثل هذه الأنماط موجودة في النصّ، لكنها لا تنفّذ إجراءات بطبيعتها، ولا تراقب العواقب، ولا تعدّل نماذجها الداخلية بناءً على التجربة.
لتحويل LLM إلى نظام فاعل، يجب على المهندسين تغليفه بمكوّنات خارجية للإدراك والذاكرة واستخدام الأدوات والتحكّم. يظل نموذج اللغة وحدة قوية للاقتراح والتقييم، لا وكيلًا ذكيًا عامًا قائمًا بذاته.
باختصار، الذكاء العام يتطلب مفاهيم مؤسّسة، دوافع مستمرة، نماذج سببية، وتفاعل تكيفي مع العالم. إتقان اللغة—رغم فائدته الكبيرة—هو جزء واحد فقط من تلك الصورة الأكبر.
عندما تتحاور مع نموذج طليق، يبدو طبيعيًا افتراض وجود عقل على الجانب الآخر. الوهم قوي، لكنه وهم.
يتباين الباحثون حول ما إذا كان الذكاء الاصطناعي العام يجب أن يكون واعيًا.
ليس لدينا بعد نظرية قابلة للاختبار تحسم هذا الأمر. لذا من السابق لأوانه إعلان أن AGI يجب أو لا يجب أن يكون واعيًا. المهم الآن هو الوضوح بشأن ما تنقصه نماذج اللغة الحالية.
نموذج اللغة الكبير متنبئ إحصائي يعمل على لقطة من النص. لا يحمل هوية ثابتة عبر الجلسات أو حتى عبر الأدوار، إلا كما تُشفّر في المطالبة والسياق قصير المدى.
عندما يقول النموذج "أنا" فهو يتبع مجازات لغوية تعلمها من البيانات، لا يشير إلى ذات داخلية.
الكائنات الواعية لها تجارب: تشعر بالألم، بالملل، بالفضول، بالرضا. ولها دوافع داخلية واهتمامات—أشياء تهمها مستقلّة عن المكافآت الخارجية.
النماذج، بالمقابل:
سلوكها ليس تعبيرًا عن حياة داخلية بل نتيجة مطابقة أنماط النص وفق التدريب والمطالبة.
لأن اللغة هي نافذتنا الأساسية على العقول الأخرى، فإن الحوار الطليق يوحى جدًا بالشخصية. لكن مع نماذج اللغة، هذا هو المكان الذي نُضلّ فيه بسهولة.
التشخيص الخاطئ قد يؤدي إلى:
التعامل مع نماذج اللغة كأشخاص يطمس الخطّ بين المحاكاة والواقع. للتفكير بوضوح في AGI—وفي مخاطر الذكاء الاصطناعي الحالية—علينا تذكّر أن الأداء المقنع للشخصية ليس هو ذاته الشخص.
لو بنينا AGI يومًا، كيف سنعرف أنه الحقيقي وليس مجرد روبوت محادثة مقنع جدًا؟
اختبارات على طريقة تورينج. اختبارات تورينج الكلاسيكية والحديثة تسأل: هل يمكن للنظام مواصلة محادثة بشرية لدرجة يخدع الناس؟ نماذج اللغة تفعل هذا جيدًا بالفعل، ما يبيّن ضعف هذا المعيار. مهارة الدردشة تقيس الأسلوب لا عمق الفهم أو التخطيط أو الكفاءة الواقعية.
تقييمات على طريقة ARC. المهام المستوحاة من مركز أبحاث المحاذاة (ARC) تركز على أحاجٍ منطقية جديدة، تعليمات متعددة الخطوات، واستخدام الأدوات. تختبر ما إذا كان النظام يستطيع حل مشكلات لم يرها من قبل عبر تركيب مهارات جديدة. يمكن لنماذج اللغة أداء بعض هذه المهام—لكن غالبًا تحت مطالبات مُهيكلة بعناية، وأدوات خارجية، وإشراف بشري.
اختبارات الوكالة. اختبارات تقترحها تقيّم ما إذا كان النظام يلاحق أهدافًا مفتوحة المدى عبر الزمن: تقسيمها إلى أهداف فرعية، مراجعة الخطط، التعامل مع انقطاعات، والتعلّم من النتائج. أنظمة LLM الوكيلة الحالية قد تظهر وكأنها فاعلة، لكن خلف الكواليس تعتمد على نصوص هشة وتصاميم هندسية.
لنعتبر شيئًا AGI حقيقيًا، سنريد على الأقل رؤية:
الاستقلالية. يجب أن يحدد النظام أهدافًا فرعية بإدارة نفسه، يراقب التقدم، ويتعافى من الفشل دون توجيه بشري مستمر.
النقل عبر المجالات. يجب أن تنتقل المهارات المتعلّمة في مجال واحد بسلاسة إلى مجالات مختلفة جدًا، دون إعادة تدريب على ملايين الأمثلة.
الكفاءة الواقعية. يجب أن يخطّط ويتصرّف في بيئات فوضوية وغير مؤكدة—مادية واجتماعية ورقميّة—حيث القواعد ناقصة والعواقب حقيقية.
نماذج اللغة، حتى عند تغليفها إطارًا وكلائيًا، عادةً:
اجتياز اختبارات الدردشة، أو حتى مجموعات معيارية ضيّقة، لا يكفي. التعرّف على AGI الحقيقي يعني النظر إلى ما وراء جودة الحوار إلى الاستقلالية المستدامة، والتعميم بين المجالات، والعمل الموثوق في العالم—مجالات لا تزال فيها نماذج اللغة تحتاج تدعيمًا واسعًا لتحقق نتائج جزئية وهشة.
إذا أخذنا AGI على محمل الجد، فـ "نموذج نص كبير" هو مجرد مكوّن، لا النظام النهائي. معظم الأبحاث الحالية التي تُسوّق كـ "نحو AGI" هي في الواقع عن تغليف LLMs داخل بنى أوسع.
اتجاه رئيسي هو وكلاء مبنيون حول LLM: أنظمة تستخدم LLM كنواة للتفكير والتخطيط لكن تحيط به:
هنا يتوقف LLM عن كونه "الذكاء" كلّه ويصبح واجهة لغوية مرنة داخل آلة قرار أوسع.
الأنظمة التي تستخدم الأدوات تتيح لـ LLM استدعاء محركات بحث، قواعد بيانات، مفسّرات شيفرة، أو واجهات متخصصة. يساعدها ذلك في:
هذا "لصق" يصلح بعض نقاط ضعف التعلم النصي فقط، لكنه يحوّل المشكلة: تصبح ذكاء النظام الإجمالي رهينة بالتنسيق وتصميم الأدوات لا بجودة النموذج وحده.
مسار آخر هو نماذج متعددة الأنماط التي تعالج نصًا وصورة وصوتًا وفيديو وبيانات حسّية أحيانًا. تقترب أكثر من كيفية دمج البشر للإدراك واللغة.
خطوة أبعد: LLMs تتحكّم في روبوتات أو أجسام محاكاة. يمكن لهذه الأنظمة الاستكشاف، الفعل، والتعلّم من ردود الفعل الفيزيائية، مما يعالج بعض الفجوات المتعلقة بالسببية والفهم المؤسّس.
كل هذه المسارات قد تقربنا من قدرات شبيهة بالـ AGI، لكنها تغيّر هدف البحث. لم نعد نسأل فقط "هل يمكن أن يكون LLM وحده AGI؟" بل نسأل "هل يمكن لنظام معقّد يتضمّن LLM وأدوات وذاكرة وإدراك وتجسّد أن يقرّبنا من الذكاء العام؟"
هذا الفرق مهم. LLM وحدة توقع نص قوية. AGI—إن وُجدت—ستكون نظامًا متكاملًا، تكون اللغة جزءًا منه فقط.
وصف نماذج اللغة الحالية بأنها "AGI" ليس مجرد خطأ لفظي. يشوّه الحوافز، يخلق نقاط عمى أمنية، ويُشوّش صانعي القرار.
عندما تُعرض العروض التقديمية كـ "AGI مبكرة"، ترتفع التوقعات بعيدًا عن قدرات الأنظمة الفعلية. لذلك:
إذا اعتقد المستخدمون أنهم يتحدّثون إلى شيء "عام" أو "قريب من البشري"، فغالبًا ما:
الإفراط في الثقة يجعل الأخطاء العادية أكثر خطورة.
صناع السياسات والجمهور العام يكافحون مع تتبّع قدرات الذكاء الاصطناعي. عندما يُسوّق كل إكمال قوي كنقطة انطلاق للـ AGI، تتبع نتائج:
مصطلحات واضحة—"LLM"، "نموذج ضيّق"، "اتجاه أبحاث AGI"—تساعد في مواءمة التوقعات مع الواقع. دقة التعبير تدعم:
نماذج اللغة آلات نمطية استثنائية: تضغط كميات هائلة من النص إلى نموذج إحصائي وتتنبّأ بالإكمال المحتمل. هذا يجعلها قوية للمساعدة في الكتابة، ترميز الدعم، استكشاف البيانات، ونمذجة الأفكار. لكن هذه البنية تظل ضيّقة. لا توفر ذاتًا مستمرة، فهمًا مؤسّسًا للعالم، أهدافًا بعيدة المدى، أو التعلم المرن عبر المجالات الذي يحدده AGI.
نماذج اللغة:
هذه الحدود البنيوية توضح لماذا رفع حجم نماذج النص وحده من غير المرجح أن يؤدي إلى AGI حقيقي. يمكنك الحصول على طلاقة أفضل، واستدعاء معرفة أوسع، ومحاكاة استدلال مثيرة—لكن ليس نظامًا يعرف أو يريد أو يهتم بالفعل.
استخدمها حيث يبرع توقع النمط:
أبقِ إنسانًا في الحلقة لـ:
عامل المخرجات كافتراضات يجب فحصها وليس حقائق يجب الوثوق بها.
وصف نماذج اللغة بأنها "AGI" يخفي حدودها الحقيقية ويدعو إلى الإفراط في الاعتماد، والارتباك التنظيمي، والمخاوف المضللة. من الأصدق والأكثر أمانًا رؤيتها كمساعدين متقدّمين مدمجين في سير عمل بشري.
إذا أردت التعمّق في الاستخدامات العملية والمقايضات، استكشف مقالات ذات صلة على /blog. للتفاصيل حول كيفية تعبئتنا وتسعيرنا للأدوات المدعومة بـ LLM، انظر /pricing.
AGI (الذكاء الاصطناعي العام) يشير إلى نظام قادر على:
قاعدة عامة تقريبية: يمكن لـ AGI، من حيث المبدأ، تعلّم أي وظيفة ذهنية تتطلب قدرة بشرية إن أعطي وقتًا وموارد، من دون حاجة إلى بنية مخصصة لكل مهمة جديدة.
تُدرَّب نماذج اللغة الكبيرة الحديثة أساسًا على نصوص (وأحيانًا رمز أو صور أو صوت) وتهدف إلى توقع التوكن التالي في تسلسل.
هي تفتقر إلى الإدراك الحسي، والجسد، والأهداف الجوهرية، والذاكرة الدائمة.
يمكنها محاكاة معرفة واسعة وقدرة على الاستدلال لأن اللغة تُجسّد خبرة بشرية كبيرة. لكن هذه النماذج:
لذلك، نماذج اللغة الكبيرة هي متعلّمون نمطيّون ضيّقو النطاق في اللغة، وليست عوامل ذكية عامة قائمة بذاتها.
الناس يخلطون بين الطلاقة اللغوية والذكاء العام لأن:
هذا يولّد وهمًا بالفهم والفاعلية. النظام الأساسيَ هو لا يزال "فقط" متنبئًا للنص بناءً على أنماط في البيانات، لا بانيًا وناظمًا لنموذجٍ مؤسّسٍ للعالم بهدف متابعة غاياته الخاصة.
يمكن تصور نموذج اللغة الكبير كالتالي:
نقاط رئيسية:
نماذج اللغة جيدة عندما تكون المهمة في الأساس توقع نمط عبر نص أو رمز، مثل:
تتعرّض لصعوبات أو تصبح خطرة عندما تتطلّب المهمة:
قوانين القياس تُظهر أن زيادة الحجم والبيانات والحوسبة تحسّن الأداء على العديد من المقاييس. لكن التكبير وحده لا يُصلح فجوات هيكلية مثل:
المزيد من الحجم يعطي:
لكنه لا يولّد تلقائيًا ذكاءً عامًا مستقلًا. مطلوب مكوّنات معمارية وتصميمات نظامية جديدة.
استخدم نماذج اللغة كمساعدين أقوياء، لا كسلطة نهائية:
صمّم منتجاتك وعملياتك بحيث:
تسمية نماذج اللغة الحالية "AGI" تولّد مشاكل عملية:
لغة دقيقة—"LLM"، "نموذج ضيق"، "نظام وكيل يستخدم LLMs"—تساعد على مواءمة التوقعات مع القدرات والمخاطر الحقيقية.
معايير معقولة تتجاوز جودة المحادثة. سنطلب دلائل مثل:
الباحثون يستكشفون أنظمة أوسع حيث تكون نماذج اللغة مكوّنات وليست كل الذكاء، على سبيل المثال:
هذه المسارات تقربنا من الذكاء العام بإضافة التأريض والسببية والحالة المستمرة. كما أنها تغيّر السؤال من "هل يمكن لـ LLM وحدها أن تصبح AGI؟" إلى "هل يمكن للأنظمة المعقّدة التي تتضمّن LLMs تحقيق سلوك شبيه بالـ AGI؟"
كل ما يبدو منه كـ "استدلال" أو "ذاكرة" ينشأ من هدف توقع التوكن التالي مضافًا إلى الحجم والتخصيص، لا من منطق رمزي صريح أو متجر معتقدات دائم.
في هذه المجالات يجب إبقاء إنسان في الحلقة واستخدام أدوات خارجية (بحث، حاسبات، محاكيات) للتحقق.
النماذج الحالية، حتى مع هياكل وكيلية، تحتاج إلى برمجة مكثّفة وتنظيم أدوات لتقليد هذه السلوكيات، وتظل هشة من حيث المتانة والعمومية.