استكشف أفكار يان ليكون الرئيسية ومعالمه — من الشبكات الالتفافية وLeNet إلى التعلّم الذاتي الإشراف — ولماذا لا تزال أعماله تشكّل الذكاء الاصطناعي اليوم.

يان ليكون هو أحد الباحثين الذين تحوّلت أفكارهم بشكل هادئ إلى "الإعدادات الافتراضية" للذكاء الاصطناعي الحديث. إذا استخدمت ميزة فتح الهاتف بأسلوب Face ID، أو وسم الصور تلقائيًا، أو أي نظام يتعرّف على محتوى صورة، فأنت تتعامل مع اختيارات تصميم ساعد يان ليكون في إثبات جدواها على نطاق واسع.
لا يقتصر تأثير ليكون على اختراع واحد. لقد ساعد في دفع عقلية هندسية عملية إلى مجال الذكاء الاصطناعي: أنشئ أنظمة تتعلم تمثيلات مفيدة من بيانات حقيقية، تعمل بكفاءة، وتتحسن مع الخبرة. ذلك المزيج—الوضوح العلمي مع الإصرار على الأداء في العالم الحقيقي—يظهر في كل شيء من منتجات رؤية الحاسوب إلى خطوط أنابيب تدريب النماذج اليوم.
التعلّم العميق نهج واسع: استخدام شبكات عصبية متعددة الطبقات لتعلّم الأنماط من البيانات بدلًا من ترميز القواعد يدويًا.
التعلّم الذاتي الإشراف هو استراتيجية تدريب: يبتكر النظام مهمة تعليمية من البيانات نفسها (مثلاً، التنبؤ بالأجزاء المفقودة)، فيتعلم من كميات هائلة من المعلومات غير المعنونة. كان ليكون من كبار المدافعين عن التعلّم الذاتي لأنّه يتماشى أفضل مع كيفية تعلّم البشر والحيوانات—من خلال الملاحظة، لا التعليم المستمر.
هذا المقال جزء منه سيرة ذاتية وجزء جولة في الأفكار الأساسية: كيف أدّت الأعمال المبكرة على الشبكات العصبية إلى الشبكات الالتفافية، لماذا أصبح تعلّم التمثيلات مركزيًا، ولماذا يُعَدّ التعلّم الذاتي الآن مسارًا جديًا نحو ذكاء اصطناعي أكثر قدرة. سنختم بخلاصات عملية للفرق التي تبني أنظمة ذكاء اصطناعي اليوم.
ملاحظة سريعة عن لقب "عرّاب التعلّم العميق": هو اختصار شائع (يُطبّق غالبًا على ليكون، جيفري هينتون، ويوشوا بنجيو)، وليس لقبًا رسميًا. المهم هو سجل الأفكار التي أصبحت أسُسًا.
من الأسهل فهم مسيرة يان ليكون المبكرة على أنّها رهان ثابت على فكرة واحدة: يجب أن يتعلّم الحاسوب السمات الصحيحة من البيانات الخام بدلًا من الاعتماد على تصميم بشري لها.
في منتصف أواخر الثمانينيات ركّز ليكون على مشكلة عملية ومثابرة: كيف نجعل الآلات تتعرّف على أنماط في مداخل العالم الحقيقي المتسخة مثل الصور.
بحلول أواخر الثمانينيات وبدايات التسعينيات، كان يدفع بطرق الشبكات العصبية التي يمكن تدريبها شاملة من البداية إلى النهاية—أي أن تدخل الأمثلة ويضبط النظام نفسه ليصبح أفضل.
هي الفترة التي مهدت للعمل الذي عُرف لاحقًا (مثل الشبكات الالتفافية وLeNet)، لكن القصة الأساسية هي العقلية: توقف عن الجدال حول القواعد؛ ابدأ بالتعلّم من البيانات.
كان الكثير من الذكاء الاصطناعي السابق يحاول ترميز الذكاء كقواعد صريحة: "إذا X، إذن Y." هذا قد ينجح في حالات مضبوطة بعناية، لكنه ينهار عندما يكون العالم ضوضائيًا—خطوط مكتوبة بخطوط مختلفة، تغيّر الإضاءة في الصور، أو تحولات طفيفة في زاوية المشهد.
نهج ليكون مال إلى التعلّم الإحصائي: درّب نموذجًا على أمثلة كثيرة، ودعه يكتشف أنماطًا قد يعجز البشر حتى عن وصفها بدقة. بدلًا من بناء قائمة طويلة من القواعد لما يبدو أن الرقم "7"، قدّم للنظام آلاف الأمثلة، ويتعلّم تمثيلًا يفصل "7" عن "1" و"2" وما إلى ذلك.
حتى في وقت مبكر، لم يكن الهدف مجرد "الحصول على الإجابة الصحيحة". بل كان تعلّم تمثيلات داخلية مفيدة—سمات مُضغوطة وقابلة لإعادة الاستخدام تجعل القرارات المستقبلية أسهل. هذا الموضوع يمرّ عبر كل ما فعله لاحقًا: نماذج رؤية أفضل، تدريب أكثر قابلية للتوسع، ودفع نحو التعلّم الذاتي.
الشبكات الالتفافية نوع من الشبكات العصبية مصمّم لـ"رؤية" الأنماط في بيانات تشبه الصورة (أو أي شيء مُرتّب على شبكة، مثل إطارات الفيديو). الحيلة الأساسية هي الالتفاف.
فكّر في الالتفاف ككاشف نمط صغير ينزلق عبر الصورة. في كل موضع، يسأل: "هل أرى شيئًا يشبه حافة، زاوية، خطًّا، أو نسيجًا هنا؟" يُعاد استخدام نفس الكاشف في كل الأماكن، لذلك يمكنه رصد ذلك النمط بغض النظر عن موضعه.
الاتصال المحلي: ينظر كل كاشف إلى رقعة صغيرة (ليس الصورة كلها). هذا يُسهل التعلّم لأن البكسلات القريبة عادةً ما تكون مترابطة.
المعلمات المشتركة: يستخدم الكاشف المنزلق نفس القيم (المعلمات) في كل موقع. هذا يقلّل كثيرًا عدد المعلمات ويساعد النموذج على التعرف على نفس الميزة في أماكن مختلفة.
التجميع (أو التخفيض): بعد اكتشاف السمات، غالبًا ما يلخّص الشبكة الاستجابات القريبة (مثل أخذ القيمة العظمى أو المتوسط). يساعد التجميع في الحفاظ على أقوى الإشارات، تقليل الحجم، وإضافة بعض التسامح حتى لا تكسر التحولات الصغيرة عملية التعرف.
الصور لها بنية: البكسلات القريبة تشكل أشكالًا ذات معنى؛ نفس الكائن يمكن أن يظهر في أي مكان؛ والأنماط تتكرر. الشبكات الالتفافية تدخل هذه الافتراضات في البنية المعمارية، فتتعلم سمات بصرية مفيدة ببيانات وموارد حسابية أقل من الشبكة الموصولة بالكامل.
ليست الشبكة الالتفافية "مجرد مصنّف كبير". هي أنبوب لبناء السمات: الطبقات المبكرة تجد حوافًا، والطبقات الوسطى تجمعها إلى أجزاء، والطبقات اللاحقة تجمّع الأجزاء إلى كائنات.
أيضًا، الشبكات الالتفافية لا "تفهم" المشاهد بالمعنى البشري؛ إنها تتعلم مؤشرات إحصائية من بيانات التدريب. لهذا السبب جودة البيانات والتقييم مهمة بقدر أهمية النموذج نفسه.
LeNet مثال مبكّر واضح على أن التعلّم العميق يكون مفيدًا، وليس مجرد مثير للاهتمام. طوره يان ليكون وزملاؤه في التسعينيات للتعرّف على الأحرف المكتوبة بخط اليد—وخاصة الأرقام—كما في الشيكات والنماذج والوثائق الممسوحة ضوئيًا.
على مستوى عالٍ، أخذ LeNet صورة (مثل قصّة رمادية صغيرة تحتوي رقمًا) وأنتج تصنيفًا (0–9). هذا يبدو عاديًا الآن، لكنه كان مهمًا لأنه ربط كامل خط الأنابيب: استخراج السمات و التصنيف كشيء يتعلّمه النظام معًا.
بدلًا من الاعتماد على قواعد مصمَّمة يدويًا—مثل "اكتشاف الحواف، ثم قياس الحلقات، ثم تطبيق شجرة قرار"—تعلم LeNet السمات البصرية الداخلية مباشرة من أمثلة معنونة.
لم يكن تأثير LeNet مبنيًا على عروض براقة. كان مؤثرًا لأنه أظهر أن النهج الشامل للتعلّم يمكن أن ينجح في مهام رؤية حقيقية:
فكرة "تعلم السمات والمصنّف معًا" هذه هي خيط رئيسي يصل إلى نجاحات التعلّم العميق اللاحقة.
تُرى عادات كثيرة تبدو طبيعية اليوم في فلسفة LeNet الأساسية:
مع أن النماذج الحديثة تستخدم بيانات أكثر وحوسبة أضخم وبُنى أعمق، ساعد LeNet على تطبيع فكرة أن الشبكات العصبية يمكن أن تكون أدوات هندسية عملية—خاصة لمشكلات الإدراك.
من المفيد الحفاظ على تواضع الادعاء: لم تكن LeNet "أول شبكة عميقة" بالضرورة، ولم تسبّب بمفردها اندلاع موجة التعلّم العميق. لكنّها علامة بارزة معترف بها على نطاق واسع تُظهر أن التمثيلات المتعلّمة قادرة على التفوق على خطوط أنابيب مصممة يدويًا في مشكلة عملية ومهمّة—قبل سنوات من انتشار التعلّم العميق.
تعلّم التمثيلات هو الفكرة القائلة بأن النموذج لا يجب أن يتعلّم نتيجة نهائية فقط (مثل "قطة" مقابل "كلب")—بل يجب أن يتعلّم سمات داخلية مفيدة تجعل كثيرًا من القرارات أسهل.
تخيل ترتيب خزانة فوضوية. يمكنك وضع لاصق على كل غرض على حدة ("قميص أزرق"، "معطف شتوي"، "حذاء رياضي"). أو يمكنك أولًا إنشاء فئات تنظيمية—حسب الموسم، حسب النوع، حسب المقاس—ثم استخدامها لإيجاد ما تحتاجه بسرعة.
التمثيل الجيد مثل هذه الفئات: طريقة مضغوطة لوصف العالم تُسهّل العديد من المهام اللاحقة.
قبل التعلّم العميق، كان الفريق يبتكر السمات يدويًا: كاشفات حواف، وواصفات نسيج، وقياسات مضبوطة. هذا النهج يعمل لكنه له حدّان كبيران:
المساهمة المركزية لليكون—التي شاعها من خلال الشبكات الالتفافية—كانت إثبات أن تعلم السمات مباشرة من البيانات يمكن أن يتفوق على خطوط الأنابيب المصممة يدويًا، خاصة حين تصبح المشكلات فوضوية ومتنوِّعة. بدلًا من إخبار النظام بما يبحث عنه، دعه يكتشف الأنماط التي لها قدرة تنبؤية فعلية.
بمجرد أن يتعلم نموذج تمثيلاً قويًا، يمكنك إعادة استخدامه. شبكة مدرّبة لفهم البنية البصرية العامة (حواف → أشكال → أجزاء → كائنات) يمكن تكييفها لمهام جديدة ببيانات أقل: كشف العيوب، تصنيف فحوصات طبية، مطابقة المنتجات، والمزيد.
هذه السحر العملي للتمثيلات: لست تبدأ من الصفر في كل مرة—أنت تبني على "فهم" قابل لإعادة الاستخدام للمدخل.
إذا كنت تبني ذكاء اصطناعي ضمن فريق، يقترح تعلّم التمثيلات ترتيب أولويات بسيطًا:
اضبط هذه الثلاثة جيدًا، وتميل التمثيلات الأفضل—والأداء الأفضل—للظهور.
التعلّم الذاتي الإشراف هو طريقة للذكاء الاصطناعي ليتعلّم عن طريق تحويل البيانات الخام إلى "اختبار" خاص بها. بدلًا من الاعتماد على الناس لوصم كل مثال (قطة، كلب، رسائل مزعجة)، يبتكر النظام مهمة توقع من البيانات نفسها ويتعلم بمحاولة الإجابة الصحيحة.
فكّر فيه كتعلم لغة عن طريق القراءة: ليس بحاجة إلى مدرس ليُعنون كل جملة—يمكنك تعلّم الأنماط عن طريق تخمين ما سيأتي بعد ذلك والتحقق مما إذا كنت محقًا.
بعض مهام التعلّم الذاتي الإشراف الشائعة سهلة التصوّر:
الوسم البشري بطيء ومكلف وغالبًا ما يكون غير متسق. يمكن للتعلّم الذاتي الإشراف أن يستفيد من الكم الهائل من البيانات غير الموسومة التي تمتلكها المنظمات—صور، مستندات، تسجيلات مكالمات، سجلات حسّاسيات—لتعلّم تمثيلات عامة. بعد ذلك، مع مجموعة معنونة أصغر، تُكيّف النموذج لمهمة محددة.
التعلّم الذاتي الإشراف محرك رئيسي وراء أنظمة حديثة في:
الاختيار بين التعلم الخاضع للإشراف، غير الخاضع، والذاتي الإشراف يدور حول شيء واحد: أي نوع من الإشارة تستطيع الحصول عليه واقعيًا وبمقياس كبير.
التعلّم الخاضع للإشراف يتدرّب على مدخلات مقرونة بتسميات بشرية (مثلاً "تحتوي هذه الصورة على قطة"). مباشر وفعّال عندما تكون التسميات دقيقة.
التعلّم غير الخاضع يبحث عن بنية بدون تسميات (مثلاً تجميع العملاء حسب السلوك). مفيد لكن "البنية" قد تكون غامضة.
التعلّم الذاتي الإشراف هو وسط عملي: يبتكر أهداف تدريب من البيانات نفسها (تنبؤ كلمات مفقودة، إطار تالٍ، أجزاء مقنَّعة من الصورة). تحصل على إشارة تعلم دون الحاجة إلى تسميات يدوية.
البيانات المعنونة تستحق الجهد عندما:
تصبح التسميات عنق زجاجة عندما:
نمط شائع:
هذا غالبًا ما يقلل احتياجات الوسم، يحسّن الأداء في إعدادات نقص البيانات، وينقل أفضل إلى مهام مرتبطة.
الخيار الأفضل عادة ما يكون مقيدًا بقدرة الوسم، وتوقع التغيير مع الزمن، ومدى اتساع التعميم المطلوب.
نماذج قائمة على الطاقة (EBMs) طريقة للتفكير في التعلّم أقرب إلى "الترتيب" منه إلى "الوسم". بدلًا من إجبار النموذج على إخراج إجابة واحدة صحيحة (مثل "قطة" أو "ليس قطة"), يتعلّم EBM دالة تسجيل: يعطي "طاقة منخفضة" (درجة جيدة) للتراكيب المعقولة، و"طاقة أعلى" للتراكيب غير المعقولة.
يمكن أن تكون "التركيبة" أشياء كثيرة: صورة ونص مقترح كعنوان، مشهد جزئي والكائنات المفقودة، أو حالة روبوت واقتراح فعل. مهمة EBM أن يقول: "هذا الاقتران منطقي" (طاقة منخفضة) أو "هذا يبدو غير متسق" (طاقة عالية).
الفكرة البسيطة هذه قوية لأنها لا تتطلّب اختزال العالم إلى تسمية واحدة. يمكنك مقارنة البدائل واختيار الأفضل تسجيلًا، وهذا يتوافق مع طريقة حل الناس للمشكلات: استعراض خيارات، رفض غير المعقول، وتحسين.
يبدي الباحثون اهتمامًا بـEBMs لأنها تسمح بأهداف تدريب مرنة. يمكنك تدريب النموذج لدفع الأمثلة الحقيقية لأسفل (تخفيض الطاقة) ودفع الأمثلة السلبية "الخفية" للأعلى (رفع الطاقة). هذا قد يشجّع تعلم بنية مفيدة في البيانات—الانتظامات، والقيود، والعلاقات—بدلًا من حفظ تحويل مباشر من مدخل إلى مخرج.
ربط ليكون هذا المنظور بأهداف أوسع مثل "نماذج العالم": نماذج داخلية تلتقط كيف يعمل العالم عادةً. إذا استطاع النموذج تقييم ما هو محتمل، فيمكنه دعم التخطيط عن طريق تقييم مستقبلات أو تسلسل أفعال مرشّحة وتفضيل تلك التي تظل متسقة مع الواقع.
يمتاز ليكون بين كبار الباحثين لأن تأثيره يمتد عبر البحث الأكاديمي ومختبرات الصناعة الكبيرة. في الجامعات والمعاهد البحثية، ساعدت أعماله على رسم أجندة تجعل الشبكات العصبية بديلاً جادًا للميزات المصممة يدويًا—فكرة أصبحت لاحقًا النهج الافتراضي في رؤية الحاسوب وما بعدها.
المجال لا يتقدّم بالأوراق فقط؛ بل يتقدم أيضًا عبر المجموعات التي تقرر ماذا تُبنى بعد ذلك، وأي معايير تُستخدم، وأي أفكار تستحق التوسيع. بقيادة فرق وتوجيه باحثين، ساعد ليكون في تحويل تعلّم التمثيلات—ولاحقًا التعلّم الذاتي—إلى برامج طويلة الأمد بدلاً من تجارب عرضية.
مختبرات الصناعة مهمة لعدة أسباب عملية:
تعد Meta AI مثالًا بارزًا لبيئة يمكن فيها لفرق البحث الأساسية اختبار الأفكار على نطاق واسع ورؤية كيف تؤثر اختيارات النموذج في الأنظمة الحقيقية.
عندما يدفع القادة البحث نحو تمثيلات أفضل، والاعتماد أقل على الوسوم، وتعميم أقوى، تتبدّى تلك الأولويات خارجيًا. تؤثر على الأدوات التي يتعامل معها الناس—تنظيم الصور، الترجمة، ميزات الوصول مثل أوصاف الصور، فهم المحتوى، والتوصيات. حتى لو لم يسمع المستخدمون مصطلح "التعلّم الذاتي الإشراف"، قد يستفيدون من نماذج تتكيّف أسرع، تحتاج تسميات أقل، وتتعامَل مع تباينات العالم الحقيقي برشاقة أكبر.
في 2018، نال يان ليكون جائزة ACM A.M. Turing—التي توصف غالبًا بـ"جائزة نوبل للحوسبة". على مستوى عالٍ، احتفلت الجائزة بكيف غيّر التعلّم العميق المجال: بدلًا من ترميز القواعد للرؤية أو الكلام، صار بالإمكان تدريب أنظمة لتعلّم سمات مفيدة من البيانات، ما أدّى إلى مكاسب كبيرة في الدقة والفائدة العملية.
شارك الجائزة جيفري هينتون ويوشوا بنجيو. هذا مهم لأنه يعكس كيف بُنيت قصة التعلّم العميق الحديثة: مجموعات مختلفة دفعت قطعًا مختلفة للأمام، أحيانًا بالتوازي، وأحيانًا بتوسيع عمل بعضهم بعضًا.
لم تكن الجائزة لورقة واحدة قاتلة أو نموذج واحد. كانت عن قوس طويل من الأفكار التي تحولت إلى أنظمة العالم الحقيقي—خصوصًا جعل الشبكات العصبية قابلة للتدريب على نطاق واسع وتعلّم التمثيلات القابلة للتعميم.
الجوائز قد تجعل التقدم يبدو نتيجة أبطال قليلين، لكن الواقع أكثر جماعية:
لذلك تُقرأ جائزة تورينج بشكل أفضل كضوء على نقطة تحول في الحوسبة—قوة مجتمعية—حيث ساعد كل من ليكون، هينتون، وبنجيو في جعل التعلّم العميق جديرًا بالثقة وقابلاً للنشر.
حتى مع نجاح التعلّم العميق، يجلس عمل ليكون داخل نقاش نشط: ما الذي تبرع فيه الأنظمة الحالية، وما الذي لا تزال تكافح معه، وما هي الاتجاهات البحثية التي قد تقرّب الفجوة.
بعض الأسئلة المتكررة تظهر عبر المختبرات وفرق المنتج:
كان للتعلّم العميق تاريخيًا جانب "جائع للبيانات": النماذج الخاضعة للإشراف قد تحتاج مجموعات كبيرة معنونة مكلفة ويمكن أن تُرمز تحيّزات بشرية.
التعميم أيضًا متفاوت. قد تبدو النماذج مثيرة على معايير اختبار لكنها لا تزال تكافح عند النشر في بيئات أكثر فوضوية—سكان جدد، أجهزة جديدة، سياسات أو سير عمل مختلفة. هذه الفجوة سبب يجعل الفرق تستثمر كثيرًا في المراقبة، وإعادة التدريب، والتقييم خارج مجموعة اختبار واحدة.
يحاول التعلّم الذاتي تقليل الاعتماد على التسميات بتعلّم البنية الموجودة بالفعل في البيانات الخام—التنبؤ بالأجزاء المفقودة، تعلم التفاوتات، أو مواءمة وجهات نظر مختلفة لنفس المحتوى.
الوع promises بسيطة: إذا استطاع النظام تعلّم تمثيلات مفيدة من نصوص وصور وصوت وفيديو غير معنونة بكميات هائلة، فقد تكفي مجموعات معنونة أصغر لتكييفه للمهام الخاصة. كما يشجّع SSL تعلم سمات أكثر عمومية قابلة للنقل بين المشكلات.
ما ثبت: يمكن أن يحسّن SSL وتعلّم التمثيلات الأداء وإمكانية إعادة الاستخدام عبر المهام خصوصًا عندما تكون التسميات شحيحة.
ما يزال بحثًا: تعلّم نماذج العالم بقوة، التخطيط، والمنطق التركّيبي؛ منع الفشل تحت تحوّل التوزيع؛ وبناء أنظمة تتعلّم باستمرار بدون نسيان أو انحراف.
يذكّرنا عمل ليكون بأن "أحدث ما توصلت إليه" أقل أهمية من الملاءمة للغرض. إذا كنت تبني ذكاء اصطناعي في منتج، فميزتك غالبًا ما تأتي من اختيار أبسط نهج يلبّي قيود العالم الحقيقي.
قبل اختيار نموذج، اكتب ما يعنيه "الجيد" في سياقك: نتيجة المستخدم، تكلفة الأخطاء، زمن الاستجابة، وعبء الصيانة.
خطة تقييم عملية عادةً ما تتضمن:
عامل البيانات كأصل له خارطة طريق. الوسم مكلف، لذا كن متعمّدًا:
قاعدة مفيدة: استثمر مبكرًا في جودة وتغطية البيانات قبل السعي وراء نماذج أكبر.
تظل الشبكات الالتفافية خيارًا قويًا للعديد من مهام الرؤية، خصوصًا عندما تحتاج كفاءة وسلوكًا متوقعًا على الصور (التصنيف، الكشف، خطوط أنابيب شبيهة بـOCR). قد تفوز البنى الأحدث بدقة أعلى أو مرونة تعددية الوسائط، لكنها قد تكلف أكثر في الحوسبة والتعقيد وجهد النشر.
إذا كانت قيودك ضيقة (الهاتف/الطرف، حجم تمرين عالٍ، ميزانية تدريب محدودة)، غالبًا ما يتفوّق CNN مضبوط جيدًا مع بيانات جيدة على نموذج "أكثر تعقيدًا" يُشحن متأخرًا.
ثيمة متكررة في عمل ليكون هي التفكير الشامل: ليس فقط النموذج، بل خط الأنابيب حوله—جمع البيانات، التقييم، النشر، والتكرار. عمليًا، تعثر كثير من الفرق ليس لأن المعمارية خاطئة، بل لأن بناء السطح المنتج المحيط بها (أدوات الإدارة، واجهة وسم، سير عمل المراجعة، لوحات مراقبة) يستغرق وقتًا طويلًا.
هنا تساعد أدوات "تسريع التطوير" الحديثة. على سبيل المثال، Koder.ai تتيح للفرق تصميم وإطلاق تطبيقات ويب، خلفيات وخدمات محمولة عبر واجهة محادثة—مفيد عندما تحتاج تطبيق تقييم داخلي سريع (لوحة React مع خلفية Go + PostgreSQL)، أو تريد لقطات/استرجاع أثناء تكرار سريع، أو تحتاج تصدير الشيفرة المصدرية والنشر بنطاق مخصص بمجرد استقرار سير العمل. الهدف ليس استبدال البحث في التعلم الآلي؛ بل تقليل الاحتكاك بين فكرة نموذج جيدة ونظام قابل للاستخدام.
إذا كنت تخطط لمبادرة ذكاء اصطناعي، تصفّح /docs للإرشاد التطبيقي، اطلع على /pricing لخيارات النشر، أو استكشف المزيد من المقالات في /blog.
لقد أثبت أن التمثيلات المتعلّمة (السمات التي يكتشفها النموذج من البيانات) يمكن أن تتفوّق على القواعد المصمّمة يدويًا عند التعامل مع مدخلات حقيقية وصاخبة مثل الصور. هذا المنهج—التعلّم الشامل من البداية إلى النهاية، الأداء القابل للقياس، والسمات القابلة لإعادة الاستخدام—أصبح قالبًا لأنظمة الذكاء الاصطناعي الحديثة.
التعلّم العميق نهج واسع يعتمد على الشبكات العصبية متعددة الطبقات لتعلّم الأنماط من البيانات.
التعلّم الذاتي الإشراف (Self‑Supervised Learning) هو استراتيجية تدريب حيث يبتكر النموذج إشارة تعلم خاصة به من البيانات الخام (مثلاً، التنبؤ بأجزاء مفقودة). يساعد هذا في تقليل الحاجة إلى تسميات بشرية وإنتاج تمثيلات قابلة لإعادة الاستخدام.
الالتفاف (convolution) "يزحلق" كاشفًا صغيرًا (مرشحًا) عبر الصورة للعثور على أنماط مثل الحواف أو الملمس في أي مكان تظهر فيه. إعادة استخدام نفس الكاشف عبر الصورة يجعل التعلّم أكثر كفاءة ويساعد على التعرف حتى عندما يتحرك الكائن داخل الإطار.
ثلاثة أفكار أساسية:
أظهرت LeNet أن شبكة عصبية شاملة من البداية للنهاية يمكنها حل مهمة عملية (التعرّف على الأرقام المكتوبة بخط اليد) بأداء جيد بما يكفي للنشر في حالات استخدام حقيقية. رسّخت الفكرة القائلة بأن مستخرج السمات والمصنّف يمكن تعلّمهما معًا بدلًا من بناء خط أنابيب مصمَّم يدويًا.
فكرة أن النماذج يجب أن تتعلّم سمات داخلية مفيدة على نطاق واسع، لا مجرد تسلسل نهائي. التمثيلات القوية تُسهّل مهمات لاحقة، تمكّن التعلّم النقلي، وغالبًا ما تحسّن الصلابة مقارنة بالخصائص المصمَّمة يدويًا.
استخدم التعلّم الخاضع للإشراف عندما تملك الكثير من التسميات المتسقة ومهمة مستقرة.
استخدم التعلّم الذاتي الإشراف مع التكييف عندما تملك الكثير من البيانات الخام لكن تسميات قليلة، أو عندما تتوقع تغيّر النطاق.
استخدم الطرق غير الخاضعة للإشراف عندما يكون هدفك استكشافًا (تجميع/اكتشاف حالات شاذة)، ثم حقّق النتائج عبر مقاييس للمهمات اللاحقة.
مهام التعلّم الذاتي الإشراف شائعة مثل:
بعد مرحلة ما قبل التدريب، تُجرى عادة عملية تكييف (fine‑tuning) على مجموعة معنونة أصغر للمهمّة المستهدفة.
نموذج قائم على الطاقة يتعلّم دالة تقييم: التراكيب المعقولة تحصل على "طاقة منخفضة"، والتراكيب غير المعقولة على "طاقة عالية". هذا الإطار مفيد عندما تريد مقارنة البدائل (ترتيب الخيارات) بدلًا من إجبار النموذج على اختيار تصنيف وحيد، ولديه صلة بأفكار نماذج العالم والتخطيط.
ابدأ بتحديد ما معنى "الجيد" وكيف ستقيسه: