سيرة واضحة لديميس هاسابيس—مساره من الألعاب وعلم الأعصاب إلى DeepMind، AlphaGo وAlphaFold—وماذا تعلّمنا تلك المحطات عن الذكاء الاصطناعي الحديث.

ديميس هاسابيس عالم ورائد أعمال بريطاني معروف كمؤسس مشارك لِـ DeepMind، المختبر البحثي وراء AlphaGo وAlphaFold. أهمية عمله تكمن في أنه ساعد على نقل الذكاء الاصطناعي من "عرضيات مثيرة" إلى أنظمة قادرة على التفوق على أفضل الخبراء البشر في مهام محددة وعالية الأهمية—ثم إعادة استخدام تلك الأفكار عبر مجالات مختلفة.
عندما يقول الناس إن هاسابيس ساعد في جعل الذكاء الاصطناعي "قادرًا على المنافسة مع البشر"، فهم عادةً يقصدون الأداء في مهمة محددة: أنظمة قد تضاهي أو تتجاوز البشر في هدف واضح، مثل الفوز في لعبة معقدة أو التنبؤ بتراكيب البروتين. وهذا ليس مرادفًا للذكاء العام.
AlphaGo لم يكن يفهم العالم كما يفعل البشر؛ تعلّم اللعب جيدًا جدًا. AlphaFold لا "يمارس البيولوجيا"؛ بل يتنبأ بالأشكال ثلاثية الأبعاد للبروتينات من التسلسلات بدقة لافتة. هذه الأنظمة ضيقة النطاق، لكن تأثيرها واسع لأنها تظهر كيف يمكن لأساليب التعلم معالجة مشكلات كانت تُعد بحاجة إلى حدس بشري فريد.
هناك عدد من الإنجازات التي جعلت هاسابيس شخصية محورية:
هذا ليس سردًا بطوليًا ولا قطعة ترويجية. سنتمسك بالحقائق الواضحة، نضيف سياقًا يجعل الاختراقات مفهومة، ونستخلص نقاطًا عملية—كيف تفكر في أنظمة التعلم، ماذا يعني "بالمستوى البشري" فعليًا، ولماذا تبرز مناقشات الأخلاقيات والسلامة طبيعيًا عندما يبدأ الذكاء الاصطناعي في الأداء على مستوى الخبراء.
لم تبدأ مسيرة ديميس هاسابيس في الذكاء الاصطناعي بنظرية مجردة، بل بدأت بالألعاب—عوالم منظمة يمكنك اختبار الأفكار فيها، ارتكاب الأخطاء بأمان، والحصول على تغذية راجعة فورية.
كطفل تفوق في الشطرنج وغيرها من ألعاب الاستراتيجية، كون عادة التفكير بعيد المدى: لا تختار "حركة جيدة" فحسب، بل تختار حركة تشكل سير المباراة لعدة خطوات قادمة. هذه العادة—التفكير في تسلسلات بدلًا من فعل واحد—تتطابق مع كيفية تعلم أنظمة الذكاء الاصطناعي الحديثة اتخاذ القرارات عبر الزمن.
الألعاب التنافسية تفرض نوعًا معينًا من الانضباط:
هذه مهارات عملية، ليست شعارات. اللاعب القوي يسأل باستمرار: "ما الخيارات المتاحة؟ ماذا قد يفعل الخصم بعد ذلك؟ ما تكلفة الخطأ؟"
عَمِل هاسابيس أيضًا في تطوير الألعاب، ليس مجرد لعبها. العمل في تطوير الألعاب يعني التعامل مع أجزاء متداخلة عديدة: قواعد، حوافز، حدود زمنية، منحنيات صعوبة، وكيف تؤثر التغييرات الصغيرة على التجربة بأكملها.
هذا هو "التفكير النظامي" بمعناه الملموس—اعتبار الأداء نتيجة إعداد كامل بدلًا من خدعة واحدة. سلوك اللعبة ينبع من كيفية تماسك مكوناتها. لاحقًا، يظهر نفس العقلية في أبحاث الذكاء الاصطناعي: التقدم يعتمد غالبًا على المجموعة الصحيحة من البيانات، طريقة التدريب، الحوسبة، التقييم، والأهداف الواضحة.
تُفسّر هذه الأسُس المبكرة—اللعب الاستراتيجي وبناء بيئات معقدة قائمة على قواعد—لماذا ركّزت أعماله اللاحقة على التعلم عن طريق التفاعل والتغذية الراجعة بدلًا من الاعتماد على تعليمات مرمّزة يدويًا.
لم يعتبر ديميس هاسابيس علم الأعصاب انحرافًا عن الذكاء الاصطناعي، بل وسيلة لطرح أسئلة أفضل: ماذا يعني التعلم من التجربة؟ كيف نخزن معرفة مفيدة دون حفظ كل شيء؟ كيف نقرر ما العمل بعد ذلك عندما يكون المستقبل غير مؤكد؟
بعبارات بسيطة، التعلم هو تعديل سلوكك بناءً على التغذية الراجعة. لمسة واحدة لكوب ساخن تجعل الطفل أكثر حذرًا. يمكن لنظام الذكاء الاصطناعي أن يفعل ما يشبه ذلك: يجرب، يرى النتائج، ويضبط سلوكه.
الذاكرة هي الاحتفاظ بمعلومات تفيد لاحقًا. البشر لا يسجلون الحياة كفيديو؛ نحن نحتفظ بأنماط وإشارات. بالنسبة للذكاء الاصطناعي، قد تكون الذاكرة حفظ تجارب سابقة، بناء ملخّصات داخلية، أو ضغط المعلومات بحيث تكون قابلة للاستخدام عندما تظهر مواقف جديدة.
التخطيط هو اختيار إجراءات عبر التفكير المسبق. عند اختيار طريق لتجنّب زحمة، تتخيّل النتائج المحتملة. في الذكاء الاصطناعي، التخطيط غالبًا ما يعني محاكاة "ماذا قد يحدث إذا..." واختيار الخيار الأفضل.
دراسة الدماغ تقترح مشكلات جديرة بالحل—مثل التعلم بكفاءة من بيانات محدودة، أو الموازنة بين ردود الفعل السريعة والتفكير المتأني. لكن من المهم ألا نبالغ في الربط: الشبكات العصبية الحديثة ليست دماغًا، ونسخ البيولوجيا ليس هدفًا في حد ذاته.
القيمة عملية؛ علم الأعصاب يقدم مؤشرات عن القدرات التي يحتاجها الذكاء (التعميم، التكيّف، التفكير في ظل عدم اليقين)، وعلوم الحاسوب تحول تلك المؤشرات إلى طرق قابلة للاختبار.
خلفية هاسابيس تُظهر كيف أن مزج المجالات يخلق رافعة. علم الأعصاب يغذي الفضول حول الذكاء الطبيعي؛ أبحاث الذكاء الاصطناعي تفرض بناء أنظمة قابلة للقياس والتحسين والمقارنة. معًا، تدفع الباحثين لربط أفكار كبيرة—كالتفكير والذاكرة—بتجارب عملية تعمل بالفعل.
بدأت DeepMind بهدف واضح وغير معتاد: ليس بناء تطبيق ذكي واحد، بل خلق أنظمة تعلم عامة—برمجيات تتعلم حل مشكلات متنوعة عبر التحسن بالتجربة.
شكل هذا الطموح كل شيء في الشركة. بدلًا من السؤال "ما الميزة التي سنطلقها الشهر القادم؟" كان السؤال المؤسس يشبه: "ما نوع آلة التعلم التي يمكن أن تتحسن باستمرار، حتى في مواقف لم تُشاهد من قبل؟"
نُظمت DeepMind أقرب إلى مختبر أكاديمي مما هي عليه لشركة برمجيات تقليدية. الناتج لم يكن منتجات فقط—بل أيضًا نتائج بحثية، تجارب، وطرق يمكن اختبارها ومقارنتها.
شركة برمجيات نموذجية غالبًا ما تركز على النشر: قصص المستخدمين، تكرار سريع، مقاييس إيرادات، وتحسينات تدريجية.
ديبمايند كانت تُحسِن للاكتشاف: وقت للتجارب التي قد تفشل، غوص عميق في مشاكل صعبة، وفرق مبنية حول أسئلة طويلة الأمد. هذا لا يعني تجاهل جودة الهندسة—بل أن الهندسة خدمت تقدم البحث، لا العكس.
المراهنات الكبيرة قد تصبح غامضة إن لم تُرسى على أهداف قابلة للقياس. اعتادت ديبمايند اختيار معايير مرجعية عامة، صعبة، وسهلة التقييم—وخاصة الألعاب والمحاكيات حيث النجاح لا لبس فيه.
خلق ذلك إيقاعًا بحثيًا عمليًا:
مع تزايد الانتباه، أصبحت ديبمايند جزءًا من نظام أكبر. في 2014، استحوذت جوجل على ديبمايند، مقدمة موارد وسعة حوسبة يصعب مطابقتها بشكل مستقل.
الأهم أن ثقافة التأسيس—الطموح العالي مقرونًا بالقياس الصارم—بقيت مركزية. الهوية المبكرة لِـ DeepMind لم تكن "شركة تصنع أدوات ذكاء اصطناعي" بقدر ما كانت "مكان يحاول فهم كيفية بناء التعلم بنفسه."
التعلم المعزز هو طريقة ليتعلم الذكاء الاصطناعي عبر الفعل، لا عبر إظهار "الإجابة الصحيحة" في كل حالة.
تخيّل تعليم شخص رمي رميات حرة في كرة السلة. لا تسلمه جدول زوايا مثالية لكل لقطة. تتركه يجرب، تراقب النتيجة، وتعطي ملاحظات بسيطة: "هذا أقرب"، "هذه أخطأت بشدة"، "كَرر ما نجح". مع الوقت، يعدّل.
يعمل التعلم المعزز بالمثل. يأخذ النظام إجراءً، يرى ما يحدث، ويتلقى درجة ("مكافأة") تشير إلى جودة النتيجة. هدفه اختيار إجراءات تؤدي إلى مكافآت إجمالية أعلى مع الزمن.
الفكرة الأساسية هي التجربة والخطأ + التغذية الراجعة. قد يبدو ذلك بطيئًا—إلا أنك إذا أدركت أن التجارب يمكن آليًا، يتغير المشهد.
قد يتدرّب الإنسان على 200 لقطة في يوم؛ لكن يمكن للذكاء الاصطناعي أن يتدرّب على ملايين "اللقطات" في محاكاة، فيتعلم أنماطًا قد تستغرق للبشر سنوات لاكتشافها. هذا سبب رئيسي لأن التعلم المعزز صار مركزيًا في ذكاء الآلات للعب: الألعاب تتسم بقواعد واضحة، تغذية راجعة سريعة، وطريقة موضوعية لقياس النجاح.
تحتاج كثير من أنظمة الذكاء الاصطناعي لبيانات مؤشرة (أمثلة مع إجابات صحيحة). التعلم المعزز يمكنه تقليل الاعتماد على ذلك من خلال توليد خبرته بنفسه.
بالمحاكاة، يمكن للنظام التدريب في "صالة تدريب" سريعة وآمنة. وباللعب الذاتي، يلعب ضد نسخ من نفسه، فيواجه خصمًا أصعب مع تحسنه. بدلاً من الاعتماد على وسم بشري، يخلق النظام منهاجًا تدريبيًا عبر التنافس والتكرار.
التعلم المعزز ليس سحريًا. غالبًا ما يتطلب كميات هائلة من الخبرة، حوسبة مكلفة، وتقييمًا دقيقًا—قد "يفوز" النظام في التدريب لكنه يفشل في ظروف مختلفة قليلاً.
هناك أيضًا مخاطر سلامة: تحسين مكافأة خاطئة قد ينتج سلوكًا غير مرغوب فيه، خاصة في سياقات عالية التأثير. ضبط الأهداف والاختبار مهمان بقدر أهمية التعلم نفسه.
مباراة AlphaGo عام 2016 ضد لي سيدول اعتُبرت نقطة تحول ثقافية لأن لعبة غو كانت تُعامل منذ زمن بعيد على أنها "قلعة أخيرة" أمام الحواسيب. الشطرنج معقد، لكن غو ساحق: عدد المواضع المحتملة أكبر بكثير، والحركات الجيدة غالبًا ما تعتمد على نفوذ طويل الأمد وحدس أنماطي أكثر من التكتيكات الفورية.
النهج القسري—محاولة حساب كل مستقبل ممكن—يصطدم بانفجار تركيبي. حتى اللاعبين الأقوياء لا يستطيعون شرح كل اختيار كسلسلة من الحسابات الدقيقة؛ جزء كبير منه حكم مبني على الخبرة. هذا جعل غو غير مناسب لجيل برامج اللعب القديم الذي اعتمد أساسًا على قواعد مكتوبة يدويًا.
AlphaGo لم يكن "يحسب فقط"، ولم يكن "يتعلم فقط". جمع بين الاثنين. استخدم شبكات عصبية مدرّبة على مباريات بشرية (ولاحقًا على اللعب الذاتي) لتكوين إحساس بالحركات الواعدة. ثم استخدم بحثًا موجهًا لاستكشاف التغييرات، مسترشداً بتلك الغرائز المتعلمة. فكر فيه كمزاوجة بين الحدس (أنماط مكتسبة) والتدبُّر (التطلع للأمام)، بدلاً من الاعتماد على أحدهما فقط.
الفوز أظهر أن أنظمة التعلم الآلي يمكنها إتقان مجال يكافئ الإبداع والتخطيط بعيد المدى والمقايضات الدقيقة—دون أن يشفر البشر استراتيجيات غو يدويًا.
لم يعني ذلك أن AlphaGo يملك ذكاءً عامًا. لم يستطع نقل مهارته لمشكلات غير ذات صلة، أو شرح سبب اختياراته كبشر، أو فهم غو كسياق ثقافي بشري. كان استثنائيًا في مهمة واحدة.
زاد الاهتمام العام، لكن التأثير الأعمق كان داخل البحث. أكدت المباراة مسارًا: الجمع بين التعلم على نطاق واسع، التحسين الذاتي عبر الممارسة، والبحث كخليط عملي للوصول إلى أداء خبير في بيئات معقدة.
انتصار عريض قد يجعل الذكاء الاصطناعي يبدو "مُحلَّا"، لكن معظم الأنظمة المتألقة في سياق واحد تفشل عندما تتغير القواعد. القصة الأكثر أهمية بعد الاختراق هي الدفع من حل مصمم خصيصًا ضيق إلى طرق يمكنها التعميم.
في الذكاء الاصطناعي، التعميم هو القدرة على الأداء الجيد في مواقف جديدة لم تُدرّب عليها تحديدًا. الفرق بين حفظ امتحان واحد وفهم الموضوع.
نظام يفوز فقط في مجموعة شروط ثابتة—نفس القواعد، نفس المنافسين، نفس البيئة—قد يكون هشًا للغاية. التعميم يسأل: إذا غيرنا القيود، هل يتكيف دون أن نبدأ من الصفر؟
يحاول الباحثون تصميم مناهج تعلم تنتقل عبر مهام، بدلًا من هندسة "حيلة" لكل حالة. أمثلة عملية:
الفكرة ليست أن نموذجًا واحدًا يجب أن يفعل كل شيء فورًا، بل أن التقدم يُقاس بمدى إعادة استخدام جزء كبير من الحل.
المقاييس هي "اختبارات معيارية" للذكاء الاصطناعي: تسمح للمجموعات بمقارنة النتائج، تتبع التحسن، وتحديد ما ينجح. هي ضرورية للتقدم العلمي.
لكن يمكن أن تخدع عندما تصبح الهدف بدلًا من القياس. قد "يتكيف" النموذج مع خصائص المعيار، أو ينجح باستغلال ثغرات لا تعكس فهمًا حقيقيًا.
عادةً ما يعني "بالمستوى البشري" مطابقة البشر على مقياس محدد في إعداد محدد—لا امتلاك مرونة بشرية، أو حكم، أو حس مشترك. قد يتفوق النظام على الخبراء ضمن قواعد ضيقة ويكافح بمجرد تغير البيئة.
الخلاصة الحقيقية بعد انتصار مشهود هي الانضباط البحثي اللاحق: اختبار متغيرات أصعب، قياس النقل، وإثبات أن الطريقة تتوسع لما هو أبعد من مرحلة واحدة.
البروتينات هي "آلات" صغيرة داخل الكائنات الحية. تبدأ كسلاسل طويلة من وحدات البناء (الأحماض الأمينية)، ثم تنطوي السلسلة لتشكّل شكلًا ثلاثي الأبعاد محددًا—مثل ورقة تُطوى إلى شكل أوريغامي.
الشكل النهائي مهم لأنه يحدد غالبًا وظيفة البروتين: حمل الأكسجين، محاربة العدوى، إرسال إشارات، أو بناء أنسجة. المشكلة أن السلسلة يمكن أن تنثني بطرق لا نهائية تقريبًا، واستنتاج الشكل الصحيح من التسلسل وحده صعب. لعقود، اعتمد العلماء على طرق مخبرية بطيئة ومكلفة لتحديد التراكيب.
معرفة تركيب البروتين تشبه امتلاك خريطة مفصلة بدلًا من اسم شارع فقط. تساعد الباحثين على:
هذا مهم حتى عندما لا يتحول فورًا إلى منتج: فهو يحسّن الأساس الذي تعتمد عليه دراسات لاحقة.
أظهر AlphaFold أن التعلم الآلي يمكنه التنبؤ بالعديد من تراكيب البروتين بدقة ملحوظة، غالبًا مقاربة لما تكشفه التقنيات المخبرية. مساهمته الأساسية لم تكن "حل البيولوجيا"، بل جعل التخمينات الهيكلية أكثر موثوقية ومتاحة—محوّلاً عنق الزجاجة الكبير إلى شيء يمكن للباحثين التعامل معه مبكرًا في المشروع.
من المهم فصل تسريع العلم عن الأدوية الجاهزة. التنبؤ بالتركيب ليس نفسه إنتاج دواء آمن. اكتشاف الدواء لا يزال يتطلب التحقق من الأهداف، اختبار الجزيئات، فهم الآثار الجانبية، وإجراء تجارب سريرية. أفضل وصف لتأثير AlphaFold هو تمكين وتسريع الأبحاث—تقديم نقاط انطلاق أفضل—بدلاً من تقديم علاجات فورية.
غالبًا ما تُروى أعمال هاسابيس بلحظات عناوين مثل AlphaGo أو AlphaFold، لكن الدرس الأكثر قابلية للنقل هو كيف وجّهت ديبمايند جهودها: حلقة محكمة من أهداف واضحة، قياس صريح، وتكرار لا يكل.
مشروعات الذكاء الاصطناعي الاختراقية عادةً تبدأ بهدف واضح ("حل هذه الفئة من المهام") ولوحة نتائج صادقة. تهم لوحة النتائج لأنها تمنع الفرق من الخلط بين العروض المثيرة والقدرة الحقيقية.
بمجرد تحديد التقييم، يصبح العمل تكراريًا: بناء، اختبار، فهم ما فشل، تعديل النهج، تكرار. وبعد أن تعمل الحلقة، توسّع—بيانات أكثر، حوسبة أكثر، وقت تدريب أطول، ونموذج أكبر ومصمم أفضل. التوسيع المبكر يسرّع الارتباك.
اعتمدت كثير من أنظمة الذكاء الاصطناعي السابقة على كتابة قواعد صريحة ("إذا X إذًا Y"). نجاحات ديبمايند تبرز ميزة التمثيلات المتعلّمة: يكتشف النظام أنماطًا وتجريدات مفيدة مباشرةً من التجربة.
هذا مهم لأن المشكلات الحقيقية مليئة بحالات الحافة. القواعد تنهار مع تعقيد المتطلبات، بينما التمثيلات المتعلّمة يمكن أن تتعمم—خصوصًا عندما تقترن بإشارات تدريب قوية وتقييم حذر.
طابع عمل ديبمايند هو فريق متعدد التخصصات. النظرية ترشد ما قد ينجح، والهندسة تجعل تدريبه ممكنًا على نطاق، والتجريب يبقي النتائج صادقة. الثقافة البحثية تعلي الدليل: عندما تتعارض النتائج مع البديهيات، يتبع الفريق البيانات.
إن كنت تطبق الذكاء الاصطناعي في منتج، الخلاصة أقل "انسخ النموذج" وأكثر "انسخ المنهج":
إذا أردت تحويل هذه المبادئ إلى أداة داخلية بسرعة (بدون إعادة بناء خط هندسي كامل أولًا)، منصات إنشاء الكود عبر الدردشة مثل Koder.ai قد تساعدك على تصميم نموذج تجريبي ونشره أسرع: يمكنك وصف التطبيق في المحادثة، توليد واجهة React، إضافة باكند Go مع PostgreSQL، والتكرار مع وضع التخطيط واللقطات واستعادة الإصدارات. للفرق، تصدير الشيفرة وخيارات النشر والتشغيل تُسهّل الانتقال من "نموذج يعمل" إلى "كود قابل للملكية والإنتاج" دون حصرك في عرض توضيحي.
ديميس هاسابيس عالم ورائد أعمال بريطاني شارك في تأسيس ديبمايند. يُرتبط اسمه ارتباطًا وثيقًا بإنجازات مثل AlphaGo (في اللعب) وAlphaFold (في التنبؤ بتركيبات البروتين)، التي أظهرت أن الأنظمة المعتمدة على التعلم يمكن أن تصل إلى أداء يضاهي أو يتجاوز خبراء البشر في مهام محددة وواضحة.
عادةً ما يعني ذلك الأداء في مهمة محددة مقاسة بمؤشر واضح (مثل الفوز في مباريات غو أو التنبؤ بدقة بتراكيب البروتين).
لا يعني ذلك أن النظام يمتلك حسًا عامًا أو قدرة على نقل المهارات بين مجالات متباينة بسهولة، أو أنه “يفهم” العالم كما يفعل البشر.
ديبمايند أُنشئت كمختبر بحثي أولًا، وركزت على تقدم أنظمة التعلم العام بدلًا من إطلاق تطبيق واحد سريع.
عمليًا، كان ذلك يعني:
التعلم المعزز هو التعلم عبر التجربة والخطأ باستخدام إشارة درجة ("مكافأة"). بدلاً من إظهار الإجابة الصحيحة في كل حالة، يتخذ النظام إجراءات، يلاحظ النتائج، ويعدّل سلوكه لتحسين مجموع المكافآت على المدى الطويل.
يكون مفيدًا خصوصًا عندما:
الممارسة ضد نسخة من نفسه: النظام يتدرب ضد نسخ منه، فينتج خبرة تدريبية دون حاجة لوسم بشري.
هذا مفيد لأن:
غو يحتوي على عدد هائل من الحالات الممكنة، ما يجعل الحساب القسري غير عملي. نجح AlphaGo بدمج:
أثبت هذا المزيج وصفة عملية لتحقيق أداء من الدرجة الأولى في بيئات قرارية معقدة—بدون تشفير استراتيجيات غو يدويًا.
التعميم يعني الأداء الجيد في حالات جديدة لم تُدرّب عليها تحديدًا—تغيّر القواعد، سيناريوهات جديدة، أو توزيعات بيانات مختلفة.
طرق عملية لاختباره تشمل:
المقاييس المشتركة توفر لوحة نتائج مقابلة، لكن النماذج قد تتكيف مع خصائص الاختبار نفسها.
لتجنب التضليل:
عامل المقاييس كأداة قياس، لا كهدف نهائي.
AlphaFold يتنبأ بالشكل ثلاثي الأبعاد للبروتين من تسلسل الأحماض الأمينية بدقة عالية لحالات عديدة.
أهمية ذلك للمختبرات:
إنه يسرّع البحث ويوفّر مزيدًا من النقاط الانطلاقية، لكنه لا يختزل عملية تطوير دواء آمن—فذلك يتطلب تحققًا، واختبارات، وتجارب سريرية.
انسخ المنهج، لا النموذج فقط:
للنظم عالية التأثير، أضِف اختبارات حمراء منظمة، حدود استخدام واضحة، وطرح تدريجي.