اكتشف كيف اخترعت جوجل بنية Transformer التي قامت عليها نماذج GPT، لكن OpenAI حوّلتها إلى منتج جماهيري (ChatGPT) وفازت بالموجة الأولى—وماذا يعني ذلك لرواد الأعمال وفِرق المنتج.

لم "تفوّت" جوجل موجة الذكاء الاصطناعي بقدر ما اخترعت جزءًا كبيرًا مما جعل الموجة الحالية ممكنة — ثم سمحت لآخرين بتحويله إلى المنتج الحاسم.
باحثو جوجل ابتكروا بنية الـ Transformer، الفكرة الأساسية وراء نماذج GPT. تلك الورقة عام 2017، "Attention Is All You Need"، أظهرت كيف يمكن تدريب نماذج ضخمة تفهم اللغة وتولدها بطلاقة ملحوظة. بدون ذلك العمل، لما كان GPT كما نعرفه ممكنًا.
إنجاز OpenAI لم يكن خوارزمية سحرية جديدة. بل كان مجموعة من الخيارات الاستراتيجية: مَدّ Transformers إلى نطاقات لم يكن يظن معظم الناس أنها عملية، زوجها بتشغيلات تدريب هائلة، وقدّم النتيجة عبر واجهات برمجة تطبيقات سهلة الاستخدام ثم—أخيرًا—ChatGPT، منتج استهلاكي جعل الذكاء الاصطناعي محسوسًا لمئات الملايين من الناس.
هذه المقالة تتناول تلك الخيارات والمقايضات، لا الدراما السرية أو الأبطال والأشرار الشخصيين. تتبّع كيف أدت ثقافة بحث جوجل ونموذج أعمالها إلى تفضيل نماذج شبيهة بـ BERT وتحسينات متزايدة في البحث، بينما راهنت OpenAI على نظام مولّد عام أكثر مخاطرة.
سنغطي:
إذا كنت مهتمًا باستراتيجية الذكاء الاصطناعي—كيف يتحول البحث إلى منتجات، والمنتجات إلى ميزة دائمة—فالقصة هنا هي دراسة حالة في ما يهم أكثر من امتلاك أفضل ورقة: امتلاك رهان واضح والشجاعة لإطلاقه.
دخلت جوجل عالم التعلم الآلي الحديث بميزتين هيكليتين ضخمتين: بيانات بمقاييس لا تُصدق وثقافة هندسية مُهيأة سابقًا لأنظمة موزعة كبيرة. عندما وجّهت تلك الآليات نحو الذكاء الاصطناعي، أصبحت بسرعة المركز الجاذب للمجال.
بدأ Google Brain كمشروع جانبي حول 2011–2012، بقيادة جيف دِين، أندرو نغ، وجريج كورادو، وتركز على التعلم العميق على نطاق واسع باستخدام مراكز بيانات جوجل لتدريب نماذج كانت خارج متناول معظم الجامعات.
انضمت DeepMind في 2014 عبر استحواذ ذي بروفايل عالي. بينما كان Google Brain أقرب إلى المنتجات والبنية التحتية، انحازت DeepMind نحو أفق بحثي طويل المدى: التعلم المعزز، الألعاب، وأنظمة التعلم العامة.
معًا، منحو جوجل غرفة محرك لا مثيل لها للذكاء الاصطناعي: فريقًا مضمّنًا في أجهزة الإنتاج، وآخرًا يلاحق الأبحاث الطموحة.
عدة إنجازات عامة رسّخت مكانة جوجل:
هذه الانتصارات أقنعت كثيرين أنه للعمل على أصعب مشاكل الذكاء الاصطناعي تذهب إلى جوجل أو DeepMind.
جمعت جوجل نسبة استثنائية من مواهب الذكاء الاصطناعي في العالم. فائزون بجائزة تورينج وباحثون بارزون عملوا ضمن أطر قليلة.
خلقت هذه الكثافة حلقات تغذية راجعة قوية:
هذا المزيج من المواهب النخبوية والاستثمار في البنية التحتية جعل جوجل مكانًا لانطلاق أبحاث الذكاء الاصطناعي المتقدمة.
ميل ثقافة AI في جوجل كان قويًا نحو النشر وبناء المنصات أكثر من بناء منتجات استهلاكية مصقولة.
على الجانب البحثي، كان المعيار هو:
وعلى الجانب الهندسي، ضخّت جوجل موارد في البنية التحتية:
هذه الاختيارات كانت منسجمة بقوة مع أعمال جوجل الأساسية. النماذج والأدوات الأفضل حسّنت مباشرةً نتائج البحث، استهداف الإعلانات، وتوصيات المحتوى. عومل الذكاء الاصطناعي كـ طبقة قدرة عامة بدلًا من فئة منتجات قائمة بذاتها.
النتيجة: شركة سيطرت على علم وبنية AI، ودمجته بعمق في خدماتها القائمة، وبثّت تقدمها عبر أبحاث مؤثرة — بينما ظلت حذرة إزاء بناء تجارب استهلاكية جديدة قائمة على الذكاء التوليدي.
في 2017 نشر فريق صغير من Google Brain وGoogle Research ورقة أعادت تشكيل المجال: "Attention Is All You Need" من أشِش فاسواني وآخرين.
الفكرة الأساسية كانت بسيطة لكنها ثورية: يمكنك التخلي عن التتابع والـ CNNs، وبناء نماذج تسلسلية باستخدام الانتباه فقط. سميت هذه البنية Transformer.
قبل Transformers، كانت أنظمة اللغة تعتمد على RNNs وLSTMs وكانت تواجه مشكلتين رئيسيتين:
حل الـ Transformer كلاهما:
ويُضاف معلومات الموضع عبر ترميزات موضعية حتى يعرف النموذج الترتيب دون الحاجة للتتابع.
بما أن العمليات قابلة للتوازي وتعتمد على ضربات مصفوفية مكثفة، فإن Transformers يتدرّجون نظيفًا مع زيادة البيانات والحساب. خاصية التدرّج هذه هي بالضبط ما تعتمد عليه نماذج مثل GPT وGemini.
نفس آلية الانتباه تعمم أيضًا خارج النص: يمكن تطبيقها على رقع الصور، إطارات صوت، رموز الفيديو، والمزيد. هذا جعل البنية أساسًا طبيعيًا لنماذج متعددة الوسائط تقرأ، ترى، وتستمع عبر هيكل موحد.
الأهم أن جوجل نشرت الورقة علنًا ومع الأعمال اللاحقة والمكتبات مثل Tensor2Tensor جعلت البنية سهلة الاستنساخ. الباحثون والشركات الناشئة حول العالم تمكنوا من قراءة التفاصيل ونسخ التصميم وتوسيع نطاقه.
وفعلت OpenAI ذلك حرفيًا. GPT‑1 هو، من حيث البنية، ستاك من محولات الـ Transformer (decoder) مع هدف نمذجة اللغة. السلف التقني المباشر لـ GPT جاء من Transformer لجوجل: نفس بلوكات الانتباه الذاتي، نفس ترميزات الموضع، ونفس الرهان على التوسيع — لكن مطبّق في سياق منتج وتنظيمي مختلف.
عندما أطلقت OpenAI GPT لم تكن تخترع برادايمًا جديدًا كليًا. بل أخذت تصميم Transformer الخاص بجوجل ودفعته أبعد مما كانت معظم مجموعات البحث مستعدة أو قادرة على الذهاب.
كان GPT الأصلي (2018) في الجوهر Transformer decoder مُدرّبًا على هدف بسيط: توقع الرمز التالي في نص طویل. تلك الفكرة تعود مباشرة إلى هندسة Transformer 2017، لكن حيث ركّزت جوجل على مهام الترجمة والقياسات، تعاملت OpenAI مع "تنبؤ الكلمة التالية على نطاق واسع" كأساس لمولد نص عام.
GPT‑2 (2019) وسّعت الوصفة إلى 1.5 مليار معلمة ومجموعة نصوص ويب أضخم. GPT‑3 (2020) قفز إلى 175 مليار معلمة، مدرّبًا على تريليونات من الرموز باستخدام عنقود GPU هائل. امتد GPT‑4 النمط مرة أخرى: مزيد من المعلمات والبيانات والاهتمام بالانتقاء والحساب، ملفوفًا بطبقات سلامة وRLHF لتشكيل سلوك حواري ومفيد.
خلال هذا التقدّم بقي القلب الخوارزمي قريبًا جدًا من Transformer لجوجل: بلوكات الانتباه الذاتي، ترميزات الموضع، وطبقات مكدسة. القفزة كانت في الحجم الصريح والهندسة المستمرة.
حيث ركزت نماذج جوجل المبكرة (مثل BERT) على مهام الفهم — التصنيف، ترتيب البحث، والإجابة على الأسئلة — أميلت OpenAI نحو التوليد المفتوح والحوار. نشرت جوجل نماذج حالة‑الفن ومن ثم تحركت قُدمًا للأوراق التالية؛ بينما حولت OpenAI فكرة واحدة إلى خط أنابيب منتج.
البحوث المفتوحة من جوجل وDeepMind والجامعات غذّت GPT مباشرة: متغيرات Transformer، حيل تحسين، جداول معدل التعلم، قوانين التوسيع، وترميز أفضل للرموز. امتصت OpenAI هذه النتائج العامة، ثم استثمرت بكثافة في تشغيلات تدريب خاصة وبُنية تحتية مملوكة.
الشرارة الفكرية — Transformers — أتت من جوجل. قرار المراهنة على توسيع هذه الفكرة، إطلاق API، ومن ثم منتج محادثة استهلاكي كان قرار OpenAI.
نجاح جوجل التجاري المبكر مع التعلم العميق جاء من جعل ماكينة صنع النقود الأساسية—البحث والإعلانات—أذكى. ذلك السياق شكّل كيف قيّمت المعماريات الجديدة مثل Transformer. بدل السباق لبناء مولدات نص حرة، ضاعفت جوجل جهودها على نماذج تجعل الترتيب والملاءمة والجودة أفضل. كان BERT مناسبًا تمامًا.
BERT (تمثيلات تشفيرية ثنائية الاتجاه من Transformers) هو نموذج encoder-only مدرّب بتقنية الـ masked language modeling: أجزاء من الجملة تُخفي والنموذج يجب أن يستنتج الرموز المفقودة باستخدام السياق الكامل على الجانبين.
هدف التدريب هذا انسجم تقريبًا مع مشاكل جوجل:
النماذج المشفرة تتناسب بسلاسة مع كومة الاسترداد والرتبة الموجودة لدى جوجل. يمكن استدعاؤها كإشارات صلة إلى جانب مئات الميزات الأخرى، محسنّة البحث دون إعادة هيكلة كاملة للمنتج.
جوجل تحتاج إجابات تكون موثوقة، قابلة للتتبع، وقابلة للتسييل:
BERT حسّن الثلاثة دون أن يهزم واجهة البحث المثبتة أو نموذج الإعلانات. أما مولدات شبيهة بـ GPT فكانت تقدم قيمة غير واضحة مباشرة لنموذج الأعمال القائم.
التوليد الحر أثار مخاوف داخلية حادّة:
أغلب حالات الاستخدام التي تجاوزت مراجعات السياسة كانت مساعدة ومقيدة: الإكمال التلقائي في Gmail، الردود الذكية، الترجمة، وتعزيز الترتيب. كانت نماذج المشفر أسهل في الحدّ والمراقبة والتبرير مقارنةً بنظام محادثة عام.
حتى مع وجود نماذج محادثة أولية، ظل السؤال المركزي: هل الإجابات المباشرة ستقلل من الاستعلامات والنقرات على الويب؟
تجربة محادثة تعطي إجابة كاملة في خطوة واحدة تغيّر سلوك المستخدم:
غريزة القيادة كانت دمج الذكاء الاصطناعي كمُحسّن للبحث، لا كبديل. ولذلك جوجل فضلت تحسينات ترتيب وملخصات غنية وفهم دلالي تدريجي — تمامًا حيث يبرع BERT — بدلاً من منتج دردشة مستقل قد يزعزع نموذج الإيرادات.
كل قرار منها كان عقلانيًا بمفرده:
مجتمعة، جعلت هذه القرارات جوجل تقلل الاستثمار في تحويل التقنيات الشبيهة بـ GPT إلى تجارب مُعمّمة للعامة. فرق البحث استكشفت محولات decoder ونظم الحوار، لكن فرق المنتج لم تُحفّز بشدة على إطلاق شات قد:
OpenAI، بلا إمبراطورية بحثية للحماية، اتخذت الرهان المعاكس: أن واجهة دردشة قوية ومتاحة على نطاق واسع — حتى مع عيوبها — ستخلق طلبًا جديدًا على نطاق هائل. تركّز جوجل على BERT والمواءمة مع البحث أخّر تحرّكها نحو أدوات مولدة موجهة للمستهلك.
تأسست OpenAI في 2015 كمختبر أبحاث غير ربحي، بتمويل من مؤسسين تقنيين رأوا في الذكاء الاصطناعي فرصة وخطرًا في آنٍ واحد. في السنوات الأولى بدا مثل Google Brain أو DeepMind: نشر أوراق، إصدار كود، ودفع العلم.
بحلول 2019 أدرك القادة أن النماذج الحدودية ستتطلب مليارات الدولارات من الحساب والحوسبة. الحل كان هيكلًا مبتكرًا: OpenAI LP كشركة "محدودة الربح" تحت مظلة غير ربحية.
سمح ذلك للمستثمرين بعوائد محددة بينما يحتفظ المجلس برؤية مهمّة. الهيكل مكّن إبرام صفقات تمويل وسحابة ضخمة دون أن تتحول المؤسسة إلى شركة ناشئة تقليدية.
بينما كانت مختبرات كثيرة تُحسّن المعماريات أو تبني نظمًا متخصصة، راهنت OpenAI بقوة: قد تكون النماذج العامة الكبيرة جدًا قادرة بشكل مفاجئ إذا استمررت في توسيع البيانات والمعلمات والحساب.
تتابع GPT‑1، 2، 3 وصفة بسيطة: Transformer قياسي لكن أكبر، تدريبه أطول وعلى نص متنوع. بدل تخصيص نموذج لكل مهمة، اعتمدت على "نموذج كبير واحد، استخدامات كثيرة" عبر الـ prompting والتخصيص اللاحق.
هذه ليست مجرد وجهة نظر بحثية؛ كانت إستراتيجية عمل: إذا كانت واجهة API واحدة تغطي آلاف حالات الاستخدام—من أدوات كتابة إلى مساعدين في البرمجة—فإن OpenAI يمكنها أن تصبح منصة.
أطلق GPT‑3 API عام 2020 وجعل الاستراتيجية قابلة للتطبيق. بدل إطلاق برامج معقدة أو منتجات محصورة، عرضت OpenAI واجهة سحابية بسيطة:
هذا النهج "API‑first" سمح للشركات الناشئة والمؤسسات بعلاج تجربة المستخدم والامتثال، بينما ركّزت OpenAI على تدريب نماذج أكبر وتحسين المحاذاة.
الـ API خلق أيضًا محركًا واضحًا للإيرادات مبكرًا. بدل انتظار منتجات مثالية، سمحت OpenAI للنظام البيئي باكتشاف حالات الاستخدام والقيام ببحوث المنتج بالنيابة عنها.
اختارت OpenAI إطلاق منتجات قبل أن تكون النماذج مصقولة تمامًا. أُطلق GPT‑2 بشكل مرحلي لأسباب تتعلق بالسلامة؛ وظهر GPT‑3 في بيتا محدود بعيوبه الواضحة—هلوسات، تحيّز، وعدم تناسق.
أوضح تعبير عن هذه الفلسفة كان ChatGPT أواخر 2022. لم يكن أحدث نموذج متاح لدى OpenAI، ولم يكن مصقولًا تمامًا. لكنه قدّم:
بدل تحسين النموذج سرًا إلى درجة الكمال، تعاملت OpenAI مع الجمهور كالمحرك الأكبر للتغذية الراجعة. الضوابط والوسائل تطورت أسبوعًا بأسبوع بناءً على السلوك المرصود.
رهان OpenAI على التوسيع احتاج ميزانية حسابية هائلة. هنا كانت شراكة مايكروسوفت حاسمة.
من 2019 توسعت الشراكة لتشمل:
لـ OpenAI، هذا حَلّ قيدًا أساسيًا: تمويل تشغيلات التدريب على حواسيب فائقة دون بناء بنية سحابية خاصة بها.
ولمايكروسوفت، كانت طريقة لتمييز Azure وإدخال الذكاء الاصطناعي سريعًا إلى Office وGitHub وWindows وBing.
جميع هذه القرارات—التوسيع، API‑first، الدردشة الاستهلاكية، واتفاقية مايكروسوفت—خلقت حلقة معززة:
بدل تحسين الأوراق البحثية إلى الكمال أو تجارب داخلية حذرة، أمّنت OpenAI لُبنة تراكُمية من المستخدمين والبيانات والنقد المالي.
أطلقت OpenAI ChatGPT في 30 نوفمبر 2022، بدا كمعاينة بحثية بسيطة: مربع دردشة، بلا جدار دفع، ومنشور مدونة قصير. خلال خمسة أيام تخطى المليون مستخدم. خلال أسابيع، امتلأت الشبكات الاجتماعية بحالات استخدام: كتابة مقالات، تصحيح برمجيات، صياغة رسائل قانونية، وعصف أفكار تجاري—all باستخدام أداة واحدة.
المنتج لم يُقدَّم كـ "عرض لورقة معتمدة على Transformer". بل ببساطة: اسأل أي شيء، واحصل على إجابة. هذه البساطة جعلت التكنولوجيا مفهومة على الفور لغير الخبراء.
داخليًا، كان التفاعل أشبه بإنذار أحمر. أعلن القادة "كود ريد". عاد لاري بايج وسيرجي برين إلى مناقشات المنتج والاستراتيجية. فرق عملت على أنظمة محادثة لسنوات وجدت نفسها مفحوصةً بشدة.
المهندسون كانوا يعلمون أن لدى جوجل أنظمة قريبة من قدرات ChatGPT. نماذج مثل LaMDA وPaLM وأجزاء من Meena أظهرت حوارًا وطلاقة وقياسات استدلالية على المعايير الداخلية. لكنها بقيت خلف بوابات، مراجعات أمان، وموافقات داخلية طويلة.
خارجيًا بدا الأمر كما لو أن جوجل تِركَت المفاجأة.
تقنيًا، ChatGPT وLaMDA أبناء عمومة: نماذج كبيرة قائمة على Transformer مخصّصة للحوار. الفجوة الأساسية لم تكن في بنية النموذج؛ بل في قرارات المنتج.
OpenAI:
جوجل:
تحت ضغط الاستعراض، أعلنت جوجل عن Bard في فبراير 2023. حاول العرض التجريبي محاكاة سحر ChatGPT. لكن إحدی الإجابات البارزة — حول اكتشافات تلسكوب جيمس ويب — كانت خاطئة. الخطأ ظهر في مواد تسويقية لجوجل، اكتشف بسرعة، وخسرت ألفات المليارات من قيمة ألفابيت في يوم.
أعاد ذلك تأكيد رواية قاسية: جوجل متأخرة ومترددة وغير دقيقة، بينما بدت OpenAI واثقة ومستعدة.
المفارقة كانت مؤلمة: الهلوسات والأخطاء المعرفية معروفة في نماذج اللغة الكبيرة. الفرق أن OpenAI طبّعت هذا الأمر لدى المستخدمين عبر إشارات واجهة واضحة وتنويهات، بينما غلّفت جوجل إطلاق Bard بتسويق لامع فتعرّضت لزلّة بارزة.
ميزة ChatGPT على أنظمة جوجل لم تكن مجرد نموذج أكبر أو خوارزمية أروع. بل كانت سرعة التنفيذ ووضوح التجربة.
OpenAI:
جوجل تحرّكت أبطأ، أمّنت نفسها للخطأ الصفري، وقدّمت Bard كإطلاق مصقول بدلًا من مرحلة تعلم. بحلول وقت وصول Bard للمستخدمين، كان ChatGPT قد أصبح عادة يومية للطلاب والموظفين والمطوّرين.
الصدمة داخل جوجل لم تكن فقط أن OpenAI تمتلك ذكاء اصطناعي جيدًا. بل أن منظمة أصغر أخذت أفكارًا ساعدت جوجل على اختراعها، رتّبتها في منتج أحبه الناس، وأعادت تعريف من يقود الذكاء الاصطناعي — كل ذلك في أسابيع.
انطلقت الشركتان من أسس تقنية متقاربة لكن حقائق تنظيمية وُظفت بشكل مختلف؛ وهذه الفروقات شكّلت كل قرار حول أنظمة شبيهة بـ GPT.
مصدر جوجل الأساسي هو البحث والإعلانات. هذا المحرك يولّد تدفقات نقدية هائلة ومتوقعة، ومعظم الحوافز العليا مرتبطة بحمايته.
إطلاق نموذج محادثة قوي قد:
لذلك كان المنحى الطبيعي الحذر. بينما OpenAI لم تمتلك بقرة نقود؛ حافزها وجودي: أطلق، اكسب المطورين، أبرم صفقات حوسبة، وحوّل البحث إلى إيرادات قبل الآخرين.
جوجل مرت بتدقيقات مكافحة الاحتكار ونزاعات خصوصية وتنظيمات عالمية. هذا التاريخ خلق ثقافة حيث:
OpenAI قبلت أن النماذج القوية ستكون فوضوية علنًا. ركّزت على التكرار مع ضوابط بدل دوائر مراجعة داخلية طويلة. كانت لا تزال حذرة، لكن سماحها للمخاطر المنتجية كان أكبر بكثير.
في جوجل، الإطلاقات الكبيرة تمر عبر لجان، موافقات عابرة للأقسام، ومفاوضات OKR معقّدة. هذا يبطئ أي منتج يقطع عبر البحث والإعلانات والسحابة والهواتف.
OpenAI ركّزت السلطة في مجموعة قيادية صغيرة وفريق منتج مُركّز. قرارات ChatGPT، التسعير، واتجاه الـ API كانت تُتخذ بسرعة ثم تُعدّل اعتمادًا على الاستخدام.
سنوات طويلة كانت ميزة جوجل على نشر أفضل الأوراق وتدريب أقوى النماذج. لكن بمجرد أن صار بإمكان الآخرين تكرار الأبحاث، تحوّل الامتياز إلى البحث بالإضافة إلى: تصميم المنتج، تجربة المطور، حلقات تغذية البيانات، وسرعة دخول السوق.
OpenAI تعاملت مع النماذج كركيزة منتج: أطلق API، واجهة دردشة، تعلّم من المستخدمين، ثم أدرج النتائج في الجيل التالي من النماذج. بينما جوجل أبقت أقوى أنظمتها كأدوات داخلية أو عروض ضيقة النطاق. بحلول محاولة تدويلها، كانت OpenAI قد خلقت عادات وتوقعات ونظامًا بيئيًا حول GPT.
الفجوة لم تكن في فهم Transformers؛ بل في الاستعداد الهيكلي والقديم لتحويل ذلك الفهم إلى منتجات أمام مئات الملايين من الناس.
تقنيًا، جوجل بقيت قوة. قادت على البنية التحتية: TPUs مخصصة، شبكات مراكز بيانات متقدمة، وأدوات داخلية جعلت تدريب النماذج الضخمة روتينًا قبل سنوات من قدرة معظم الشركات.
دفع باحثو جوجل الحدود في بنى النماذج (Transformers، متغيرات الانتباه، mixture-of-experts، نماذج مع استرجاع)، قوانين التوسيع، وكفاءة التدريب. كثير من الأوراق الرئيسية أتت من جوجل أو DeepMind.
لكن كثيرًا من هذا الابتكار بقي داخل الأوراق، المنصات الداخلية، وميزات محددة في البحث والإعلانات وWorkspace. بدلاً من وجود "منتج ذكاء اصطناعي واحد" واضح، رأى المستخدمون عشرات تحسينات صغيرة ومتفرقة.
اتخذت OpenAI مسارًا مختلفًا. تقنيًا بنَت على أفكار منشورة من الآخرين، بما في ذلك جوجل. ميزتها كانت تحويل هذه الأفكار إلى خط منتجات واضح:
هذا التغليف الموحد حول قدرة النموذج جعل الناس يتبنّونها فورًا. بينما جوجل نشرت نماذج قوية عبر علامات تجارية متعددة، ركّزت OpenAI الانتباه على أسماء وتدفقات قليلة.
بمجرد ما انفجر ChatGPT، حصلت OpenAI على ما كانت تملكه جوجل سابقًا: وعي افتراضي افتراضي. جرب المطورون OpenAI كخيار أول، كتبوا دروسًا، وبنوا منتجات على رأس API الخاص بها.
فجوة جودة النموذج — إن وُجدت — كانت أقل أهمية من فجوة التوزيع. التفوق التقني لجوجل في البنية التحتية والبحث لم يتحول تلقائيًا إلى زعامة سوقية.
الدرس: الفوز في العلم وحده لا يكفي. دون منتج واضح، تسعير، وسرد متماسكة، حتى أقوى محرك بحث قد يُتفوق عليه مُنتج مركز.
عندما كشفت ChatGPT التأخر النسبي في تنفيذ جوجل، أطلقت الشركة "كود ريد" علنيًا. تلت ذلك إعادة ضبط سريعة وصريحة لاستراتيجية AI في جوجل، أحيانًا فوضوية لكنها حقيقية.
الإجابة الأولى لجوجل كانت Bard، واجهة دردشة مبنية على LaMDA ثم رُفعت إلى PaLM 2. بدا Bard متسرعًا وحذرًا في آنٍ واحد: وصول محدود، توزيع بطيء وقيود واضحة.
إعادة الضبط الحقيقية جاءت مع Gemini:
هذا التغيير أعاد جوجل من "شركة بحث تجارب على الشات بوت" إلى "منصة تضع الذكاء الاصطناعي أولًا مع عائلة نماذج رائدة"، حتى لو كان ذلك بعد تفوّق OpenAI.
قوة جوجل التوزيعية جعلت التركيز على دمج Gemini في الأماكن التي يتواجد فيها المستخدمون بالفعل:
الاستراتيجية: إن فازت OpenAI بالعلامة التجارية والحداثة، تستطيع جوجل الفوز بالحضور الافتراضي والدمج المتقن في سير العمل اليومي.
مع توسيع الوصول، استندت جوجل كثيرًا إلى مبادئ AI وسياسات السلامة:
المقايضة: ضوابط أقوى وتجريب أبطأ مقابل نسخة OpenAI الأسرع التي تحمل زلات عامة أحيانًا.
من حيث جودة النموذج الخالص، Gemini Advanced والنماذج العليا تبدو منافسة لـ GPT‑4 على كثير من المقاييس وتجارب المطورين. في بعض المهام متعددة الوسائط والبرمجة يتفوّق Gemini؛ وفي مهام أخرى يظل GPT‑4 المعيار.
حيث لا تزال جوجل تتأخر هو حصة الانتباه والنظام البيئي:
ميزان قوة جوجل هو توزيعها الضخم (البحث، أندرويد، كروم، Workspace) وبُنيتها التحتية. إن استطاعت تحويل ذلك إلى تجارب AI محببة بسرعة، فهي تستطيع سد الفجوة أو قلب الانطباع.
إعادة الضبط تجري في حقل لم يعد حكرا على جوجل وOpenAI:
جوجل متأخرة لكنها جادة؛ المستقبل على الأرجح متعدد الأقطاب، لا فائزًا وحيدًا. للمبادرين هذا يعني تصميم استراتيجيات تفترض مزودين متعدّدين، نماذج مفتوحة قوية، وتطوّرًا متسارعًا بدل الرهان على كومة AI واحدة.
ثبتت جوجل أنه يمكنك أن تختَرع الاختراق وتخسر أول موجة قيمة. للنّاس المبادرين، الهدف ليس الإعجاب بالمفارقة بل تجنّب تكرارها.
عامل كل نتيجة بحثية كـ فرضية منتج، لا كنقطة نهاية.
إذا كانت النتيجة مهمة بما يكفي للنشر، فهي مهمة بما يكفي لبناء نموذج أولي للعملاء.
الناس يفعلون ما تُكافَأ عليه.
Transformers كانت بِمثابة بِنية حاسوبية جديدة. جوجل عاملتها كترقية بنية؛ OpenAI كمنمح للمنتج.
عندما تصل إلى فكرة عميقة:
مخاوف العلامة التجارية والسلامة صحيحة، لكن لا تجعلها سببًا للتأخير المديد.
اصنع نموذجًا طبقيًا للمخاطر:
بدل انتظار اليقين، صمّم تعريضًا محكومًا: إطلاق تدريجي، تسجيل قوي، مسارات إرجاع سريعة، واختبارات داخلية وخارجية.
جوجل سهّلت للآخرين بناء أنظمة شبيهة بـ GPT بنشر الأفكار والأدوات، ثم راقبت من على الهامش.
عند كشف قدرة جديدة:
لا تعتمد على مدير خارق أو فريق بطولي.
بِنِ منظومة:
أكبر خطأ جوجل لم يكن عدم التنبؤ بالذكاء الاصطناعي؛ كان التقليل من قدرة اختراعاتها عندما تُعرض أمام المستخدم.
منطق عملي:
الابتكارات المستقبلية ستتم تسويقها من قبل فرق مستعدة للتحول بسرعة من "اكتشفنا" إلى "نحن مسؤولون تمامًا عن إطلاق هذا".
الدرس من جوجل ليس أن تنشر أقل أو تخفي الأبحاث. بل أن تُقرِن الاكتشاف العالمي بملكية منتج طموحة، حوافز واضحة، وانحياز للتعلم العلني. المؤسسات التي تفعل ذلك ستملك الموجة التالية، لا تكتب فقط الورقة التي تبدأها.
ليس بالضبط، لكن جوجل اخترعت التقنية الأساسية التي جعلت GPT ممكنًا.
بالتالي، جوجل بنت الكثير من الأساس المعرفي والبُنية التحتية. أما OpenAI فحازت الموجة الأولى من القيمة بقدرتها على تحويل ذلك الأساس إلى منتج سائد (ChatGPT وواجهات برمجة التطبيقات).
لأن جوجل ركزت على البحث والبنى التحتية وتحسينات البحث المتزايدة، بينما راهنت OpenAI على إطلاق منتج عام واحد.
نقاط الفرق الأساسية:
BERT وGPT يستخدمان Transformers لكنهما مُصممان لأغراض مختلفة.
لأن التوليد الحر ينطوي على مخاطر واضحة وصعوبات في التسييل ضمن نموذج أعمال جوجل القائم على البحث.
المخاوف الرئيسية:
اتخذت OpenAI ثلاثة رهانات كبرى ونفّذتها باستمرار:
دفعت Transformers إلى نطاقات هائلة من حيث البيانات والمعلمات والحساب، بالاعتماد على قوانين التوسيع بدل تغيير المعمارية بشكل دائم.
ليس بالضرورة. الصدمة كانت في المنتج والسرد العام أكثر منها في القدرة التقنية الخام.
هذا قلب الانطباع العام: من "جوجل تتقدم في الذكاء الاصطناعي" إلى "ChatGPT وOpenAI يقودان المشهد". الفشل الحقيقي لجوجل كان التقليل من قيمة تحويل اكتشافاتها إلى تجربة مستخدم بسيطة وسهلة الوصول.
تفوق ChatGPT لم يكن في الخوارزميات فحسب، بل في التنفيذ والتأطير.
عناصر التفوق:
قصة جوجل مقابل OpenAI تُعلّم كيف تحول التكنولوجيا العميقة إلى ميزة دائمة.
نِقاط عملية:
يمكنك أن تكرر "خطأ جوجل" على أي حجم تنظيمي إذا لم تحوّل البحث إلى منتج.
أسباب الوقوع في الخطأ:
كيف تتجنبه الشركات الأصغر:
جوجل ليست مهزومة نهائيًا: لقد استجابت وبسطت إستراتيجيتها عبر Gemini، لكن التنافس أصبح متعدد الأقطاب.
حقائق الوضع:
أما نقاط الضعف المتبقية:
تقنيًا لم تكن جوجل متأخرة؛ لكن على مستوى المنتج والتوقيت العام، تحرّكت أبطأ فيما يهم انطباع الجمهور والتبني.
BERT (جوجل):
GPT (OpenAI):
باختصار: جوجل ركزت على جعل البحث أذكى؛ OpenAI ركزت على صنع محرك لغوي عام يمكن التحدث إليه مباشرة.
بسبب حجمها والتعرض التنظيمي، اختارت جوجل إدماج قدرات الذكاء الاصطناعي بطريقة محسوبة بدلاً من إطلاق دردشة عامة واسعة النطاق سريعًا.
منصة API أولًا
حولت النماذج إلى واجهة سحابية بسيطة مبكرًا، مما سمح لآلاف الفرق باكتشاف حالات الاستخدام وبناء منتجاتهم الخاصة.
الدردشة الاستهلاكية كمنتج رائد
جعلت ChatGPT التقنية مفهومة للجمهور: "اسأل أي شيء، واحصل على إجابة". أُطلق المنتج قبل اكتماله، وتعلّم من الاستخدام الحقيقي بسرعة.
هذه القرارات خلقت حلقة تعزيزية: مستخدمون → بيانات → إيرادات → نماذج أكبر → منتجات أفضل، متقدمة على إيقاع جوجل الأبطأ والمتجزئ.
إطلاق جوجل لبَرد بدا متسرعًا وتعرّض لهفوة عامة، بينما OpenAI أطلقت بسرعة وتعلمت في العلن. الفرق لم يكن في أن جوجل لا تستطيع بناء ChatGPT، بل في أن OpenAI "فعلاً أطلقت وتعلّمت".
الخلاصة: القيادة التقنية دون ملكية منتجية هشة—قد يفوز بها آخرون يُجيدون تحويل البحث إلى تجربة مستخدم سهلة وواسعة الانتشار.
لا تحتاج لأن تكون بحجم جوجل لتتقاطع مع هذه المشكلة؛ يكفي أن تسمح البيروقراطية والخوف أن يتقدما على السرعة والفضول.
النهاية المرجحة: مستقبل متعدد الأقطاب—مزودون مغلقون أقوياء (جوجل، OpenAI، وغيرهم)، ونماذج مفتوحة تتطور سريعًا. جوجل لم تخسر السباق إلى الأبد، لكنها فاتتها موجة التوليد الأولى ثم أعادت التموضع.