تتبّع مسار إريك شميدت من لعب دور في تشكيل بحث جوجل إلى التأثير على استراتيجيات الذكاء الاصطناعي الوطنية: الأدوار السياسية، الأفكار الأساسية، والنقاشات العملية.

غالبًا ما يُقدَّم إريك شميدت باعتباره المدير التنفيذي السابق لجوجل — لكن أهميته اليوم أقل عن صناديق البحث وأكثر عن كيفية تفكير الحكومات حول الذكاء الاصطناعي. هدف هذا المقال هو شرح هذا التحول: كيف أصبح مدير تقنية ساعد في توسيع أحد أكبر شركات الإنترنت في العالم صوتًا بارزًا في أولويات الذكاء الاصطناعي الوطنية، والتقارير العامة، وعمليات تحويل الابتكار إلى قدرة مؤسسية.
استراتيجية وطنية للذكاء الاصطناعي هي خطة دولة حول كيفية تطوير واعتماد وتنظيم الذكاء الاصطناعي بما يخدم أهداف عامة. عادةً ما تغطي التمويل للبحث والتطوير، دعم الشركات الناشئة واعتماد الصناعة، قواعد الاستخدام المسؤول، خطط القوى العاملة والتعليم، وكيف ستشتري الوكالات الحكومية وتستعمل أنظمة الذكاء الاصطناعي.
تشمل أيضًا أسئلة "صلبة": كيف تحمي البنى التحتية الحرجة، كيف تدير البيانات الحساسة، وكيف ترد عندما يمكن استخدام نفس أدوات الذكاء الاصطناعي في الفائدة المدنية والميزة العسكرية.
شميدت مهم لأنه يجلس عند تقاطع أربعة نقاشات تشكّل خيارات السياسة:
هذا ليس سيرة ذاتية أو قائمة بكل موقف عبّر عنه شميدت. التركيز على أدواره العامة (مثل الأعمال الاستشارية والمبادرات المعروفة) وما تكشفه تلك المحطات عن كيفية حدوث التأثير في سياسة الذكاء الاصطناعي — عبر التقارير، أولويات التمويل، أفكار الشراء، وترجمة الواقع التقني إلى عمل حكومي.
الملف العام لإريك شميدت مرتبط غالبًا بجوجل، لكن طريقه إلى القيادة التقنية بدأ قبل أن يصبح البحث عادة يومية.
تدرّب شميدت كعالم حاسوب وبدأ مسيرته في أدوار مزجت الهندسة بالإدارة. مع الوقت تولى مناصب عليا في شركات تقنية كبرى، بما في ذلك Sun Microsystems ولاحقًا Novell. كانت تلك الوظائف مهمة لأنها علمته نوعًا محددًا من القيادة: كيفية إدارة منظمات معقدة، إطلاق منتجات على نطاق عالمي، واتخاذ قرارات تقنية تحت ضغط الأسواق والمنافسين والتنظيم.
عندما انضم شميدت إلى جوجل في 2001 كمدير تنفيذي، كانت الشركة لا تزال في مراحلها المبكرة — سريعة النمو، مدفوعة بمهمة، ويقودها مؤسسان بحاجة إلى مدير ذو خبرة للمساعدة في مأسسة العمليات. لم يكن دوره "اختراع البحث" بقدر ما كان بناء البنية التي تسمح بتكرار الابتكار بشكل موثوق: قرارات أوضح، خطوط توظيف أقوى، وإيقاعات تشغيل تستطيع مواكبة النمو السريع.
حقبة نمو جوجل لم تكن فقط حول نتائج أفضل؛ كانت حول التعامل مع أحجام هائلة من الاستعلامات، صفحات الويب، وقرارات الإعلانات — بشكل متسق وسريع. "البحث على نطاق" أثار أيضًا أسئلة ثقة تتجاوز الهندسة: كيف تُعالج بيانات المستخدمين، كيف تؤثر قرارات الترتيب على ما يراه الناس، وكيف يستجيب المنصة عندما تصبح الأخطاء علنية.
خلال تلك الفترة برزت بعض الأنماط: ميل لتوظيف مواهب تقنية قوية، تركيز على الأولويات (تحديد ما يهم)، وتفكير منظومي — اعتبار المنتجات والبنية التحتية وقيود السياسة أجزاء من نظام تشغيل واحد. هذه العادات تفسّر جزئيًا لماذا انجذب شميدت لاحقًا إلى أسئلة التكنولوجيا الوطنية، حيث تكون التنسيقات والمقايضات مهمة بقدر الاختراع.
يبدو البحث بسيطًا — اكتب استعلامًا واحصل على إجابات — لكن النظام وراءه حلقة منضبطة تجمع المعلومات، تختبر الافتراضات، وتكسب ثقة المستخدمين على نطاق واسع.
على مستوى عالٍ، للبحث ثلاثة وظائف.
أولًا، الزحف: برامج آلية تكتشف الصفحات باتباع الروابط وإعادة زيارة المواقع لاكتشاف التغييرات.
ثانيًا، الفهرسة والترتيب: ينظم النظام ما وجد ثم يرتب النتائج باستخدام إشارات تقيّم الجودة والفائدة.
ثالثًا، الملاءمة: الترتيب ليس "أفضل صفحة على الإنترنت" بل "أفضل صفحة لهذا الشخص، لهذا الاستعلام، الآن". ذلك يعني تفسير النية واللغة والسياق — وليس مجرد مطابقة كلمات.
عززت حقبة البحث حقيقة عملية: النتائج الجيدة عادةً ما تأتي من القياس، التكرار، وبنية تحتية جاهزة للنطاق.
عاشت فرق البحث على البيانات — أنماط النقر، إعادة صياغة الاستعلامات، أداء الصفحات، تقارير السبام — لأنها تكشف ما إذا كانت التغييرات تفيد الناس فعلًا. كانت تعديلات الترتيب الصغيرة تُقيَّم غالبًا من خلال تجارب محكمة (مثل اختبارات A/B) لتجنب الاعتماد على الحدس.
ولا يعمل أي من ذلك بدون بنية تحتية. أنظمة موزعة ضخمة، خدمة بزمن استجابة منخفض، مراقبة، وإجراءات تراجع سريعة حوّلت "أفكارًا جديدة" إلى إصدارات آمنة. أصبحت القدرة على إجراء تجارب عديدة والتعلم بسرعة ميزة تنافسية.
تتطابق نفس المواضيع مع التفكير الحديث في سياسات الذكاء الاصطناعي:\n\n- النطاق يغيّر المخاطر: عندما يخدم نموذج ملايين، تصبح الأخطاء النادرة أحداثًا يومية.\n- التقييم مهم: تحتاج إلى معايير اختبار، اختبارات إجهاد، ومراقبة في العالم الحقيقي — ليس عروضًا مثيرة فقط.\n- الأمان تشغيلي: الحواجز، الاستجابة للحوادث، والتدقيق المستمر تشبه أنظمة مكافحة السبام وجودة المحتوى في البحث.
والأهم أن أنظمة المواجهة للمستخدم ترتكز على الثقة. إذا بدت النتائج مُحرَّفة أو غير آمنة أو خاطئة باستمرار، تتآكل القبول والمشروعية — وهو استنتاج ينطبق بشكل أشد على أنظمة الذكاء الاصطناعي التي تولّد إجابات، لا مجرد روابط.
عندما يُعامل الذكاء الاصطناعي كأولوية وطنية، يتحول النقاش من "ماذا يجب أن يفعل هذا المنتج؟" إلى "ما الذي يمكن أن تفعله هذه القدرة للمجتمع والاقتصاد والأمن؟" هذا نوع مختلف من اتخاذ القرار. تتسع المخاطر: الخاسرون والفائزون لم يعودوا شركات وزبائن فقط، بل صناعات ومؤسسات وأحيانًا دول.
عادةً ما تُحسّن خيارات المنتج قيمة المستخدم، الإيرادات والسمعة. تجبر الأولوية الوطنية للذكاء الاصطناعي على موازنة السرعة والحذر، الانفتاح والضبط، والابتكار والمرونة. قرارات حول وصول النماذج، مشاركة البيانات، وجداول النشر يمكن أن تؤثر على مخاطر المعلومات المضللة، اضطراب سوق العمل، والاستعداد الدفاعي.
تهتم الحكومات بالذكاء الاصطناعي لنفس الأسباب التي اهتمت بها بالكهرباء والطيران والإنترنت: يمكن أن يزيد الإنتاجية الوطنية ويعيد تشكيل القوة.
يمكن لأنظمة الذكاء الاصطناعي أن تكون أيضًا «ذات استخدام مزدوج» — مفيدة في الطب واللوجستيات، لكنها قابلة أيضًا للاستخدام في العمليات السيبرانية والمراقبة أو تطوير الأسلحة. حتى الاكتشافات المدنية يمكن أن تغيّر التخطيط العسكري وسلاسل الإمداد وتدفقات العمل الاستخباراتية.
تقع معظم قدرات الذكاء الاصطناعي المتقدمة في شركات خاصة ومختبرات بحثية رائدة. تحتاج الحكومات إلى الوصول للخبرة والحوسبة وتجربة النشر؛ وتحتاج الشركات إلى وضوح حول القواعد ومسارات الشراء والمسؤولية.
لكن التعاون نادرًا ما يكون سلسًا. تخشى الشركات على الملكية الفكرية والميزة التنافسية وأن يُطلب منها القيام بمهام إنفاذ. وتخشى الحكومات من الاستيلاء، والمساءلة غير المتكافئة، والاعتماد على عدد قليل من الموردين للبُنى الاستراتيجية.
الاستراتيجية الوطنية للذكاء الاصطناعي أكثر من مذكرة. تمتد عادة إلى:\n\n- المواهب: التعليم، التأشيرات، والتوظيف العام القادر على التنافس مع القطاع الخاص.\n- الحوسبة: الوصول إلى الرقائق، مراكز البيانات، وبيئات آمنة للعمل الحساس.\n- المعايير: اختبارات الأمان، توقعات التوثيق، ومعايير التشغيل البيني.\n- المشتريات: كيف تشتري الوكالات الأنظمة، تتحقق منها، وتحدّثها دون تأخيرات سنوات.\n\nعندما تُعامل هذه القطع كأولويات وطنية، تصبح أدوات سياسية — ليست قرارات تجارية فقط.
تأثير إريك شميدت على استراتيجية الذكاء الاصطناعي أقل في كتابة القوانين وأكثر في تشكيل "السرد الافتراضي" الذي يستخدمه صانعو السياسات عند اتخاذهم الإجراءات. بعد قيادته لجوجل، أصبح صوتًا بارزًا في دوائر الاستشارة الأميركية — لا سيما كرئيس للجنة الأمن القومي للذكاء الاصطناعي (NSCAI)، إلى جانب جهود أخرى في مجالس وإستشارات وبحوث تربط خبرة الصناعة بأولويات الحكومة.
تعمل اللجان وفرق العمل عادةً على جدول زمني ضيق، تجمع مدخلات من الوكالات والأكاديميين والشركات والمجتمع المدني. تكون المخرجات عملية وقابلة للمشاركة:\n\n- تقارير عامة تحدد المشكلة وتشرح المخاطر وضرورة العمل\n- توصيات ملموسة (تغييرات تنظيمية، أفكار مشتريات، أهداف تدريب)\n- أطر مسودة ونهج نموذجي يمكن للوكالات إعادة استعماله\n- إحاطات تترجم التوجهات التقنية إلى لغة سياسة
تهم هذه الوثائق لأن الموظفين يستشهدون بها، والوكالات تحاكي هياكلها، والصحفيين يستخدمونها لشرح لماذا الموضوع يستحق الانتباه.
لا تستطيع المجموعات الاستشارية تخصيص الأموال أو إصدار اللوائح أو إملاء الوكالات. هي تقترح؛ المسؤولون المنتخبون والوكالات التنفيذية هم من ينفّذون. حتى عندما يؤثر تقرير كبير، فإنه يتنافس مع الميزانيات والقيود السياسية والسلطات القانونية والأولويات الوطنية المتغيرة.
مع ذلك، قد يكون الخط بين "الأفكار" و"العمل" قصيرًا عندما يقدم التقرير خطوات جاهزة للتنفيذ — خصوصًا حول المشتريات، المعايير، أو برامج القوى العاملة.
إذا أردت الحكم ما إذا عمل مستشار قد غيّر النتائج، انظر لأدلة تتجاوز العناوين:\n\n- التبنّي: أي التوصيات ظهرت في أوامر تنفيذية أو خطط وكالات أو تشريعات؟\n- الاستشهادات: كم مرة ذُكِر التقرير في جلسات استماع أو وثائق استراتيجية أو تدقيقات؟\n- تحولات التمويل: اعتمادات جديدة، برامج منح، أو ميزانيات مشتريات متوافقة مع المقترحات؟\n- التغييرات المؤسسية: إنشاء مكاتب، هيئات تنسيقية، أو تقارير مفروضة مرتبطة بالتوصيات؟
يُقاس التأثير عندما تتحول الأفكار إلى آليات سياسة قابلة للتكرار — لا مجرد اقتباسات لافتة.
الاستراتيجية الوطنية ليست قانونًا واحدًا أو حزمة تمويل لمرة واحدة. إنها مجموعة خيارات منسقة حول ما يبنى، من يبنيه، وكيف ستعرف الدولة أن ما تبنيه يعمل.
تمويل البحث العام يساعد في خلق اختراقات قد تقلل عنها الأسواق الخاصة الاستثمار — خاصة العمل الذي يستغرق سنوات، عائداته غير مؤكدة، أو يركز على الأمان. استراتيجية قوية تربط البحث الأساسي (الجامعات، المختبرات) ببرامج تطبيقية (الصحة، الطاقة، الخدمات الحكومية) حتى لا تتوقف الاكتشافات قبل وصولها للمستخدمين الحقيقيين.
تقدّم الذكاء الاصطناعي يعتمد على باحثين ومهندسين وفرق منتجات ماهرة — ولكن أيضًا موظفي سياسات قادرين على تقييم الأنظمة وفرق مشتريات تشتريها بحكمة. غالبًا ما تدمج الخطط الوطنية التعليم، التدريب المهني، ومسارات الهجرة، لأن نقص المواهب لا يُحل بالمال وحده.
"الحوسبة" هي القدرة الخام المستخدمة لتدريب وتشغيل نماذج الذكاء الاصطناعي — غالبًا في مراكز بيانات كبيرة. الرقائق المتقدمة (كبطاقات GPU ومسرعات متخصصة) هي المحركات التي تزود تلك القدرة.
هذا يجعل الرقائق ومراكز البيانات شيئًا أشبه بشبكات الطاقة والموانئ: ليست جذّابة دائمًا، لكنّها أساسية. إذا لم تستطع دولة الوصول إلى رقائق متقدمة بما يكفي — أو إن لم تستطع تزويد وتشغيل مراكز بيانات موثوقة — فقد تكافح لبناء نماذج تنافسية أو نشرها على نطاق.
الاستراتيجية لها قيمة فقط إذا حسّنت النتائج في مجالات ذات أولوية: الدفاع، الاستخبارات، الرعاية الصحية، التعليم، والخدمات العامة. يتطلب ذلك قواعد شراء، معايير الأمن السيبراني، ومساءلة واضحة عند فشل الأنظمة. كما يعني مساعدة الشركات الأصغر على اعتماد الذكاء الاصطناعي حتى لا تقتصر الفوائد على عدد قليل من الشركات العملاقة.
عمليًا، تحتاج كثير من الوكالات أيضًا إلى طرق أسرع لنمذجة واختبار الأفكار بأمان قبل الالتزام بعقود طويلة الأمد. أدوات مثل Koder.ai (منصة تولّد واجهات ويب، Backend وتطبيقات الجوال من الدردشة، مع وضع تخطيط ولقطات ونظام تراجع) توضح اتجاه المشتريات: حلقات تغذية راجعة أقصر، توثيق أوضح للتغييرات، وتجارب تجريبية أكثر قابلية للقياس.
المزيد من البيانات يمكن أن تحسّن الذكاء الاصطناعي، لكن "اجمع كل شيء" يخلق مخاطر حقيقية: المراقبة، الخروقات، والتمييز. استراتيجيات عملية تستخدم مشاركة بيانات مستهدفة، طرق تحافظ على الخصوصية، وحدود واضحة — خاصة في المجالات الحساسة — بدلاً من اعتبار الخصوصية غير مهمة أو مطلقة.
بدون قياس، تتحول الاستراتيجيات إلى شعارات. يمكن للحكومات أن تطلب معايير مشتركة للأداء، اختبارات للهجوم الأحمر لأمان الأنظمة، تدقيقات طرف ثالث للاستخدامات عالية الخطورة، وتقييمًا مستمرًا بعد النشر — حتى تُرى النجاحات وتُكتشف المشكلات مبكرًا.
تهتم وكالات الدفاع والاستخبارات بالذكاء الاصطناعي لسبب بسيط: يمكنه تغيير سرعة وجودة اتخاذ القرار. تستطيع النماذج فحص صور الأقمار الصناعية أسرع، ترجمة اتصالات اعتراضية، كشف شذوذات سيبرانية، ومساعدة المحللين على ربط إشارات ضعيفة عبر مجموعات بيانات ضخمة. إذا استُخدمت جيدًا، يعني ذلك تحذيرًا مبكرًا أفضل، توجيهًا أدقّ للموارد المحدودة، وساعات عمل بشرية أقل على المهام المتكررة.
عديد من قدرات الذكاء الاصطناعي الأكثر قيمة هي أيضًا الأسهل في سوء الاستخدام. النماذج العامة التي تكتب كودًا، تخطط مهامًا، أو تولّد نصًا مقنعًا يمكن أن تدعم مهام مشروعة — مثل أتمتة التقارير أو تسريع اكتشاف الثغرات — لكنها أيضًا:\n\n- تساعد المهاجمين على صياغة هجمات تصيّد على نطاق واسع أو توليد متغيرات برمجية خبيثة\n- تخفّض الحاجز أمام عمليات التأثير والدعاية\n- تمكّن الاستهداف والمراقبة بسرعة عند ربطها بتغذية بيانات
التحدي الأمني الوطني أقل عن "سلاح مُسخَّر" واحد وأكثر عن أدوات متاحة على نطاق واسع ترفع مستوى الدفاع والهجوم في نفس الوقت.
تواجه الحكومات صعوبة في تبنّي الذكاء الاصطناعي المتغير بسرعة لأن المشتريات التقليدية تفترض متطلبات مستقرة ودورات اختبار طويلة وخطوط مساءلة واضحة. مع نماذج تُحدَّث كثيرًا، تحتاج الوكالات طرقًا للتحقق مما تشتريه (ادعاءات بيانات التدريب، حدود الأداء، الموقف الأمني) ومن هو المسؤول عندما يحدث خطأ — البائع، الموّدم أو الوكالة.
نهج عملي يوازن بين الابتكار وفحوص قابلة للتنفيذ:\n\n- إشراف مستقل للعمليات ذات التأثير العالي\n- اختبارات قبل النشر، بما في ذلك هجوم أحمر ضد سوء الاستخدام والتحيّز\n- تقرير واضح عن الحوادث (فشل النماذج، تسريبات البيانات، مخرجات ضارة)\n- مراقبة مستمرة بعد الإطلاق، وليس فقط عند "القبول"
إذا نُفذت بشكل صحيح، لا تُبطئ الضوابط كل شيء. بل تُركّز الفحص حيث تكون الرهانات أعلى — تحليل الاستخبارات، الدفاع السيبراني، والأنظمة المرتبطة بقرارات حياة أو موت.
تشكل الجيوسياسة استراتيجية الذكاء الاصطناعي لأن الأنظمة الأكثر قدرة تعتمد على مكوّنات قابلة للقياس والتنافس عليها: أفضل المواهب البحثية، الحوسبة على نطاق واسع، بيانات عالية الجودة، والشركات القادرة على دمجها. في هذا السياق، كثيرًا ما يُوصف البُعد الأميركي-الصيني بأنه "سباق"، لكن هذا التصنيف قد يخفي تمييزًا مهمًا: السباق على القدرات ليس نفسه السباق على الأمان والاستقرار.
سباق القدرات الخالص يكافئ السرعة — أنشر أولًا، وسع الأسرع، واغتنم أكبر عدد من المستخدمين. نهج الأمان والاستقرار يكافئ الضبط — الاختبار، المراقبة، والقواعد المشتركة التي تقلل الحوادث وسوء الاستخدام.
يحاول معظم صانعي السياسات الموازنة بين الاثنين. المقايضة حقيقية: الضوابط الأشد قد تبطئ النشر، لكن الفشل في الاستثمار في الأمان يمكن أن يخلق مخاطر منظومية ويقوّض ثقة الجمهور، وهو ما يبطئ التقدم أيضًا.
المنافسة ليست فقط حول "من يملك أفضل نموذج". أيضًا حول ما إذا كانت الدولة تستطيع إنتاج وجذب الباحثين والمهندسين وبناة المنتجات باستمرار.
في الولايات المتحدة، تقوّي الجامعات الرائدة، تمويل رأس المال المغامر، وشبكة كثيفة من المختبرات والشركات الناشئة النظام البحثي. في الوقت نفسه، تتركز القدرة في عدد قليل من الشركات التي تملك ميزانيات الحوسبة والوصول إلى البيانات لتدريب نماذج متقدمة. يمكن لهذا التركيز أن يسرّع الاختراقات لكنه قد يحد المنافسة ويعقّد الشراكات الحكومية.
تُفهم ضوابط التصدير كأداة لإبطاء انتشار المدخلات الأساسية — خصوصًا الرقائق المتقدمة ومعدات التصنيع المتخصصة — دون قطع كل التجارة.
تُهم الحلفاء لأن سلاسل الإمداد دولية. التنسيق مع الشركاء يمكن أن ينسق المعايير، يشارك أعباء الأمن، ويقلّل "التسريب" حيث تمرّ التكنولوجيا المقيدة عبر دول ثالثة. إذا نُفِّذ بعناية، يمكن للتحالفات أيضًا دفع التشغيل البيني وتوقعات أمان مشتركة، بدلًا من تحويل الذكاء الاصطناعي إلى تراكمات إقليمية متجزئة.
السؤال العملي لأي استراتيجية وطنية: هل تقوّي القدرة الابتكارية على المدى الطويل مع إبقاء المنافسة من تحفيز نشر متهور؟
عندما تشكّل أنظمة الذكاء الاصطناعي قرارات التوظيف أو الإقراض أو الفرز الطبي أو الشرطة، تتوقف "الحوكمة" عن كونها مصطلحًا رنانًا وتصبح سؤالًا عمليًا: من المسؤول عندما تفشل الأنظمة — وكيف نمنع الأذى قبل حدوثه؟
تخلط معظم الدول عدة أدوات بدل الاعتماد على قانون واحد:\n\n- التنظيم: قواعد واضحة للاستخدامات عالية المخاطر (مثلاً عندما يمكن للذكاء الاصطناعي أن يحرم شخصًا من منفعة أو يثير تحقيقًا).\n- المعايير: متطلبات فنية وإجرائية مشتركة (توثيق، ممارسات أمنية، التعامل مع البيانات) يمكن تحديثها أسرع من التشريع.\n- التدقيقات والتقييمات: مراجعات داخلية وتدقيقات طرف ثالث للتحقق من الادعاءات حول الأداء والتحيّز والصلابة.\n- المسؤولية: تحديد من يتحمل العواقب عندما يحدث ضرر — لدفع الشركات للاستثمار في تصميم أكثر أمانًا، مراقبة، وتعويض.
ثلاثة قضايا تظهر في معظم النقاشات السياسية:\n\n- العدالة: يمكن للنماذج إعادة إنتاج نتائج غير متساوية، خصوصًا عندما تعكس بيانات التدريب التمييز التاريخي.\n- الشفافية: يحتاج الناس لتفسيرات مفهومة للقرارات الآلية وطريق للطعن.\n- الخصوصية: يمكن للتجميع الواسع للبيانات وتدريب النماذج كشف معلومات حساسة حتى دون حقول "بيانات شخصية" واضحة.
تختلف أنظمة الذكاء الاصطناعي كثيرًا: روبوت محادثة، أداة تشخيص طبي، ونظام استهداف لا يحملون نفس المخاطر. لذلك تؤكد الحوكمة تدريجيًا على تقييم النماذج (اختبارات قبل النشر، هجوم أحمر، ومراقبة مستمرة) مرتبط بالسياق.
قاعدة عامة شاملة مثل "كشف بيانات التدريب" قد تكون ممكنة لبعض المنتجات ومستحيلة لمنتجات أخرى بسبب الأمن أو الملكية الفكرية أو الأسباب الأمنية. وبالمثل، قد تخدعك معيار سلامة واحد إذا لم يعكس الظروف الحقيقية أو المجتمعات المتأثرة.
لا يمكن أن تكون الحكومة والصناعة الحكام الوحيدين. تساعد مجموعات المجتمع المدني، الباحثون الأكاديميون، ومختبرات الاختبار المستقلة في كشف الأضرار مبكرًا، التحقق من طرق التقييم، وتمثيل الأشخاص الذين يتحمّلون المخاطر. غالبًا ما يكون تمويل الوصول إلى الحوسبة والبيانات ومسارات الاختبار الآمن مهمًا بقدر كتابة قواعد جديدة.
عندما يصبح الذكاء الاصطناعي أولوية عامة، لا تستطيع الحكومة بناء كل شيء بمفردها — ولا تستطيع الصناعة وضع القواعد بمفردها. أفضل النتائج تأتي عادة من شراكات واضحة حول المشكلة التي تُحل والقيود التي يجب احترامها.
تبدأ التعاونات العملية بأهداف واضحة (مثال: تسريع مشتريات حوسبة آمنة للبحث، تحسين أدوات الدفاع السيبراني، أو تحسين طرق التدقيق للأنظمة عالية المخاطر) وحواجز واضحة. تتضمن الحواجز غالبًا متطلبات الخصوصية حسب التصميم، ضوابط أمنية، معايير تقييم موثقة، وإشراف مستقل. بدون ذلك، تنزلق الشراكات إلى جهود "ابتكارية" غامضة يصعب قياسها ويسهل تسييسها.
تجلب الحكومة الشرعية والوصاية والقدرة على تمويل العمل طويل الأمد الذي قد لا يؤتي ثماره سريعًا. تجلب الصناعة خبرة هندسية عملية، بيانات عن إخفاقات العالم الحقيقي، والقدرة على التكرار. الجامعات والمنظمات غير الربحية غالبًا ما تكمل المثلث من خلال الأبحاث المفتوحة، المعايير، ومسارات تنمية المواهب.
أكبر توتر هو الحوافز. قد تدفع الشركات إلى معايير تناسب نقاط قوتها؛ قد تفضّل الوكالات العطاءات الأقل تكلفة أو جداول زمنية قصيرة تقوّض الأمان والاختبار. مشكلة متكررة أخرى هي "مشتريات الصندوق الأسود"، حيث تشتري الوكالات أنظمة دون رؤية كافية لبيانات التدريب، حدود النماذج، أو سياسات التحديث.
تعد تضارب المصالح مصدر قلق حقيقي، خصوصًا عندما ينصح شخص بارز الحكومة بينما يحتفظ بروابط لشركات أو صناديق أو مجالس. يهم الإفصاح لأنه يساعد الجمهور وصناع القرار على فصل الخبرة عن المصالح الشخصية، ويحمي المستشارين الموثوقين من اتهامات قد تعرقل عملًا مفيدًا.
تعمل التعاونات غالبًا عندما تكون ملموسة:\n\n- برامج تمويل بمعالم قابلة للنشر وتقييم مستقل\n- بنية تحتية مشتركة مثل بيئات اختبار آمنة، وصول للحوسبة للباحثين الموثوقين، وأدوات تدقيق معيارية\n- برامج تدريب للمسؤولين المدنيين (المشتريات، تقييم المخاطر، استجابة للحوادث) وزمالات عابرة للقطاعات
لا تقضي هذه الآليات على الخلافات، لكنها تجعل التقدم قابلاً للقياس — وتجعل المساءلة أسهل التطبيق.
انتقال إريك شميدت من توسيع البحث للمستهلك إلى تقديم المشورة حول أولويات الذكاء الاصطناعي الوطنية يبرز تحوّلًا بسيطًا: "المنتج" لم يعد مجرد خدمة — إنه قدرة، أمن، وثقة عامة. يجعل ذلك الوعود الغامضة سهلة البيع وصعبة التحقق.
استخدم هذه المرشحات السريعة عند سماع خطة جديدة، ورقة بيضاء، أو خطاب:\n\n- ما الأهداف — تحديدًا؟ (مثلاً: تسريع نشر النماذج للحكومة، مشتريات أكثر أمانًا، مزيد من الحوسبة للبحث)\n- كيف سيُقاس النجاح؟ ابحث عن مقاييس ملموسة: زمن الشراء، حوادث أمنية، معدلات اجتياز تقييم النماذج، أرقام القوى العاملة.\n- من يشرف عليها — وبأي سلطة؟ اللجان الاستشارية بلا سلطة ليست إشرافًا. اسأل ما الذي يمكن إيقافه أو تدقيقه أو تغييره.\n- ما الجدول الزمني والتسلسل؟ "رؤية خمس سنوات" ليست جدولًا. ما الذي يحدث خلال 6 و12 و24 شهرًا؟\n- ما المقايضات المعترف بها؟ الأمان مقابل السرعة، الانفتاح مقابل الأمن، الابتكار مقابل الخصوصية — الاستراتيجيات الجادة تسمي التوترات.
علّم عصر البحث أن النطاق يكبر كل شيء: الفوائد، الأخطاء، والحوافز. مطبقًا على الاستراتيجية الوطنية للذكاء الاصطناعي، يشير ذلك إلى:\n\n- بناء أنظمة يمكن توسيعها دون خفض المعايير (الأمن، التقييم، انضباط المشتريات).\n- مواءمة الحوافز حتى تفوز الوكالات والموردون بتلبية متطلبات الأمان والمساءلة الواضحة، لا بالشحن الأسرع فقط.\n- التعامل مع الثقة كنتيجة يجب كسبها — من خلال تدقيقات، قدر من الشفافية حيثما أمكن، وسبل تعويض ذات معنى.
يمكن للاستراتيجية الوطنية للذكاء الاصطناعي أن تفتح فرصًا حقيقية: خدمات عامة أفضل، جاهزية دفاعية أقوى، وبحث أكثر قدرة على المنافسة. لكن نفس القدرة ذات الاستخدام المزدوج ترفع الرهانات. أفضل المطالبات تقرن الطموح بحواجز واضحة يمكنك الإشارة إليها.
قراءة ممتدة: استكشف وجهات نظر أكثر في /blog، والمقدمات العملية في /resources/ai-governance و/resources/ai-safety.
استراتيجية وطنية للذكاء الاصطناعي هي خطة منسقة لكيفية قيام دولة بـ تطوير واعتماد وحوكمة الذكاء الاصطناعي لخدمة أهداف عامة. عمليًا تغطي عادة:
لأن تأثيره اليوم أقل ارتباطًا بالتقنيات للمستهلكين وأكثر بخصوص كيفية ترجمة قدرات الذكاء الاصطناعي إلى قدرة الدولة. أدواره العامة (خصوصًا العمل في لجان واستشارات) تجعله في نقطة تلاقٍ بين الابتكار، الأمن، الحوكمة، والمنافسة الجيوسياسية—مناطق تحتاج إلى تفسيرات عملية ومبنية على خبرة تقنية يمكن لصانعي السياسات الاعتماد عليها.
هذه الهيئات الاستشارية عادةً لا تصدر قوانين أو تخصص أموالًا، لكنها تستطيع تشكيل القالب الافتراضي الذي ينقله صانعو السياسات. غالبًا ما تنتج:
ابحث عن أدلة تحول الأفكار إلى آليات قابلة للتكرار، لا مجرد عناوين إخبارية:
عند التوسع، تصبح الأخطاء النادرة أحداثًا متكررة. لذلك تحتاج الاستراتيجية إلى قياس وعمليات، لا مبادئ فقط:
المقصود بها أن نفس القدرة يمكن أن توفر فوائد مدنية وتسهّل إساءة الاستخدام. على سبيل المثال، نماذج تولّد نصًا أو كودًا أو تخطيطات يمكن أن:
سياسات الأمن عادةً تركز على إدارة الوصول للمخاطر، الاختبار، والمراقبة بدلاً من افتراض فصل واضح بين «مدني» و«عسكري».
المشتريات الحكومية تفترض عادة متطلبات مستقرة ومنتجات تُغيّر ببطء. أنظمة الذكاء الاصطناعي قابلة للتحديث المتكرر، لذا تحتاج الوكالات إلى طرق للتحقق من:
«الحوسبة» (مراكز البيانات) والرقاقات المتقدمة (وحدات معالجة الرسوميات والمسرّعات التخصصية) هي القدرة الفعلية لتدريب وتشغيل النماذج. تُعاملها الاستراتيجيات كمرافق حرجة لأن نقصها أو اختناقات سلسلة التوريد يمكن أن تعرقل:
أدوات الحوكمة الشائعة تتضمن:
النهج العملي غالبًا ما يكون : فحوصات أشد حيث التأثير أكبر.
الشراكات تسرّع النشر وتحسّن الأمان، لكنها تحتاج ضوابط:
تصميم التعاون الجيد يوازن بين الابتكار والمساءلة بدلًا من تفويض أي منهما بالكامل.