ติดตามเส้นทางของ Eric Schmidt จากการกำหนดทิศทางการค้นหาของ Google มาสู่อิทธิพลต่อยุทธศาสตร์ AI ของชาติ รวมบทบาทเชิงนโยบาย แนวคิดสำคัญ และการถกเถียง

Eric Schmidt มักถูกนำเสนอว่าเป็นอดีตซีอีโอของ Google—แต่ความเกี่ยวข้องของเขาในวันนี้ไม่ใช่แค่ช่องค้นหาอีกต่อไป แต่มุ่งไปที่วิธีที่รัฐบาลคิดเกี่ยวกับปัญญาประดิษฐ์ บทความนี้มีเป้าหมายอธิบายการเปลี่ยนแปลงนั้น: ว่าผู้บริหารเทคโนโลยีคนหนึ่งที่ช่วยขยายหนึ่งในบริษัทอินเทอร์เน็ตที่ใหญ่ที่สุดในโลกกลายเป็นเสียงสำคัญในเรื่องความสำคัญระดับชาติของ AI รายงานสาธารณะ และความเป็นไปได้เชิงปฏิบัติของการเปลี่ยนนวัตกรรมให้เป็นขีดความสามารถของรัฐได้อย่างไร
ยุทธศาสตร์ AI ระดับชาติคือแผนของประเทศว่าจะพัฒนา นำไปใช้ และกำกับ AI อย่างไรเพื่อให้สอดคล้องกับเป้าหมายสาธารณะ โดยปกติจะครอบคลุมการให้ทุนวิจัย การสนับสนุนสตาร์ทอัพและการนำไปใช้ของอุตสาหกรรม กฎเกณฑ์การใช้งานอย่างรับผิดชอบ แผนแรงงานและการศึกษา และวิธีที่หน่วยงานของรัฐจะจัดซื้อและปรับใช้ระบบ AI
มันยังรวมคำถามที่ “เข้มข้น” ด้วย: จะปกป้องโครงสร้างพื้นฐานที่สำคัญอย่างไร จะจัดการข้อมูลที่เป็นความลับอย่างไร และจะตอบสนองเมื่อเครื่องมือ AI เดียวกันสามารถใช้เพื่อประโยชน์พลเรือนและข้อได้เปรียบทางทหารได้อย่างไร
Schmidt สำคัญเพราะเขาอยู่จุดเชื่อมของสี่ประเด็นที่กำหนดการตัดสินใจเชิงนโยบาย:
นี่ไม่ใช่ชีวประวัติหรือรายการคะแนนของทุกมุมมองที่ Schmidt เคยแสดงออก จุดเน้นคือบทบาทสาธารณะของเขา (เช่น งานให้คำปรึกษาและโครงการที่มีการรายงานอย่างกว้างขวาง) และสิ่งที่เหตุการณ์เหล่านั้นเปิดเผยเกี่ยวกับวิธีการแผ่อิทธิพลทางนโยบาย—ผ่านรายงาน ลำดับความสำคัญด้านการให้ทุน ไอเดียการจัดซื้อ และการแปลความเป็นจริงทางเทคนิคเป็นการปฏิบัติของรัฐ
ภาพลักษณ์สาธารณะของ Eric Schmidt มักผูกโยงกับ Google แต่เส้นทางสู่การเป็นผู้นำเทคโนโลยีของเขาเริ่มก่อนที่การค้นหาจะกลายเป็นกิจวัตรประจำวัน
Schmidt เรียนด้านวิทยาการคอมพิวเตอร์และเริ่มต้นอาชีพในบทบาทที่ผสมผสานการวิศวกรรมกับการบริหาร เมื่อเวลาผ่านไปเขาเข้ารับตำแหน่งอาวุโสที่บริษัทเทคโนโลยีใหญ่ ๆ รวมถึง Sun Microsystems และต่อมา Novell งานเหล่านั้นสำคัญเพราะสอนการเป็นผู้นำแบบเฉพาะ: การบริหารองค์กรซับซ้อน ส่งมอบผลิตภัณฑ์ในระดับโลก และตัดสินใจเชิงเทคโนโลยีภายใต้แรงกดดันจากตลาด คู่แข่ง และการกำกับดูแล
เมื่อ Schmidt เข้าร่วม Google ในปี 2001 ในฐานะซีอีโอ บริษัทยังอยู่ในขั้นเริ่มต้น เติบโตเร็ว มีภารกิจชัดเจน และผู้ก่อตั้งต้องการผู้บริหารที่มีประสบการณ์เพื่อทำให้องค์กรเป็นมืออาชีพมากขึ้น ภารกิจของเขาไม่ใช่การ “ประดิษฐ์การค้นหา” เท่ากับการสร้างโครงสร้างที่ทำให้นวัตกรรมเกิดซ้ำได้อย่างสม่ำเสมอ: การตัดสินใจที่ชัดเจน ระบบการสรรหาที่แข็งแรง และจังหวะการดำเนินงานที่ตามทันการเติบโตอย่างรวดเร็ว
ยุคการเติบโตของ Google ไม่ได้หมายถึงผลลัพธ์ที่ดีกว่าเท่านั้น แต่ยังหมายถึงการจัดการปริมาณคำค้น เพจเว็บ และการตัดสินใจโฆษณาจำนวนมหาศาล—อย่างต่อเนื่องและรวดเร็ว “การค้นหาในระดับใหญ่” ยังก่อให้เกิดคำถามด้านความเชื่อถือที่เลยไปไกลกว่าเทคนิควิศวกรรม: ข้อมูลผู้ใช้ได้รับการจัดการอย่างไร การตัดสินใจจัดอันดับส่งผลต่อสิ่งที่ผู้คนเห็นอย่างไร และแพลตฟอร์มตอบสนองเมื่อความผิดพลาดถูกเปิดเผยอย่างไร
ช่วงเวลานั้นมีรูปแบบบางอย่างเด่นชัด: การมีแนวโน้มชอบจ้างคนที่มีความสามารถทางเทคนิคสูง การเน้นความสำคัญ (prioritization) และการคิดแบบระบบ—มองผลิตภัณฑ์ โครงสร้างพื้นฐาน และข้อจำกัดด้านนโยบายเป็นส่วนของระบบปฏิบัติการหนึ่งเดียว พฤติกรรมเหล่านี้ช่วยอธิบายว่าทำไม Schmidt จึงให้ความสนใจกับคำถามทางเทคโนโลยีระดับชาติ ซึ่งการประสานงานและการแลกเปลี่ยนต้องสำคัญพอ ๆ กับการประดิษฐ์
การค้นหาดูเรียบง่าย—พิมพ์คำค้น เจอคำตอบ—แต่ระบบข้างหลังคือวงจรที่มีวินัยของการเก็บข้อมูล ทดสอบสมมติฐาน และสร้างความเชื่อถือจากผู้ใช้ในระดับใหญ่
โดยภาพรวม การค้นหามีสามงานหลัก
ก่อนอื่น crawling: โปรแกรมอัตโนมัติค้นพบหน้าเว็บโดยตามลิงก์และกลับมาตรวจสอบการเปลี่ยนแปลง
ประการที่สอง การจัดทำดัชนีและการจัดอันดับ: ระบบจัดระเบียบสิ่งที่พบ แล้วจัดเรียงผลลัพธ์โดยใช้สัญญาณที่ประเมินคุณภาพและประโยชน์
ประการที่สาม ความเกี่ยวข้อง: การจัดอันดับไม่ใช่ "หน้าที่ดีที่สุดบนอินเทอร์เน็ต" แต่ว่าเป็น "หน้าที่ดีที่สุดสำหรับคนนี้ สำหรับคำค้นนี้ ตอนนี้" นั่นหมายถึงการตีความเจตนา ภาษา และบริบท—ไม่ใช่แค่การจับคู่คำหลัก
ยุคการค้นหาย้ำความจริงเชิงปฏิบัติ: ผลลัพธ์ที่ดีมักเกิดจาก การวัดผล การทำซ้ำ และโครงสร้างพื้นฐานที่พร้อมรองรับขนาด
ทีมค้นหาอยู่กับข้อมูล—รูปแบบการคลิก การแก้ไขคำค้น สมรรถนะหน้า รายงานสแปม—เพราะข้อมูลเผยว่าการเปลี่ยนแปลงช่วยผู้ใช้จริงหรือไม่ การปรับแต่งการจัดอันดับเล็กน้อยมักถูกประเมินผ่านการทดลองควบคุม (เช่น A/B test) เพื่อไม่ให้พึ่งสัญชาตญาณเพียงอย่างเดียว
สิ่งเหล่านี้ไม่ทำงานหากขาดโครงสร้างพื้นฐาน ระบบแบบกระจายขนาดใหญ่ การให้บริการหน่วงต่ำ การเฝ้าตรวจ และกระบวนการย้อนกลับอย่างรวดเร็ว ทำให้ "ไอเดียใหม่" กลายเป็นการปล่อยที่ปลอดภัย ความสามารถในการรันการทดลองมากมายและเรียนรู้อย่างรวดเร็วกลายเป็นข้อได้เปรียบการแข่งขัน
ธีมเดียวกันเหล่านี้สอดคล้องกับความคิดนโยบาย AI สมัยใหม่ได้อย่างลงตัว:\n\n- ขนาดเพิ่มความเสี่ยง: เมื่อโมเดลหรือระบบให้บริการคนจำนวนมาก ความล้มเหลวที่เคยเกิดขึ้นไม่บ่อยจะกลายเป็นเหตุการณ์ประจำ\n- การประเมินสำคัญ: ต้องมีเกณฑ์มาตรฐาน การทดสอบความเค้น และการเฝ้าติดตามในโลกจริง—ไม่ใช่แค่เดโมที่น่าประทับใจ\n- ความปลอดภัยคือการปฏิบัติการ: รั้วกัน การตอบสนองต่อเหตุการณ์ และการตรวจสอบอย่างต่อเนื่องคล้ายกับระบบต่อต้านสแปมและระบบคุณภาพของการค้นหา
สำคัญที่สุด ระบบที่เผชิญผู้ใช้ขึ้นหรือลงอยู่กับ ความเชื่อถือ หากผลลัพธ์รู้สึกถูกปรับแต่ง ไม่ปลอดภัย หรือผิดพลาดบ่อยครั้ง การยอมรับและความชอบธรรมจะลดลง—ซึ่งเป็นบทเรียนที่ชัดเจนยิ่งขึ้นสำหรับระบบ AI ที่สร้างคำตอบแทนการเชื่อมโยงเพียงอย่างเดียว
เมื่อ AI ถูกมองเป็นความสำคัญระดับชาติ การสนทนาจะเปลี่ยนจาก "ผลิตภัณฑ์นี้ควรทำอะไร" เป็น "ขีดความสามารถนี้จะทำอะไรต่อสังคม เศรษฐกิจ และความมั่นคงได้บ้าง" ซึ่งเป็นการตัดสินใจที่ต่างออกไป ความเสี่ยงขยายวง: ผู้ชนะและผู้แพ้ไม่ใช่แค่บริษัทและลูกค้า แต่เป็นอุตสาหกรรม สถาบัน และบางครั้งคือประเทศ
การเลือกผลิตภัณฑ์มักเน้นคุณค่าต่อผู้ใช้ รายได้ และชื่อเสียง ยุทธศาสตร์ AI ระดับชาติบังคับให้ทำการแลกเปลี่ยนระหว่างความเร็วกับความระมัดระวัง ความเปิดเผยกับการควบคุม และนวัตกรรมกับความยืดหยุ่น การตัดสินใจเกี่ยวกับการเข้าถึงโมเดล การแชร์ข้อมูล และไทม์ไลน์การปรับใช้สามารถส่งผลต่อความเสี่ยงข่าวปลอม การเปลี่ยนแปลงแรงงาน และความพร้อมด้านการป้องกัน
รัฐบาลสนใจ AI ด้วยเหตุผลเดียวกับที่สนใจไฟฟ้า การบิน และอินเทอร์เน็ต: มันสามารถเพิ่มผลผลิตประเทศและเปลี่ยนสมดุลอำนาจได้
ระบบ AI ยังเป็น "dual-use"—เป็นประโยชน์ในทางการแพทย์และโลจิสติกส์ แต่ก็สามารถใช้ในปฏิบัติการไซเบอร์ การสอดส่อง หรืองานพัฒนาอาวุธได้ แม้ความก้าวหน้าสำหรับพลเรือนก็สามารถเปลี่ยนแปลงแผนการทหาร ห่วงโซ่อุปทาน และกระบวนการข่าวกรองได้
ความสามารถ AI ส่วนใหญ่ตั้งอยู่ในบริษัทเอกชนและห้องปฏิบัติการชั้นนำ รัฐบาลต้องการความเชี่ยวชาญ compute และประสบการณ์การปรับใช้ บริษัทต้องการความชัดเจนเกี่ยวกับกฎช่องทางจัดซื้อและความรับผิดชอบ
แต่การร่วมมือไม่เคยราบรื่น บริษัทกังวลเรื่อง IP ความเสียเปรียบด้านการแข่งขัน และการถูกขอให้ทำงานบังคับใช้ รัฐบาลกังวลเรื่องการถูกควบคุมโดยเอกชน ความรับผิดชอบที่ไม่สม่ำเสมอ และการพึ่งพาซัพพลายเออร์จำนวนน้อยสำหรับโครงสร้างพื้นฐานเชิงยุทธศาสตร์
ยุทธศาสตร์ AI ระดับชาติไม่ใช่แค่บันทึกข้อความ มันมักครอบคลุม:\n\n- บุคลากร: การศึกษา วีซ่า และการจ้างงานภาครัฐที่สามารถแข่งขันกับภาคเอกชน\n- Compute: การเข้าถึงชิป ศูนย์ข้อมูล และสภาพแวดล้อมที่ปลอดภัยสำหรับงานที่ละเอียดอ่อน\n- มาตรฐาน: การทดสอบความปลอดภัย ความคาดหวังด้านเอกสาร และบรรทัดฐานความสามารถทำงานร่วมกัน\n- การจัดซื้อ: วิธีที่หน่วยงานซื้อ ตรวจสอบ และอัปเดตระบบ AI โดยไม่ติดขัดเป็นเวลาหลายปี
เมื่อส่วนเหล่านี้ถูกมองว่าเป็นความสำคัญระดับชาติ พวกมันกลายเป็นเครื่องมือเชิงนโยบาย ไม่ใช่แค่การตัดสินใจทางธุรกิจ
ผลกระทบของ Eric Schmidt ต่อยุทธศาสตร์ AI ไม่ได้อยู่ที่การร่างกฎหมายโดยตรง แต่เป็นการกำหนด "กรอบคิดเริ่มต้น" ที่นักนโยบายใช้เมื่อพวกเขาลงมือทำ หลังจากนำ Google เข้าสู่บทบาทผู้นำแล้ว เขาเป็นเสียงโดดเด่นในวงให้คำปรึกษาด้าน AI ของสหรัฐฯ—โดยเฉพาะในฐานะประธานคณะกรรมาธิการความมั่นคงแห่งชาติว่าด้วยปัญญาประดิษฐ์ (NSCAI) รวมถึงงานบอร์ด คำปรึกษา และความพยายามด้านการวิจัยอื่น ๆ ที่เชื่อมต่อความเชี่ยวชาญของภาคธุรกิจกับลำดับความสำคัญของรัฐบาล
คณะกรรมการและคณะทำงานมักทำงานภายใต้กรอบเวลาจำกัด รวบรวมข้อมูลจากหน่วยงาน นักวิชาการ บริษัท และภาคประชาสังคม ผลลัพธ์มักเป็นสิ่งที่ปฏิบัติได้และแบ่งปันได้:\n\n- รายงานสาธารณะที่นิยามปัญหา อธิบายความเสี่ยง และตั้งความเร่งด่วน\n- คำแนะนำที่เป็นรูปธรรม (การเปลี่ยนแปลงองค์กร ไอเดียการจัดซื้อ เป้าหมายการฝึกอบรม)\n- กรอบร่างและ "แนวทางตัวอย่าง" ที่หน่วยงานสามารถนำกลับไปใช้ซ้ำได้\n- บรีฟที่แปลแนวโน้มทางเทคนิคเป็นภาษานโยบาย
เอกสารเหล่านี้สำคัญเพราะกลายเป็นจุดอ้างอิง เจ้าหน้าที่มักอ้างอิง รายงานโครงสร้างของหน่วยงานมักสะท้อน และนักข่าวใช้เพื่ออธิบายว่าทำไมหัวข้อนั้นจึงควรได้รับความสนใจ
กลุ่มที่ปรึกษาไม่สามารถจัดสรรเงิน ออกกฎเกณฑ์ หรือสั่งหน่วยงานได้ พวกเขาเสนอแนะ แต่ผู้แทนที่ได้รับเลือกและหน่วยงานบริหารคือผู้ตัดสินใจ แม้ว่ารายงานจะมีอิทธิพล แต่ก็ต้องแข่งขันกับงบประมาณ ข้อจำกัดทางการเมือง อำนาจทางกฎหมาย และลำดับความสำคัญของชาติที่เปลี่ยนแปลง
อย่างไรก็ตาม เส้นแบ่งระหว่าง "ไอเดีย" กับ "การลงมือทำ" อาจสั้นเมื่อรายงานเสนอขั้นตอนที่พร้อมใช้งาน—โดยเฉพาะรอบการจัดซื้อ มาตรฐาน หรือโปรแกรมแรงงาน
ถ้าต้องการตัดสินว่าผลงานของที่ปรึกษาเปลี่ยนผลลัพธ์หรือไม่ ให้มองหาหลักฐานเกินกว่าพาดหัวข่าว:\n\n- การนำไปใช้: คำแนะนำปรากฏในคำสั่งบริหาร ยุทธศาสตร์หน่วยงาน หรือตรากฎหมาย\n- การอ้างอิง: รายงานถูกอ้างในการไต่สวน ยุทธศาสตร์ หรือการตรวจสอบ\n- การเปลี่ยนแปลงงบประมาณ: การจัดสรรใหม่ โปรแกรมทุน หรืองบการจัดซื้อที่สอดคล้องกับข้อเสนอ\n- การเปลี่ยนแปลงสถาบัน: การสร้างสำนักงานใหม่ หน่วยประสานงาน หรือข้อกำหนดการรายงานที่เชื่อมโยงกับข้อเสนอ
อิทธิพลวัดได้เมื่อไอเดียกลายเป็นกลไกนโยบายที่ทำซ้ำได้ ไม่ใช่แค่คำพูดที่จำได้
ยุทธศาสตร์ AI ระดับชาติไม่ใช่กฎหมายฉบับเดียวหรือชุดเงินทุนครั้งเดียว แต่เป็นชุดการตัดสินใจที่ประสานกันเกี่ยวกับสิ่งที่จะสร้าง ใครเป็นผู้สร้าง และประเทศจะรู้ได้อย่างไรว่ามันได้ผล
เงินทุนสาธารณะช่วยสร้างการค้นพบที่ตลาดเอกชนอาจลงทุนไม่พอ—โดยเฉพาะงานที่ใช้เวลานาน มีความไม่แน่นอนสูง หรือมุ่งไปที่ความปลอดภัย ยุทธศาสตร์ที่เข้มแข็งเชื่อมงานวิจัยพื้นฐาน (มหาวิทยาลัย ห้องปฏิบัติการ) กับโปรแกรมประยุกต์ (สาธารณสุข พลังงาน บริการรัฐบาล) เพื่อให้การค้นพบไม่หยุดก่อนจะถึงผู้ใช้จริง
ความก้าวหน้าของ AI ขึ้นกับนักวิจัย วิศวกร และทีมผลิตที่มีทักษะ—รวมถึงเจ้าหน้าที่นโยบายที่ประเมินระบบและทีมจัดซื้อที่ซื้ออย่างชาญฉลาด แผนระดับชาติผสมการศึกษา การฝึกอบรมแรงงาน และเส้นทางการย้ายถิ่น เพราะการขาดแคลนไม่ได้แก้ได้ด้วยเงินเพียงอย่างเดียว
"Compute" คือพลังดิบที่ใช้ฝึกและรันโมเดล—ส่วนใหญ่ในศูนย์ข้อมูล ชิปขั้นสูง (เช่น GPU และ accelerator เฉพาะทาง) เป็นเครื่องยนต์ที่ให้พลังนั้น
นั่นทำให้ชิปและศูนย์ข้อมูลคล้ายกับกริดไฟฟ้าและท่าเรือ: อาจไม่ดูเด่นหรู แต่จำเป็น หากประเทศเข้าถึงชิประดับสูงไม่พอ หรือไม่สามารถเลี้ยงและระบายความร้อนศูนย์ข้อมูลได้อย่างเชื่อถือ จะประสบปัญหาในการสร้างโมเดลแนวหน้าและปรับใช้ในระดับใหญ่
ยุทธศาสตร์มีความหมายเมื่อ AI ปรับปรุงผลลัพธ์ในพื้นที่สำคัญ: การป้องกัน ข่าวกรอง การดูแลสุขภาพ การศึกษา และบริการสาธารณะ นั่นต้องมีกฎการจัดซื้อ มาตรฐานความมั่นคงไซเบอร์ และความรับผิดชอบเมื่อระบบล้มเหลว นอกจากนี้ยังต้องช่วยให้บริษัทขนาดเล็กนำ AI ไปใช้เพื่อแจกจ่ายประโยชน์ไม่ให้จำกัดอยู่ที่ไม่กี่บริษัทยักษ์
ในทางปฏิบัติ หน่วยงานหลายแห่งยังต้องการวิธีที่เร็วขึ้นในการสร้างต้นแบบและทำซ้ำอย่างปลอดภัยก่อนผูกสัญญาระยะยาว เครื่องมืออย่าง Koder.ai (แพลตฟอร์ม vibe-coding ที่สร้างเว็บ แอป backend และมือถือจากแชท พร้อมโหมดวางแผน snapshot และ rollback) แสดงทิศทางที่การจัดซื้อจะมุ่งไป: วงจรตอบกลับสั้นขึ้น เอกสารการเปลี่ยนแปลงชัดเจนขึ้น และพิลอตที่วัดผลได้มากขึ้น
ข้อมูลมากขึ้นช่วยปรับปรุง AI แต่การเก็บทุกอย่างสร้างความเสี่ยงจริง: การสอดส่อง การรั่วไหล และการเลือกปฏิบัติ ยุทธศาสตร์เชิงปฎิบัติใช้การแบ่งปันข้อมูลแบบมีเป้าหมาย วิธีการรักษาความเป็นส่วนตัว และขอบเขตที่ชัดเจน—โดยเฉพาะในโดเมนที่อ่อนไหว—แทนที่จะมองความเป็นส่วนตัวเป็นเรื่องไม่สำคัญหรือสิทธิ์สมบูรณ์
หากไม่มีการวัด ยุทธศาสตร์จะกลายเป็นคำพูดสวยงาม รัฐบาลสามารถกำหนดเกณฑ์มาตรฐานร่วมสำหรับประสิทธิภาพ การทดสอบ red-team สำหรับความปลอดภัย การตรวจสอบโดยบุคคลที่สามสำหรับการใช้งานความเสี่ยงสูง และการประเมินผลอย่างต่อเนื่องหลังการปรับใช้—เพื่อให้ความสำเร็จมองเห็นได้และปัญหาถูกจับก่อนลุกลาม
หน่วยงานป้องกันและข่าวกรองสนใจ AI เพราะมันเปลี่ยนความเร็วและคุณภาพของการตัดสินใจ โมเดลช่วยคัดกรองภาพดาวเทียมได้เร็วขึ้น แปลสื่อที่ดักฟัง ค้นหาความผิดปกติทางไซเบอร์ และช่วยนักวิเคราะห์เชื่อมสัญญาณจางๆ ข้ามชุดข้อมูลขนาดใหญ่ หากใช้ได้ดี นั่นหมายถึงการเตือนล่วงหน้าที่เร็วขึ้น การกำหนดเป้าทรัพยากรอย่างชาญฉลาดขึ้น และลดชั่วโมงงานซ้ำซ้อนของมนุษย์
ความสามารถ AI ที่มีมูลค่าส่วนใหญ่ก็เป็นสิ่งที่ใช้งานผิดได้ง่าย โมเดลทั่วไปที่เขียนโค้ด วางแผนงาน หรือสร้างข้อความโน้มน้าวใจ อาจสนับสนุนภารกิจชอบด้วยกฎหมาย—เช่น อัตโนมัติรายงานหรือเร่งการค้นหาช่องโหว่—แต่ก็สามารถ:\n\n- ช่วยผู้โจมตีร่างฟิชชิงเป็นจำนวนมากหรือสร้างมัลแวร์เวอร์ชันต่าง ๆ\n- ลดกำแพงกั้นในการปฏิบัติการชักจูงและโฆษณาชวนเชื่อ\n- อำนวยความสะดวกในการกำหนดเป้าหมายและการสอดส่องเมื่อจับคู่กับฟีดข้อมูล
ความท้าทายด้านความมั่นคงของชาติไม่ใช่เรื่องอาวุธ AI เพียงชนิดเดียว แต่เป็นเครื่องมือที่มีอยู่ทั่วไปซึ่งอัปเกรดทั้งการป้องกันและการโจมตี
รัฐบาลประสบปัญหาในการนำ AI ที่เคลื่อนไหวเร็วมาใช้เพราะการจัดซื้อแบบดั้งเดิมคาดหวังความต้องการที่คงที่ วงจรการทดสอบยาว และเส้นความรับผิดชอบชัดเจน กับโมเดลที่อัปเดตบ่อย หน่วยงานต้องมีวิธีตรวจสอบสิ่งที่ซื้อ (ข้อเรียกร้องเรื่องข้อมูลฝึกสอน ขีดจำกัดประสิทธิภาพ ท่าทางความปลอดภัย) และใครรับผิดชอบเมื่อเกิดปัญหา—ผู้ขาย ผู้ผสานระบบ หรือหน่วยงาน
แนวทางที่ใช้ได้ผสมผสานนวัตกรรมเข้ากับการตรวจสอบที่บังคับใช้ได้:\n\n- การกำกับดูแลอิสระสำหรับการปรับใช้ที่มีผลกระทบรุนแรง\n- การทดสอบก่อนนำไปใช้ รวมทั้ง red-teaming สำหรับการใช้งานผิดและความเอนเอียง\n- การรายงานเหตุการณ์ที่ชัดเจน (ความล้มเหลวของโมเดล การรั่วไหลของข้อมูล ผลลัพธ์เป็นอันตราย)\n- การเฝ้าติดตามต่อเนื่องหลังการเปิดตัว ไม่ใช่แค่ที่การรับมอบ
หากทำได้ถูกต้อง มาตรการคุ้มครองจะไม่ชะลอทุกอย่าง พวกมันให้ความสำคัญกับการตรวจสอบในจุดที่มีความเสี่ยงสูงที่สุด—การวิเคราะห์ข่าวกรอง การป้องกันไซเบอร์ และระบบที่เกี่ยวข้องกับชีวิตและความตาย
ภูมิรัฐศาสตร์กำหนดยุทธศาสตร์ AI เพราะระบบที่มีความสามารถสูงสุดพึ่งพาส่วนประกอบที่วัดผลและแข่งขันได้: นักวิจัยชั้นนำ compute ขนาดใหญ่ ข้อมูลคุณภาพสูง และบริษัทที่สามารถรวมสิ่งเหล่านี้ ในบริบทนั้น ไดนามิกสหรัฐฯ–จีนมักถูกอธิบายว่าเป็น "การแข่งขัน" แต่การใช้เฟรมนี้อาจเบลอความแตกต่างสำคัญ: การแข่งขันด้านความสามารถไม่เหมือนกับการแข่งขันด้านความปลอดภัยและเสถียรภาพ
การแข่งขันที่เน้นความสามารถล้วนให้ค่ากับความเร็ว—ปล่อยก่อน ขยายเร็วที่สุด ยึดผู้ใช้ให้มากที่สุด แนวทางความปลอดภัยและเสถียรภาพให้ค่ากับความระมัดระวัง—การทดสอบ การเฝ้าตรวจ และกฎร่วมกันเพื่อลดอุบัติเหตุและการใช้งานในทางที่ผิด
นักนโยบายจำนวนมากพยายามหาสมดุล ทั้งนี้การแลกเปลี่ยนมีอยู่จริง: มาตรการเข้มงวดอาจชะลอการปรับใช้ แต่มิให้ลงทุนในความปลอดภัยอาจก่อความเสี่ยงเชิงระบบและกัดกร่อนความเชื่อถือสาธารณะ ซึ่งก็ชะลอความก้าวหน้าได้เช่นกัน
การแข่งขันไม่ใช่แค่ "ใครมีโมเดลดีที่สุด" แต่ยังเป็นเรื่องว่าประเทศสามารถผลิตและดึงดูดนักวิจัย วิศวกร และผู้สร้างผลิตภัณฑ์ได้อย่างต่อเนื่องหรือไม่
ในสหรัฐฯ มหาวิทยาลัยชั้นนำ เงินทุนจากทุนร่วม และเครือข่ายห้องปฏิบัติการและสตาร์ทอัพหนาแน่นเสริมสร้างระบบนิเวศงานวิจัย ในขณะเดียวกันความสามารถ AI เริ่มกระจุกตัวในบริษัทจำนวนน้อยที่มีงบประมาณ compute และการเข้าถึงข้อมูลเพื่อฝึกโมเดลแนวหน้า การรวมศูนย์นี้เร่งการค้นพบ แต่ก็จำกัดการแข่งขัน บั่นทอนความเปิดเผยทางวิชาการ และทำให้การเป็นหุ้นส่วนกับรัฐบาลซับซ้อนขึ้น
การควบคุมการส่งออกควรถูกมองเป็นเครื่องมือเพื่อลดการแพร่กระจายของส่วนประกอบสำคัญ—โดยเฉพาะชิปขั้นสูงและอุปกรณ์การผลิตพิเศษ—โดยไม่ตัดการค้าทั้งหมด
พันธมิตรมีความสำคัญเพราะห่วงโซ่อุปทานเป็นเรื่องระหว่างประเทศ การประสานงานกับพันธมิตรสามารถจัดแนวมาตรฐาน แบ่งเบาภาระด้านความปลอดภัย และลด "การรั่วไหล" ที่เทคโนโลยีที่ถูกจำกัดอาจผ่านประเทศที่สามได้ หากทำอย่างระมัดระวัง พันธมิตรยังส่งเสริมความสามารถทำงานร่วมกันและความคาดหวังด้านความปลอดภัยร่วม แทนที่จะเปลี่ยน AI ให้เป็นกองเทคโนโลยีแยกภูมิภาค
คำถามเชิงปฏิบัติสำหรับยุทธศาสตร์ใด ๆ คือมันเสริมสร้างความสามารถนวัตกรรมระยะยาวอย่างไรพร้อมทั้งลดแรงจูงใจให้เกิดการปรับใช้ที่ประมาท
เมื่อระบบ AI มีบทบาทในการจ้างงาน การให้สินเชื่อ การคัดกรองทางการแพทย์ หรืองานตำรวจ "การกำกับดูแล" หยุดเป็นคำแฟชั่นและกลายเป็นคำถามเชิงปฏิบัติ: ใครรับผิดชอบเมื่อระบบล้มเหลว—และเราจะป้องกันอันตรายก่อนที่จะเกิดขึ้นได้อย่างไร
หลายประเทศผสมเครื่องมือต่าง ๆ แทนการพึ่งพากฎหมายฉบับเดียว:\n\n- ระเบียบข้อบังคับ: กฎชัดเจนสำหรับการใช้งานความเสี่ยงสูง (เช่น เมื่อ AI สามารถปฏิเสธสิทธิประโยชน์หรือเริ่มการสืบสวน)\n- มาตรฐาน: ข้อกำหนดทางเทคนิคและกระบวนการร่วม (เอกสารการทำงาน แนวปฏิบัติความปลอดภัย การจัดการข้อมูล) ที่อัปเดตได้เร็วกว่าองค์บัญญัติ\n- การตรวจสอบและการประเมิน: การตรวจสอบภายในและการตรวจสอบโดยบุคคลที่สามเพื่อตรวจสอบข้อเรียกร้องเกี่ยวกับประสิทธิภาพ ความเอนเอียง และความปลอดภัย\n- ความรับผิดชอบ: การระบุผู้รับผิดชอบเมื่อเกิดความเสียหาย—กระตุ้นให้บริษัทลงทุนในการออกแบบที่ปลอดภัย การเฝ้าติดตาม และการชดเชย
สามประเด็นนี้ปรากฏในเกือบทุกการอภิปรายเชิงนโยบาย:\n\n- ความเป็นธรรม: โมเดลสามารถทำซ้ำผลลัพธ์ที่ไม่เท่าเทียม โดยเฉพาะเมื่อข้อมูลการฝึกสะท้อนการเลือกปฏิบัติในอดีต\n- ความโปร่งใส: ผู้คนต้องการคำอธิบายที่เข้าใจได้ของการตัดสินใจอัตโนมัติและช่องทางอุทธรณ์\n- ความเป็นส่วนตัว: การเก็บข้อมูลขนาดใหญ่และการฝึกโมเดลอาจเปิดเผยข้อมูลที่ละเอียดอ่อน แม้จะไม่มีฟิลด์ที่ดูเป็น "ข้อมูลส่วนบุคคล" ชัดเจน
ระบบ AI แตกต่างกันมาก: chatbot เครื่องมือวินิจฉัยทางการแพทย์ และระบบกำหนดเป้าหมายไม่มีความเสี่ยงเท่ากัน นั่นเป็นเหตุผลที่การกำกับดูแลเน้น การประเมินโมเดล (การทดสอบก่อนนำไปใช้ red-teaming และการเฝ้าติดตามต่อเนื่อง) ที่ผูกกับบริบทกการใช้งาน
กฎสากลเช่น "เปิดเผยข้อมูลการฝึก" อาจเป็นไปได้สำหรับบางผลิตภัณฑ์ แต่เป็นไปไม่ได้สำหรับบางกรณีด้วยเหตุผลด้านความปลอดภัย IP หรือความปลอดภัย ในทางกลับกัน เกณฑ์ความปลอดภัยเดียวอาจหลอกได้ถ้าไม่สะท้อนสภาพจริงหรือชุมชนที่ได้รับผลกระทบ
รัฐบาลและภาคเอกชนไม่สามารถเป็นผู้ตัดสินเพียงฝ่ายเดียว กลุ่มภาคประชาสังคม นักวิชาการ และห้องปฏิบัติการทดสอบอิสระช่วยเผยอันตรายล่วงหน้า ยืนยันวิธีการประเมิน และเป็นตัวแทนของผู้ที่แบกรับความเสี่ยง การให้ทุนเพื่อเข้าถึง compute ข้อมูล และเส้นทางการทดสอบที่ปลอดภัยมักสำคัญพอ ๆ กับการร่างกฎใหม่
เมื่อ AI กลายเป็นลำดับความสำคัญสาธารณะ รัฐบาลไม่สามารถสร้างทุกอย่างเองได้—และภาคเอกชนไม่ควรกำหนดกฎคนเดียว ผลลัพธ์ที่ดีที่สุดมักมาจากความร่วมมือที่ชัดเจนเกี่ยวกับปัญหาที่กำลังแก้และข้อจำกัดที่ต้องเคารพ
ความร่วมมือที่ใช้งานได้เริ่มจากเป้าหมายที่ชัดเจน (เช่น: การจัดซื้อ compute ที่ปลอดภัยเพื่อการวิจัยที่เร็วขึ้น เครื่องมือป้องกันไซเบอร์ที่ดีขึ้น หรือวิธีการตรวจสอบสำหรับโมเดลมีความเสี่ยงสูง) และกรอบคุ้มกันที่ชัดเจน กรอบคุ้มกันมักรวมการออกแบบที่คำนึงถึงความเป็นส่วนตัว การควบคุมความปลอดภัย มาตรฐานการประเมินที่มีเอกสาร และการกำกับดูแลอิสระ หากขาดสิ่งเหล่านี้ ความร่วมมือมักลอยไปสู่กิจกรรม "นวัตกรรม" ที่วัดผลยากและถูกเมืองการเมือง
รัฐบาลนำความชอบธรรม อำนาจ และความสามารถในการลงทุนงานระยะยาวที่อาจไม่คุ้มทุนในระยะสั้น ภาคเอกชนนำประสบการณ์วิศวกรรมข้อมูลปฏิบัติ สมรรถภาพการดำเนินงานเกี่ยวกับความล้มเหลวในโลกจริง และความสามารถในการปรับซ้ำ มหาวิทยาลัยและองค์กรไม่แสวงผลกำไรมักเติมเต็มสามเหลี่ยมด้วยงานวิจัยแบบเปิด เกณฑ์มาตรฐาน และท่อส่งบุคลากร
ความตึงเครียดใหญ่คือแรงจูงใจ บริษัทอาจผลักดันมาตรฐานที่สอดคล้องกับจุดแข็งของตน หน่วยงานอาจเลือกผู้เสนอราคาต้นทุนต่ำสุดหรือไทม์ไลน์สั้นที่บ่อนทำลายความปลอดภัยและการทดสอบ ปัญหาซ้ำ ๆ อีกประการคือการจัดซื้อแบบกล่องดำ ที่หน่วยงานซื้อตัวระบบโดยไม่มีมุมมองเพียงพอเกี่ยวกับข้อมูลการฝึกขีดจำกัดของโมเดล หรือแนวทางการอัปเดต
ความขัดแย้งด้านผลประโยชน์เป็นปัญหาจริง โดยเฉพาะเมื่อบุคคลเด่นให้คำปรึกษารัฐบาลขณะยังมีความสัมพันธ์กับบริษัท กองทุน หรือบอร์ด การเปิดเผยข้อมูลสำคัญเพราะช่วยให้สาธารณชน—และผู้ตัดสินใจ—สามารถแยกความเชี่ยวชาญออกจากผลประโยชน์ตนเอง และยังปกป้องที่ปรึกษาที่มีเครดิตจากข้อกล่าวหาที่ทำลายงานที่เป็นประโยชน์
ความร่วมมือมักได้ผลเมื่อเป็นเรื่องเป็นราว:\n\n- โปรแกรมทุนที่มีหลักไมล์ที่เผยแพร่และการประเมินอิสระ\n- โครงสร้างพื้นฐานร่วม เช่น testbed ที่ปลอดภัย การเข้าถึง compute สำหรับนักวิจัยที่ถูกตรวจสอบ และเครื่องมือการตรวจสอบมาตรฐาน\n- โปรแกรมอบรมสำหรับข้าราชการ (การจัดซื้อ การประเมินความเสี่ยง การตอบสนองต่อเหตุการณ์) และการแลกเปลี่ยนข้ามภาคส่วน
กลไกเหล่านี้ไม่ทำให้ความเห็นไม่ลงรอยหมดไป แต่ทำให้ความก้าวหน้าวัดผลได้มากขึ้น—และทำให้การบังคับใช้ความรับผิดชอบง่ายขึ้น
การเปลี่ยนจากการขยายการค้นหาเพื่อผู้บริโภคสู่การให้คำปรึกษาด้านลำดับความสำคัญระดับชาติโดย Eric Schmidt ชี้ให้เห็นการเปลี่ยนแปลงง่าย ๆ: "ผลิตภัณฑ์" ไม่ใช่เพียงบริการอีกต่อไป—มันคือขีดความสามารถ ความมั่นคง และความเชื่อถือสาธารณะ นั่นทำให้คำสัญญาที่คลุมเครือขายง่ายแต่ตรวจสอบยาก
ใช้คำถามเหล่านี้เป็นตัวกรองเร็วเมื่อคุณได้ยินแผนใหม่ รายงาน หรือคำปราศรัย:\n\n- เป้าหมายคืออะไร—อย่างชัดเจน? (เช่น การเร่งปรับใช้โมเดลในรัฐบาล ความปลอดภัยในการจัดซื้อ AI เพิ่ม compute เพื่อการวิจัย)\n- จะวัดความสำเร็จอย่างไร? มองหาตัวชี้วัดที่ชัดเจน: เวลาการจัดซื้อ เหตุการณ์ด้านความปลอดภัย อัตราผ่านการประเมินโมเดล ตัวเลขบุคลากร\n- ใครกำกับดูแล—มีอำนาจอะไร? คณะให้คำปรึกษาโดยไม่มีอำนาจไม่ใช่การกำกับดูแล ถามว่ามีอะไรหยุดชะงัก ตรวจสอบ หรือเปลี่ยนแปลงได้หรือไม่\n- ไทม์ไลน์และลำดับขั้นเป็นอย่างไร? "วิสัยทัศน์ห้าปี" ไม่ใช่ตารางเวลา เกิดอะไรขึ้นใน 6, 12, และ 24 เดือน\n- ยอมรับการแลกเปลี่ยนอะไรบ้าง? ความปลอดภัยเทียบกับความเร็ว ความเปิดเผยเทียบกับความมั่นคง นวัตกรรมเทียบกับความเป็นส่วนตัว—ยุทธศาสตร์ที่จริงจังจะระบุความตึงเครียดเหล่านี้
ยุคการค้นสอนว่า ขนาดขยายทุกอย่าง: ผลประโยชน์ ข้อผิดพลาด และแรงจูงใจ เมื่อนำไปใช้กับยุทธศาสตร์ระดับชาติ แสดงว่า:\n\n- สร้างระบบที่เติบโตได้ โดยไม่ลดมาตรฐาน (ความปลอดภัย การประเมิน วินัยการจัดซื้อ)\n- จัดแรงจูงใจให้หน่วยงานและผู้ขายชนะเมื่อปฏิบัติตาม ข้อกำหนดความปลอดภัยและความรับผิดชอบที่ชัดเจน ไม่ใช่ชนะที่การส่งมอบเร็วที่สุด\n- ถือว่าความเชื่อถือเป็นผลลัพธ์ที่ต้องหาให้ได้—ผ่านการตรวจสอบ ความโปร่งใสเมื่อเป็นไปได้ และช่องทางเยียวยาที่มีความหมาย
ยุทธศาสตร์ AI ระดับชาติสามารถปลดล็อกโอกาสจริง: บริการสาธารณะที่ดีขึ้น ความพร้อมในการป้องกันที่แข็งแรงขึ้น และงานวิจัยที่มีการแข่งขัน แต่พลังใช้งานสองด้านยกสถานการณ์ขึ้นสูง ผลการอ้างที่ดีที่สุดผสานความทะเยอทะยานกับกรอบคุ้มกันที่คุณชี้ให้เห็นได้
อ่านเพิ่มเติม: สำรวจมุมมองเพิ่มเติมใน /blog และบทนำเชิงปฏิบัติใน /resources/ai-governance และ /resources/ai-safety.
ยุทธศาสตร์ AI ของชาติคือแผนประสานงานว่าประเทศจะ พัฒนา นำไปใช้ และกำกับดูแล AI อย่างไร เพื่อประโยชน์สาธารณะ ในทางปฏิบัติมักครอบคลุม:
เพราะอิทธิพลของเขาตอนนี้ไม่ใช่เรื่องเทคโนโลยีผู้บริโภคเป็นหลัก แต่เป็นเรื่อง วิธีที่รัฐบาลแปลงความสามารถของ AI ให้เป็นขีดความสามารถของรัฐ บทบาทสาธารณะของเขา (โดยเฉพาะงานให้คำปรึกษาและคณะกรรมการ) อยู่ตรงจุดเชื่อมต่อของนวัตกรรม ความมั่นคง การกำกับดูแล และการแข่งขันทางภูมิรัฐศาสตร์—พื้นที่ที่นักนโยบายต้องการคำอธิบายที่น่าเชื่อถือและปฏิบัติได้ว่าทำอะไรได้และทำไม่ได้
กลุ่มที่ปรึกษามักจะ ไม่ออกกฎหมายหรือใช้งบประมาณเอง แต่พวกเขาสามารถกำหนดคู่มือเริ่มต้นที่นักนโยบายมักคัดลอกไปใช้ โดยมักผลิต:
มองหาหลักฐานที่ไอเดียกลายเป็น กลไกที่ทำซ้ำได้ ไม่ใช่แค่ข่าวเด่น:
เมื่อระบบให้บริการในระดับใหญ่ ความผิดพลาดที่เกิดขึ้นไม่บ่อยจะกลายเป็นเหตุการณ์รายวัน นั่นคือเหตุผลที่กลยุทธ์ต้องการ การวัดผลและการปฏิบัติการ ไม่ใช่แค่นโยบายเชิงหลักการ:
คำว่า dual-use หมายถึงความสามารถเดียวกันที่ให้ประโยชน์พลเรือนและอาจทำให้เกิดอันตรายได้ เช่น โมเดลที่ช่วยเขียนโค้ด วางแผน หรือสร้างข้อความสามารถ:
นโยบายมักมุ่งที่การเข้าถึงแบบบริหารความเสี่ยง การทดสอบ และการเฝ้าติดตาม แทนการแยกอย่างชัดเจนระหว่าง AI "พลเรือน" กับ "ทหาร"
การจัดซื้อของภาครัฐเป็นปัญหาเพราะการจัดซื้อแบบเดิมคาดหวังข้อกำหนดที่คงที่และผลิภัณฑ์ที่เปลี่ยนช้า ระบบ AI อัปเดตบ่อย ดังนั้นหน่วยงานต้องมีวิธีตรวจสอบว่า:
“Compute” (ศูนย์ข้อมูล) และชิปขั้นสูง (GPU/accelerator) คือ ความสามารถในการฝึกและรันโมเดล ยุทธศาสตร์มักมองสิ่งเหล่านี้เป็นโครงสร้างพื้นฐานสำคัญเพราะการขาดแคลนหรือปัญหาในห่วงโซ่อุปทานสามารถเป็นคอขวดสำหรับ:
เครื่องมือกำกับดูแลทั่วไปได้แก่:
แนวปฏิบัติที่ใช้มักเป็นการจัดชั้นความเสี่ยง: การตรวจสอบเข้มขึ้นในพื้นที่ที่มีผลกระทบรุนแรงที่สุด
ความร่วมมือสามารถเร่งการปรับใช้และปรับปรุงความปลอดภัย แต่ต้องมีกรอบคุ้มกัน:
การประสานงานที่ออกแบบดีจะสมดุลระหว่างนวัตกรรมกับความรับผิดชอบ แทนการมอบหมายอย่างใดอย่างหนึ่ง