สำรวจเส้นทางของ Sergey Brin จากอัลกอริธึมการค้นหาในยุคแรกสู่ Generative AI ปัจจุบัน พร้อมแนวคิดสำคัญเรื่องการปรับขนาด ผลกระทบต่อผลิตภัณฑ์ และคำถามที่ยังเปิดอยู่

เรื่องราวของ Sergey Brin มีความสำคัญไม่ใช่เพราะเรื่องราวดาราหรือเกร็ดบริษัท แต่เพราะมันลากเส้นตรงจากปัญหา การค้นหาแบบคลาสสิก (จะค้นหาคำตอบที่ดีที่สุดบนเว็บเปิดได้อย่างไร) มาสู่คำถามที่ทีมเผชิญวันนี้กับ AI สมัยใหม่ (จะสร้างผลลัพธ์ที่เป็นประโยชน์โดยไม่เสียความถูกต้อง ความเร็ว หรือความน่าเชื่อถือได้อย่างไร) งานของเขาอยู่ที่จุดตัดของอัลกอริธึม ข้อมูล และระบบ—ตรงจุดที่การค้นหาและ Generative AI พบกัน
นี่คือทัวร์เชิงแนวคิดของเหตุการณ์สำคัญ: แนวคิดอย่าง PageRank เปลี่ยนความเกี่ยวข้องอย่างไร, การเรียนรู้ของเครื่องเข้ามาแทนกฎที่เขียนด้วยมือได้อย่างไร, และทำไมการเรียนรู้เชิงลึกจึงช่วยให้เข้าใจภาษาได้ดีขึ้น มันไม่ใช่ซุบซิบ ดราม่าภายใน หรือไทม์ไลน์ข่าว จุดมุ่งหมายคืออธิบาย ทำไม การเปลี่ยนแปลงเหล่านี้สำคัญ และมันหล่อหลอมผลิตภัณฑ์ที่ผู้คนใช้ได้อย่างไร
Generative AI จะเรียกว่า “ระดับสเกล” เมื่อมันต้องทำงานเหมือนการค้นหา: หลายล้านผู้ใช้ ความหน่วงต่ำ ต้นทุนที่คาดการณ์ได้ และคุณภาพที่สม่ำเสมอ นั่นหมายถึงมากกว่าสาธิตโมเดลที่ฉลาด มันรวมถึง:
พออ่านจบ คุณจะเชื่อมต่อยุคการค้นหากับผลิตภัณฑ์สไตล์แชทในปัจจุบันได้ เข้าใจว่าทำไมการเรียกคืน (retrieval) และการสร้าง (generation) จึงผสมกัน และยืมหลักการปฏิบัติสำหรับทีมผลิตภัณฑ์—การวัด ผลความเกี่ยวข้อง การออกแบบระบบ และการปรับใช้ที่รับผิดชอบ—ซึ่งข้ามไปใช้ได้ทั้งสองโลก
เส้นทางของ Sergey Brin สู่การค้นหาเริ่มจากวิชาการ ที่ซึ่งคำถามหลักไม่ได้เป็นเรื่อง "การสร้างเว็บไซต์" แต่เป็นการจัดการข้อมูลล้นหลาม ก่อนที่ Google จะกลายเป็นบริษัท Brin จมอยู่กับงานวิจัยวิทยาการคอมพิวเตอร์ที่ครอบคลุมระบบฐานข้อมูล การทำเหมืองข้อมูล และการค้นคืนข้อมูล—สาขาที่ถามว่าจะเก็บข้อมูลขนาดมหาศาลและคืนคำตอบที่มีประโยชน์อย่างรวดเร็วได้อย่างไร
Brin เรียนคณิตศาสตร์และวิทยาการคอมพิวเตอร์ในระดับปริญญาตรี และศึกษาต่อที่ Stanford ซึ่งเป็นศูนย์กลางงานวิจัยเกี่ยวกับขนาดเว็บที่เกิดขึ้นใหม่ นักวิจัยกำลังพยายามแก้ปัญหาที่ฟังดูคุ้นเคยในวันนี้: ข้อมูลยุ่งเหยิง คุณภาพไม่แน่นอน และช่องว่างระหว่างสิ่งที่ผู้คนพิมพ์กับสิ่งที่พวกเขาตั้งใจจะค้นหาจริงๆ
การค้นหาในปลายทศวรรษ 1990 ส่วนใหญ่ขับเคลื่อนด้วยการจับคู่คีย์เวิร์ดและสัญญาณการจัดอันดับพื้นฐาน นั่นใช้ได้เมื่อเว็บยังเล็ก แต่เริ่มเสื่อมสภาพเมื่อหน้ามากขึ้นเรื่อยๆ และเมื่อผู้สร้างเนื้อหารู้วิธีจะเล่นกับระบบ ปัญหาทั่วไปรวมถึง:
แนวคิดที่กระตุ้นคือ: ถ้าเว็บเป็นห้องสมุดขนาดยักษ์ คุณต้องการมากกว่าการจับคู่ข้อความเพื่อจัดอันดับผลลัพธ์—คุณต้องการสัญญาณที่สะท้อนความน่าเชื่อถือและความสำคัญ การจัดระเบียบข้อมูลเว็บต้องการวิธีที่สรุปประโยชน์จากโครงสร้างเว็บเอง ไม่ใช่แค่คำบนหน้า
ลำดับความสำคัญการวิจัยเหล่านี้—การวัดคุณภาพ ต่อต้านการแทรกแซง และการทำงานในสเกลมหาศาล—ได้วางรากฐานให้กับการเปลี่ยนแปลงต่อมาของการค้นหาและ AI รวมถึงการจัดอันดับด้วยการเรียนรู้ของเครื่อง และในที่สุดแนวทางเชิงสร้างสรรค์
เป้าหมายของการค้นหาฟังดูเรียบง่าย: เมื่อคุณพิมพ์คำถาม หน้าเพจที่มีประโยชน์ที่สุดควรขึ้นมาด้านบน ในปลายทศวรรษ 1990 นั่นเป็นเรื่องยากกว่า เว็บเติบโตอย่างรวดเร็ว และเครื่องมือค้นหาแรกๆ พึ่งพามากกับข้อความในหน้า—ทำให้ผลลัพธ์ถูกจัดการได้ง่ายและน่าหงุดหงิด
ความเข้าใจสำคัญของ Sergey Brin และ Larry Page คือการใช้โครงสร้างลิงก์ของเว็บเป็นสัญญาณ ถ้าหนึ่งหน้าเชื่อมไปยังหน้าอื่น มันเหมือนการลงคะแนน ไม่ใช่การลงคะแนนทั้งหมดเท่ากัน: ลิงก์จากหน้าที่เคารพมากควรมีค่าน้ำหนักมากกว่าจากหน้าที่ไม่ค่อยมีคนเห็น
แนวคิดคือ PageRank วัดความสำคัญโดยถามว่า: หน้าไหนถูกอ้างอิงโดยหน้าที่สำคัญอื่นๆ? คำถามวนซ้ำนี้กลายเป็นการจัดอันดับเชิงคณิตศาสตร์ที่คำนวณในระดับเว็บ ผลลัพธ์ไม่ใช่คำตอบสุดท้ายของความเกี่ยวข้อง แต่เป็นส่วนผสมที่ทรงพลังใหม่
ง่ายที่จะให้เครดิต PageRank เกินควรว่ามันคือต้นเหตุความสำเร็จของ Google ในความเป็นจริง การจัดอันดับเป็นสูตร: อัลกอริธึมรวมสัญญาณหลายอย่าง (การจับคู่ข้อความ ความสดใหม่ ตำแหน่ง ความเร็ว และอื่นๆ) เพื่อทำนายว่าอะไรที่ผู้คนต้องการจริงๆ
และแรงจูงใจมักยุ่งเหยิง ทันทีที่การจัดอันดับสำคัญ สแปมก็มา—ฟาร์มลิงก์ การยัดคีย์เวิร์ด และทริกอื่นๆ ที่พยายามดูมีความเกี่ยวข้องโดยไม่เป็นประโยชน์ อัลกอริธึมการค้นหาจึงกลายเป็นเกมเชิงรุกต่อเนื่อง: ปรับปรุงความเกี่ยวข้อง ตรวจจับการแทรกแซง และปรับระบบ
เว็บเปลี่ยน ภาษาเปลี่ยน และความคาดหวังของผู้ใช้ก็เปลี่ยน การปรับปรุงทุกครั้งสร้างกรณีมุมใหม่ PageRank ไม่ได้จบการค้นหา แต่นำทางสาขาจากการจับคู่คีย์เวิร์ดเรียบง่ายสู่การค้นคืนข้อมูลสมัยใหม่ ที่ซึ่งความเกี่ยวข้องถูกวัด ทดสอบ และปรับแต่งอย่างต่อเนื่อง
แนวคิดการจัดอันดับที่ฉลาดไม่พอเมื่อฐานข้อมูลของคุณคือเว็บทั้งใบ สิ่งที่ทำให้การค้นหาในยุคแรกของ Google ต่างออกไปไม่ใช่แค่ความเกี่ยวข้อง แต่มันคือความสามารถในการส่งมอบความเกี่ยวข้องนั้นอย่างรวดเร็วและสม่ำเสมอให้ผู้คนนับล้านพร้อมกัน
การค้นหาในระดับอินเทอร์เน็ตเริ่มด้วยการครอลล์: ค้นพบหน้า เยี่ยมชมซ้ำ และรับมือกับเว็บที่ไม่เคยหยุดเปลี่ยน ต่อมาก็เป็นการจัดทำดัชนี: แปลงเนื้อหาที่ยุ่งเหยิงและหลากหลายเป็นโครงสร้างที่สามารถสืบค้นได้ในมิลลิวินาที
ในสเกลเล็ก คุณอาจจัดการที่เก็บและคอมพิวต์เหมือนปัญหาของเครื่องเดียว แต่ในสเกลใหญ่ ทุกการเลือกคือการแลกเปลี่ยนเชิงระบบ:
ผู้ใช้ไม่เห็นคุณภาพการค้นหาเป็นคะแนนการจัดอันดับ พวกเขาเห็นเป็นหน้าผลลัพธ์ที่โหลดทันทีทุกครั้ง หากระบบล้มเหลวบ่อย ผลลัพธ์หมดเวลา หรือความสดช้าลง แม้โมเดลความเกี่ยวข้องดีแค่ไหนก็จะดูไม่ดีในทางปฏิบัติ
นั่นคือเหตุผลที่วิศวกรรมเพื่อความพร้อมใช้งาน การลดผลกระทบเมื่อเกิดปัญหา และประสิทธิภาพที่สม่ำเสถียรนั้นแยกไม่ออกจากการจัดอันดับ ผลลัพธ์ที่อาจสมบูรณ์น้อยกว่านิดหน่อยแต่ส่งได้อย่างสม่ำเสมอใน 200ms ย่อมชนะผลลัพธ์ที่ดีกว่าแต่ช้าหรือไม่แน่นอน
ในระดับสเกล คุณไม่สามารถ “แค่ปล่อย” การอัพเดต การค้นหาพึ่งพาท่อข้อมูลที่เก็บสัญญาณ (การคลิก ลิงก์ รูปแบบภาษา) รันการประเมิน และค่อยๆ เปิดตัวการเปลี่ยนแปลง เป้าหมายคือการตรวจจับการถดถอยตั้งแต่เนิ่นๆ—ก่อนจะกระทบผู้ใช้ทั้งหมด
สมุดบรรณานุกรมของห้องสมุดสมมติว่าหนังสือคงที่ คัดสรร และเปลี่ยนช้า เว็บคือห้องสมุดที่หนังสือเขียนตัวเอง ชั้นวางย้าย และมีห้องใหม่ปรากฏเสมอ การค้นหาในระดับอินเทอร์เน็ตคือเครื่องจักรที่รักษาบัญชีที่ใช้งานได้สำหรับเป้าหมายที่เคลื่อนไหวนี้—รวดเร็ว น่าเชื่อถือ และอัพเดตต่อเนื่อง
การจัดอันดับการค้นหาในยุคแรกพึ่งพากฎมาก: ถ้าหน้ามีคำที่ถูกต้องในหัวข้อ ถ้ามีลิงก์บ่อย โหลดเร็ว ฯลฯ สัญญาณเหล่านั้นสำคัญ แต่การตัดสินใจว่าแต่ละอย่างควรมีค่าน้ำหนักเท่าไรมักเป็นงานที่ปรับด้วยมือ วิศวกรสามารถปรับน้ำหนัก รันการทดลอง และทำซ้ำ มันใช้ได้ แต่ถึงเพดานเมื่อเว็บและความคาดหวังของผู้ใช้ขยายขึ้น
“การเรียนรู้เพื่อจัดอันดับ” คือการปล่อยให้ระบบ เรียนรู้ ว่าผลลัพธ์ที่ดีเป็นอย่างไรโดยศึกษาจากตัวอย่างจำนวนมาก
แทนการเขียนรายการกฎยาวๆ คุณป้อนโมเดลด้วยการค้นหาและผลลัพธ์ในอดีต—เช่นผลลัพธ์ที่ผู้คนเลือก ผลลัพธ์ที่พวกเขากลับออกเร็ว และหน้าที่ผู้ตรวจสอบมนุษย์ตัดสินว่ามีประโยชน์ เมื่อเวลาผ่านไป โมเดลจะคาดเดาได้ดีขึ้นว่าหน้าไหนควรอยู่สูงขึ้น
อุปมาง่ายๆ: แทนที่ครูจะเขียนผังที่นั่งละเอียดสำหรับทุกคลาส ครูสังเกตว่าผังที่นั่งแบบไหนนำไปสู่การสนทนาที่ดีกว่า แล้วปรับให้เอง
การเปลี่ยนแปลงนี้ไม่ได้ลบสัญญาณคลาสสิกอย่างลิงก์หรือคุณภาพหน้า แต่มันเปลี่ยนวิธีรวมสัญญาณเหล่านั้น ส่วนที่ “เงียบ” คือจากมุมมองผู้ใช้ ช่องค้นหาดูเหมือนเดิม แต่ภายใน จุดศูนย์ถ่วงย้ายจากสูตรการให้คะแนนที่ปรับด้วยมือไปสู่โมเดลที่ฝึกด้วยข้อมูล
เมื่อโมเดลเรียนรู้จากข้อมูล การวัดผลจะกลายเป็นแนวทาง
ทีมพึ่งพาตัวชี้วัดความเกี่ยวข้อง (ผลลัพธ์ตอบความต้องการหรือไม่) การทดสอบออนไลน์แบบ A/B (การเปลี่ยนแปลงทำให้พฤติกรรมผู้ใช้ดีขึ้นหรือไม่) และข้อเสนอแนะจากมนุษย์ (ผลลัพธ์ถูกต้อง ปลอดภัย และมีประโยชน์หรือไม่) กุญแจคือการมองการประเมินเป็นกระบวนการต่อเนื่อง—เพราะสิ่งที่ผู้คนค้นหาและนิยามของ “ดี” ยังคงเปลี่ยนแปลง
เขาเป็นเลนส์ที่มีประโยชน์สำหรับเชื่อมโยงปัญหา การค้นคืนข้อมูลแบบคลาสสิก (ความเกี่ยวข้อง การต้านทานสแปม การปรับขนาด) เข้ากับปัญหา Generative AI ในปัจจุบัน (การยึดข้อมูลเป็นหลัก ระยะหน่วง ความปลอดภัย ค่าใช้จ่าย) จุดประสงค์ไม่ใช่ประวัติส่วนตัว แต่องค์ความรู้คือว่า search และ AI สมัยใหม่มีข้อจำกัดร่วมกัน: ต้องทำงานในระดับขนาดใหญ่พร้อมรักษาความไว้วางใจ
Search จะเรียกว่า “at scale” เมื่อระบบต้องจัดการ คำค้นนับล้าน ได้ด้วยความหน่วงต่ำ ความพร้อมใช้งานสูง และข้อมูลอัพเดตอย่างต่อเนื่อง
Generative AI เรียกว่า “at scale” เมื่อมันต้องทำสิ่งเดียวกันขณะที่ยังต้องสร้างคำตอบเพิ่มขึ้น ซึ่งเพิ่มเงื่อนไขรอบๆ:
ในปลายทศวรรษ 1990 การค้นหาพึ่งพาการ จับคู่คีย์เวิร์ด และสัญญาณการจัดอันดับพื้นฐาน ซึ่งล้มเหลวเมื่อเว็บเติบโตขึ้นมาก
ปัญหาทั่วไปได้แก่:
PageRank มองโครงสร้างลิงก์ของเว็บเป็นการให้คะแนนหรือ “ลงคะแนนไว้วางใจ” โดยลิงก์จากหน้าที่มีความน่าเชื่อถือมากกว่าจะมีน้ำหนักมากกว่า
เชิงปฏิบัติ:
เพราะการจัดอันดับเกี่ยวข้องกับเงินและความสนใจ มันจึงกลายเป็นระบบ เชิงปฏิบัติการผสมผสานการต้านทาน เมื่อสัญญาณใดใช้ได้ ผู้คนก็พยายามเอาเปรียบ
นั่นทำให้ต้องปรับปรุงอย่างต่อเนื่อง:
เมื่ออยู่ในระดับเว็บ ระบบประสิทธิภาพคือส่วนหนึ่งของ “คุณภาพ” ผู้ใช้รับรู้คุณภาพเป็น:
ผลลัพธ์ที่อาจแย่กว่าแต่ส่งได้ 200ms สม่ำเสมอ มักชนะผลลัพธ์ที่ดีขึ้นแต่ช้าหรือไม่แน่นอน
การเรียนรู้การจัดอันดับเปลี่ยนจากกฎที่ปรับแต่งด้วยมือมาเป็น โมเดลที่ฝึกจากข้อมูล (พฤติกรรมการคลิก การตัดสินของมนุษย์ และสัญญาณอื่นๆ)
แทนที่จะกำหนดน้ำหนักของแต่ละสัญญาณด้วยมือ โมเดลเรียนรู้การรวมสัญญาณเหล่านั้นเพื่อทำนาย "ผลลัพธ์ที่เป็นประโยชน์" ได้ดีขึ้น
ผลลัพธ์ที่มองเห็นอาจไม่เปลี่ยน แต่ภายในระบบเปลี่ยนเป็น:
Deep learning ช่วยให้ระบบสร้างตัวแทนความหมาย (representations) ที่ดีกว่า ทำให้:
การแลกเปลี่ยนคือต้นทุนด้านคอมพิวต์ ความต้องการข้อมูล และการอธิบายผลที่ยากขึ้นเมื่อการจัดอันดับเปลี่ยน
การค้นหาแบบคลาสสิกมุ่งที่การ จัดอันดับและการทำนาย — ให้คะแนนเอกสารที่มีอยู่แล้วและเรียงลำดับ Generative AI เปลี่ยนรูปแบบผลลัพธ์ไปเป็นการ สร้าง ข้อความ โค้ด สรุป และภาพ
ความเสี่ยงใหม่รวมถึง:
คำถามจึงเปลี่ยนจาก “เราเลือกแหล่งที่ดีที่สุดหรือไม่?” เป็น “คำตอบที่สร้างขึ้นแม่นยำ ยึดแหล่ง และปลอดภัยหรือเปล่า?”
Retrieval-augmented generation (RAG) จะดึงแหล่งข้อมูลที่เชื่อถือได้มาก่อน แล้วจึงสร้างคำตอบโดยอิงจากสิ่งที่พบ
เมื่อต้องนำไปใช้ในผลิตภัณฑ์ ทีมมักเพิ่ม: