Cái nhìn thực tế về cách Sundar Pichai dẫn dắt Google để biến AI thành lớp nền tảng của internet—trong sản phẩm, hạ tầng và an toàn.

Một thành phần cơ bản của Internet là một khối xây dựng cơ bản mà bạn có thể giả định sẽ có mặt—như liên kết, tìm kiếm, bản đồ hay thanh toán. Mọi người không nghĩ quá về cách nó hoạt động; họ chỉ mong nó có mặt ở khắp nơi, rẻ và đáng tin cậy.
Bets lớn của Sundar Pichai là AI nên trở thành loại khối xây dựng đó: không phải một tính năng đặc biệt chỉ có trong vài sản phẩm, mà là một khả năng mặc định nằm dưới nhiều trải nghiệm trên web.
Trong nhiều năm, AI xuất hiện như các tiện ích bổ sung: gắn thẻ ảnh tốt hơn ở chỗ này, lọc spam thông minh hơn ở chỗ kia. Sự chuyển dịch mà Pichai thúc đẩy mang tính cấu trúc hơn. Thay vì hỏi, “Chúng ta rắc AI ở đâu?”, các công ty bắt đầu hỏi, “Làm sao thiết kế sản phẩm với giả định AI luôn sẵn có?”
Tư duy đó thay đổi những gì được ưu tiên:
Đây không phải là một phân tích kỹ thuật sâu về kiến trúc mô hình hay công thức huấn luyện. Nó nói về chiến lược và quyết định sản phẩm: cách Google dưới thời Pichai định vị AI như hạ tầng chia sẻ, cách điều đó ảnh hưởng đến các sản phẩm người dùng đã sử dụng, và cách các lựa chọn nền tảng nội bộ định hình điều gì trở nên khả thi.
Chúng ta sẽ đi qua các thành phần thực tiễn cần thiết để biến AI thành một thành phần cơ bản:
Kết thúc bạn sẽ có bức tranh rõ ràng về điều cần thiết—về mặt tổ chức và chiến lược—để AI cảm nhận như cơ bản và hiện diện như phần còn lại của web hiện đại.
Ảnh hưởng của Sundar Pichai tới hướng đi AI của Google dễ hiểu hơn nếu nhìn vào loại công việc đã tạo nên sự nghiệp của ông: các sản phẩm không chỉ thu hút người dùng, mà còn tạo nền tảng để người khác xây dựng.
Pichai gia nhập Google năm 2004 và nhanh chóng gắn liền với những trải nghiệm “mặc định”—các công cụ mà hàng triệu người dựa vào mà không cần nghĩ về cơ chế bên dưới. Ông đóng vai trò trung tâm trong sự trỗi dậy của Chrome, không chỉ như một trình duyệt, mà là cách nhanh hơn, an toàn hơn để truy cập web, thúc đẩy tiêu chuẩn và kỳ vọng của nhà phát triển.
Sau đó ông chịu trách nhiệm lớn với Android. Điều đó nghĩa là cân bằng một hệ sinh thái đối tác khổng lồ (nhà sản xuất thiết bị, nhà mạng, nhà phát triển app) trong khi giữ cho nền tảng mạch lạc. Đó là một kiểu lãnh đạo sản phẩm cụ thể: bạn không thể tối ưu chỉ cho một ứng dụng hay một tính năng—bạn phải đặt ra quy tắc, API và động lực có thể mở rộng.
Tư duy xây dựng nền tảng ấy khớp rất tốt với thách thức khiến AI trở nên “bình thường” trên mạng.
Khi AI được coi là nền tảng, các quyết định lãnh đạo có xu hướng ưu tiên:
Pichai trở thành CEO Google năm 2015 (và CEO Alphabet năm 2019), đặt ông vào vị trí thúc đẩy một chuyển dịch toàn công ty: AI không phải là dự án bên lề, mà là hạ tầng chia sẻ. Lăng kính này giúp giải thích các lựa chọn sau đó—chuẩn hóa công cụ nội bộ, đầu tư vào compute, và biến AI thành lớp có thể tái sử dụng trên các sản phẩm thay vì làm lại từ đầu mỗi lần.
Con đường của Google để khiến AI trở nên “cơ bản” không chỉ dựa vào mô hình khéo léo—mà còn về nơi những mô hình đó có thể tồn tại. Ít công ty nào nằm đúng giao điểm của tầm tiếp cận người tiêu dùng khổng lồ, các sản phẩm trưởng thành, và các chương trình nghiên cứu lâu năm. Sự kết hợp đó tạo ra vòng phản hồi nhanh bất thường: phát hành cải tiến, quan sát hiệu suất, và tinh chỉnh.
Khi hàng tỷ truy vấn, video và tương tác ứng dụng chảy qua vài dịch vụ lõi, ngay cả những cải tiến nhỏ cũng có ý nghĩa. Xếp hạng tốt hơn, ít kết quả không liên quan hơn, nhận dạng giọng nói khá hơn—ở quy mô Google, những bước nhảy nhỏ ấy chuyển thành trải nghiệm hàng ngày rõ rệt cho người dùng.
Cần chính xác về ý nghĩa của “lợi thế dữ liệu” ở đây. Google không có quyền truy cập ma thuật vào Internet, và không thể đảm bảo kết quả chỉ vì nó lớn. Lợi thế chủ yếu là vận hành: các sản phẩm tồn tại lâu tạo ra tín hiệu có thể dùng (trong khuôn khổ chính sách và pháp lý) để đánh giá chất lượng, phát hiện suy giảm và đo lường tính hữu ích.
Search dạy người dùng mong đợi câu trả lời nhanh và chính xác. Theo thời gian, các tính năng như gợi ý tự động, sửa chính tả, và hiểu ý định truy vấn nâng cao kỳ vọng rằng hệ thống nên dự đoán ý định—không chỉ khớp từ khóa. Tư duy đó gắn trực tiếp với AI hiện đại: dự đoán ý người dùng thường có giá trị hơn phản ứng với những gì họ gõ.
Android cung cấp cho Google một cách thực tiễn để phân phối các tính năng chạy bằng AI ở quy mô toàn cầu. Cải tiến trong nhập liệu bằng giọng nói, trí tuệ trên thiết bị, tính năng camera và trải nghiệm giống trợ lý có thể đến được nhiều nhà sản xuất và phân khúc giá, khiến AI ít giống sản phẩm tách rời hơn và giống khả năng tích hợp sẵn hơn.
“Mobile-first” nghĩa là thiết kế sản phẩm xung quanh smartphone như màn hình và ngữ cảnh mặc định. “AI-first” là nguyên tắc tổ chức tương tự, nhưng rộng hơn: coi machine learning như một thành phần mặc định trong cách xây, cải thiện và phân phối sản phẩm—thay vì là tính năng chuyên biệt thêm vào cuối.
Trong thực tế, một công ty AI-first giả định rằng nhiều vấn đề người dùng có thể giải quyết tốt hơn khi phần mềm có thể dự đoán, tóm tắt, dịch, gợi ý hoặc tự động hóa. Câu hỏi chuyển từ “Chúng ta có nên dùng AI ở đây không?” sang “Làm sao thiết kế để AI tham gia vào trải nghiệm một cách an toàn và hữu ích?”
Tư thế AI-first xuất hiện trong các quyết định hàng ngày:
Nó cũng thay đổi nghĩa của “phát hành”. Thay vì một lần tung ra duy nhất, các tính năng AI thường yêu cầu tinh chỉnh liên tục—giám sát hiệu suất, tinh chỉnh prompt hoặc hành vi mô hình, và thêm rào chắn khi việc sử dụng thực tế lộ ra các trường hợp biên.
Chuyển dịch toàn công ty không hiệu quả nếu chỉ dừng ở khẩu hiệu. Lãnh đạo đặt ưu tiên qua việc lặp đi lặp lại thông điệp công khai, phân bổ nguồn lực, và cơ chế khích lệ: dự án nào được tăng nhân lực, chỉ số nào quan trọng, và các cuộc đánh giá hỏi “Điều này cải thiện thế nào nhờ AI?”.
Với một công ty lớn như Google, tín hiệu này chủ yếu dành cho điều phối. Khi các đội chia sẻ hướng đi chung—AI như lớp mặc định—các nhóm nền tảng có thể chuẩn hóa công cụ, đội sản phẩm có thể lên kế hoạch với sự tự tin, và nhà nghiên cứu có thể chuyển đột phá thành thứ có thể mở rộng.
Để AI cảm thấy như một “thành phần cơ bản của Internet”, nó không thể chỉ sống trong các demo nghiên cứu riêng lẻ hay thử nghiệm sản phẩm một lần. Nó cần nền tảng chia sẻ—mô hình chung, công cụ tiêu chuẩn, và cách lặp để đánh giá chất lượng—để các đội có thể xây dựng trên cùng một nền tảng thay vì làm lại từ đầu.
Một thay đổi then chốt dưới tư duy xây dựng nền tảng của Pichai là xem nghiên cứu AI ít hơn như loạt dự án độc lập và nhiều hơn như một chuỗi cung ứng biến ý tưởng mới thành năng lực sử dụng được. Điều đó nghĩa là hợp nhất công việc vào các quy trình có thể mở rộng: huấn luyện, kiểm thử, rà soát an toàn, triển khai, và giám sát liên tục.
Khi quy trình đó được chia sẻ, tiến độ không còn là “ai có thí nghiệm hay nhất” mà thành “chúng ta có thể phát hành cải tiến an toàn khắp nơi nhanh đến đâu.” Các framework như TensorFlow giúp chuẩn hóa cách xây và phục vụ mô hình, trong khi các thực hành nội bộ về đánh giá và tung tính năng giúp dễ dàng đưa kết quả từ phòng thí nghiệm vào sản phẩm thực tế.
Tính nhất quán không chỉ là hiệu quả vận hành—nó làm cho AI cảm thấy đáng tin cậy.
Nếu thiếu điều này, người dùng sẽ thấy AI không đồng đều: hữu ích ở chỗ này, khó hiểu ở chỗ khác, và khó dựa vào.
Hãy nghĩ giống như điện lực. Nếu mỗi hộ gia đình phải tự chạy máy phát, điện sẽ đắt, ồn và không đáng tin. Lưới điện chung khiến điện có trên yêu cầu, với tiêu chuẩn an toàn và hiệu năng. Mục tiêu của Google với nền tảng AI chia sẻ tương tự: xây một “lưới” đáng tin cậy gồm mô hình, công cụ và đánh giá để AI có thể cắm vào nhiều sản phẩm—nhất quán, nhanh và với rào chắn rõ ràng.
Nếu AI sẽ trở thành khối xây dựng cơ bản cho Internet, các nhà phát triển cần nhiều hơn các bài báo nghiên cứu ấn tượng—họ cần công cụ khiến huấn luyện và triển khai mô hình trở thành công việc kỹ thuật phần mềm bình thường.
TensorFlow giúp biến máy học từ một nghề thủ công chuyên môn thành quy trình kỹ thuật. Bên trong Google, nó chuẩn hóa cách các đội xây và triển khai hệ thống ML, giảm trùng lặp nỗ lực và giúp ý tưởng di chuyển dễ hơn giữa các nhóm sản phẩm.
Bên ngoài Google, TensorFlow hạ rào cản cho startup, trường đại học và doanh nghiệp. Một framework chung tạo thành ngôn ngữ chia sẻ—hướng dẫn, thành phần tiền huấn luyện và nguồn nhân lực tập trung theo các mẫu chung. Hiệu ứng “ngôn ngữ chung” đó đẩy nhanh việc tiếp nhận hơn bất kỳ lần ra mắt sản phẩm nào.
(Nếu bạn muốn ôn nhanh các khái niệm cơ bản trước khi đi sâu, xem bài giải thích cơ bản về máy học.)
Việc mở mã TensorFlow không chỉ là hào phóng—nó tạo vòng lặp phản hồi. Nhiều người dùng hơn nghĩa là nhiều báo lỗi hơn, nhiều đóng góp từ cộng đồng hơn, và vòng lặp lặp nhanh các tính năng quan trọng trong thế giới thực (hiệu năng, di động, giám sát và triển khai).
Nó cũng khuyến khích tương thích trong hệ sinh thái: nhà cung cấp đám mây, nhà sản xuất chip và nhà cung cấp phần mềm có thể tối ưu cho giao diện được dùng rộng thay vì giao diện đóng.
Mở mang lại rủi ro thật sự. Công cụ sẵn có rộng có thể làm tăng việc lạm dụng (gian lận, giám sát, deepfake) hoặc triển khai mô hình mà không đủ kiểm thử. Với một công ty ở quy mô Google, căng thẳng đó luôn hiện hữu: chia sẻ thúc đẩy tiến bộ, nhưng cũng mở rộng bề mặt gây hại.
Kết quả thực tế là con đường trung gian—framework mở và phát hành có chọn lọc, kèm theo chính sách, biện pháp bảo vệ, và hướng dẫn rõ ràng về sử dụng có trách nhiệm.
Khi AI càng trở nên “mặc định”, trải nghiệm nhà phát triển cũng thay đổi: người xây ngày càng mong tạo luồng app qua ngôn ngữ tự nhiên, không chỉ API. Đó là chỗ các công cụ kiểu “vibe-coding” như Koder.ai phù hợp—cho phép đội thử nghiệm và triển khai web, backend và app di động qua chat, trong khi vẫn xuất mã nguồn khi cần kiểm soát hoàn toàn.
Một "internet primitive" là khả năng nền tảng mà bạn có thể giả định có ở khắp nơi (như liên kết, tìm kiếm, bản đồ hay thanh toán). Trong cách nhìn này, AI trở thành một lớp đáng tin cậy, rẻ và luôn sẵn có mà nhiều sản phẩm có thể “cắm vào”, thay vì một tính năng riêng biệt mà bạn phải đi tìm.
Một tính năng thường là tùy chọn và thường tách biệt (ví dụ: một chế độ đặc biệt hoặc một tab riêng). Một khả năng mặc định được tích hợp sâu vào luồng chính—người dùng kỳ vọng nó “chỉ hoạt động” trên toàn sản phẩm.
Dấu hiệu thực tế cho thấy AI đang trở thành mặc định:
Bởi vì các thành phần nền tảng phải hoạt động cho mọi người, mọi lúc. Ở quy mô của Google, ngay cả độ trễ hoặc chi phí nhỏ cũng trở nên lớn.
Do đó các đội ưu tiên:
Nó là việc đưa AI vào các sản phẩm mà người ta đã dùng—Search, Android, Chrome, Workspace—nhờ đó việc tiếp nhận xảy ra qua các bản cập nhật bình thường thay vì “hãy thử ứng dụng AI của chúng tôi”.
Nếu bạn xây sản phẩm riêng, tương tự là:
Đó là phong cách lãnh đạo tối ưu cho hệ sinh thái: đặt tiêu chuẩn, công cụ chung và các thành phần tái sử dụng để nhiều đội (và nhà phát triển bên ngoài) có thể xây dựng nhất quán.
Trong AI, điều đó thể hiện qua:
Nghĩa là biến các bước đột phá nghiên cứu thành quy trình sản xuất lặp lại được—đào tạo, kiểm thử, xem xét an toàn, triển khai, và giám sát—để cải tiến được phát hành rộng rãi.
Bài học thực tế cho các đội:
Tính nhất quán khiến AI trở nên đáng tin cậy trên nhiều sản phẩm và giảm công việc trùng lặp.
Bạn nhận được:
TensorFlow chuẩn hóa cách xây, huấn luyện và phục vụ mô hình—cả bên trong Google lẫn trong ngành—khiến ML trở nên giống quy trình kỹ thuật phần mềm thông thường hơn.
Khi chọn stack cho nhà phát triển, hãy tìm:
TPU là các chip chuyên dụng được thiết kế để chạy các phép toán AI hiệu quả. Ở quy mô lớn, hiệu quả này có thể giảm chi phí và cải thiện thời gian phản hồi.
Bạn không nhất thiết phải có chip tùy biến để hưởng lợi—điều quan trọng là ghép khối lượng công việc với hạ tầng phù hợp:
Vì các mô hình sinh có thể tự tin nhưng sai, và ở quy mô lớn tỷ lệ lỗi nhỏ cũng ảnh hưởng tới hàng triệu người.
Các biện pháp thực tế có thể mở rộng: