Jelajahi bagaimana gagasan awal Larry Page tentang AI dan pengetahuan membentuk strategi jangka panjang Google—dari kualitas pencarian hingga moonshot dan taruhan AI-pertama.

Ini bukan tulisan penuh hype tentang satu momen terobosan. Ini soal pemikiran jangka panjang: bagaimana sebuah perusahaan bisa memilih arah sejak awal, terus berinvestasi melewati banyak pergeseran teknologi, dan perlahan mengubah gagasan besar menjadi produk sehari-hari.
Ketika tulisan ini mengatakan “visi AI Larry Page,” bukan maksudnya “Google meramalkan chatbot hari ini.” Maksudnya lebih sederhana—dan lebih tahan lama: membangun sistem yang belajar dari pengalaman.
Dalam tulisan ini, “visi AI” merujuk pada beberapa keyakinan terkait:
Dengan kata lain, “visi” ini kurang tentang satu model saja dan lebih tentang sebuah mesin: kumpulkan sinyal, pelajari pola, kirim perbaikan, ulangi.
Agar gagasan itu konkret, sisa tulisan menelusuri progresi sederhana:
Di akhir, “visi AI Larry Page” diharapkan terasa kurang seperti slogan dan lebih seperti strategi: berinvestasi sejak dini pada sistem yang belajar, membangun pipa yang menyuplainya, dan bersabar sambil mengompound kemajuan selama bertahun-tahun.
Web awal punya masalah sederhana dengan konsekuensi rumit: tiba-tiba ada jauh lebih banyak informasi daripada yang bisa disaring manusia, dan sebagian besar alat pencarian saat itu pada dasarnya menebak apa yang penting.
Jika Anda mengetik kueri, banyak mesin mengandalkan sinyal jelas—seberapa sering kata muncul di halaman, apakah ada di judul, atau seberapa sering pemilik situs bisa “mengisi” kata itu ke dalam teks tersembunyi. Itu membuat hasil mudah dimanipulasi dan susah dipercaya. Web tumbuh lebih cepat daripada alat yang dimaksudkan untuk mengaturnya.
Wawasan utama Larry Page dan Sergey Brin adalah bahwa web sudah berisi sistem pemungutan suara bawaan: tautan.
Sebuah tautan dari satu halaman ke halaman lain agak mirip sitasi dalam makalah atau rekomendasi dari teman. Tidak semua rekomendasi setara. Tautan dari halaman yang dianggap berharga oleh banyak orang harus dihitung lebih berat daripada tautan dari halaman tak dikenal. PageRank mengubah gagasan itu menjadi matematika: alih-alih memberi peringkat hanya berdasarkan apa yang dikatakan halaman tentang dirinya sendiri, Google memberi peringkat berdasarkan apa yang “dikatakan” web secara keseluruhan melalui penautan.
Ini melakukan dua hal penting sekaligus:
Hanya punya ide peringkat yang cerdas tidak cukup. Kualitas pencarian adalah sasaran bergerak: halaman baru muncul, spam beradaptasi, dan apa yang dimaksud orang dengan sebuah kueri bisa berubah.
Jadi sistem harus bisa diukur dan diperbarui. Google bergantung pada pengujian konstan—mencoba perubahan, mengukur apakah hasil membaik, dan mengulang. Kebiasaan iterasi itu membentuk pendekatan jangka panjang perusahaan terhadap sistem yang “belajar”: anggap pencarian sebagai sesuatu yang bisa dievaluasi terus-menerus, bukan proyek rekayasa sekali jadi.
Pencarian yang hebat bukan hanya soal algoritma cerdik—itu soal kualitas dan kuantitas sinyal yang bisa dipelajari algoritma tersebut.
Google awal punya keuntungan bawaan: web sendiri penuh dengan “suara” tentang apa yang penting. Tautan antar halaman (dasar dari PageRank) berfungsi seperti sitasi, dan anchor text (“klik di sini” vs. “sepatu hiking terbaik”) menambah makna. Di atas itu, pola bahasa di berbagai halaman membantu sistem memahami sinonim, varian ejaan, dan banyak cara orang menanyakan hal yang sama.
Begitu orang mulai menggunakan mesin pencari dalam skala besar, penggunaan menciptakan sinyal tambahan:
Inilah flywheel: hasil lebih baik menarik lebih banyak penggunaan; lebih banyak penggunaan menciptakan sinyal yang lebih kaya; sinyal yang lebih kaya meningkatkan peringkat dan pemahaman; dan peningkatan itu menarik lebih banyak pengguna lagi. Seiring waktu, pencarian menjadi kurang seperti seperangkat aturan tetap dan lebih seperti sistem pembelajaran yang beradaptasi dengan apa yang benar-benar berguna bagi orang.
Berbagai jenis data saling memperkuat. Struktur tautan dapat menonjolkan otoritas, sementara perilaku klik mencerminkan preferensi saat ini, dan data bahasa membantu menafsirkan kueri ambigu (“jaguar” hewan vs. mobil). Bersama-sama, mereka memungkinkan menjawab bukan hanya “halaman mana yang memuat kata-kata ini,” tetapi “apa jawaban terbaik untuk niat ini.”
Flywheel ini memunculkan pertanyaan privasi yang jelas. Pelaporan publik yang baik sudah lama mencatat bahwa produk konsumen besar menghasilkan data interaksi masif, dan bahwa perusahaan menggunakan sinyal teragregasi untuk meningkatkan kualitas. Juga banyak didokumentasikan bahwa Google telah berinvestasi dalam kontrol privasi dan keamanan dari waktu ke waktu, meski detail dan efektivitasnya diperdebatkan.
Intinya sederhana: belajar dari penggunaan dunia nyata itu kuat—dan kepercayaan bergantung pada seberapa bertanggung jawab pembelajaran itu ditangani.
Google tidak berinvestasi dini dalam komputasi terdistribusi karena itu sedang tren—itu satu-satunya cara untuk mengikuti skala web yang berantakan. Jika Anda ingin merayapi miliaran halaman, memperbarui peringkat sering, dan menjawab kueri dalam sepersekian detik, Anda tidak bisa bergantung pada satu komputer besar. Anda butuh ribuan mesin lebih murah yang bekerja bersama, dengan perangkat lunak yang memperlakukan kegagalan sebagai hal normal.
Pencarian memaksa Google membangun sistem yang bisa menyimpan dan memproses jumlah data yang sangat besar dengan andal. Pendekatan “banyak komputer, satu sistem” itu menjadi fondasi untuk semua yang mengikuti: pengindeksan, analitik, eksperimen, dan akhirnya pembelajaran mesin.
Wawasan kuncinya adalah bahwa infrastruktur bukan terpisah dari AI—ia menentukan macam model apa yang memungkinkan.
Melatih model yang berguna berarti memberinya banyak contoh nyata. Menyajikan model itu berarti menjalankannya untuk jutaan orang, seketika, tanpa gangguan. Keduanya adalah masalah skala:
Setelah Anda membangun pipa untuk menyimpan data, mendistribusikan komputasi, memantau kinerja, dan menggulung pembaruan dengan aman, sistem berbasis pembelajaran dapat meningkat terus-menerus alih-alih muncul sebagai perubahan besar yang jarang dan berisiko.
Beberapa fitur yang akrab menunjukkan mengapa mesin itu penting:
Keunggulan jangka panjang Google bukan hanya punya algoritma cerdas—melainkan membangun mesin operasional yang membiarkan algoritma belajar, dikirimkan, dan membaik pada skala internet.
Google awal sudah terlihat “pintar,” tetapi banyak kecerdasan itu direkayasa: analisis tautan (PageRank), sinyal peringkat yang disetel tangan, dan banyak heuristik untuk spam. Seiring waktu, pusat gravitasi bergeser dari aturan yang ditulis eksplisit ke sistem yang mempelajari pola dari data—terutama tentang apa yang dimaksud orang, bukan hanya apa yang mereka ketik.
Pembelajaran mesin secara bertahap meningkatkan tiga hal yang dirasakan pengguna sehari-hari:
Untuk kredibilitas, kutip campuran riset primer dan penjelasan produk publik:
Permainan panjang Google bukan hanya soal punya ide besar—itu bergantung pada budaya riset yang bisa mengubah paper yang tampak akademis menjadi hal yang jutaan orang benar-benar gunakan. Itu berarti memberi penghargaan pada rasa ingin tahu, tetapi juga membangun jalur dari prototipe ke produk andal.
Banyak perusahaan memperlakukan riset sebagai pulau terpisah. Google mendorong loop yang lebih rapat: peneliti bisa mengeksplorasi arah ambisius, menerbitkan hasil, dan tetap berkolaborasi dengan tim produk yang peduli latensi, keandalan, dan kepercayaan pengguna. Ketika loop itu bekerja, sebuah paper bukan garis akhir—itu awal dari sistem yang lebih cepat dan lebih baik.
Cara praktis melihat ini adalah bagaimana ide model muncul dalam fitur “kecil”: koreksi ejaan yang lebih baik, peringkat yang lebih pintar, rekomendasi yang ditingkatkan, atau terjemahan yang terdengar tidak terlalu harfiah. Setiap langkah bisa tampak inkremental, tetapi bersama-sama mereka mengubah rasa “pencarian.”
Beberapa inisiatif menjadi simbol jalur paper-ke-produk itu. Google Brain membantu mengintegrasikan deep learning ke dalam perusahaan dengan membuktikan bahwa pendekatan itu bisa melampaui metode lama ketika ada cukup data dan komputasi. Nanti, TensorFlow memudahkan tim untuk melatih dan menyebarkan model secara konsisten—sebuah bahan penting tapi kurang glamor untuk menskalakan pembelajaran mesin di banyak produk.
Riset pada terjemahan mesin neural, pengenalan suara, dan sistem visi serupa berpindah dari hasil laboratorium ke pengalaman sehari-hari, seringkali setelah beberapa iterasi yang meningkatkan kualitas dan mengurangi biaya.
Kurva hasil jarang langsung. Versi awal bisa mahal, tidak akurat, atau sulit diintegrasikan. Keunggulannya datang dari bertahan dengan ide cukup lama untuk membangun infrastruktur, mengumpulkan umpan balik, dan menyempurnakan model sampai andal.
Kebiasaan bersabar—mendanai “taruhan panjang”, menerima penyimpangan, dan mengiterasi selama bertahun-tahun—membantu mengubah konsep AI ambisius menjadi sistem berguna yang bisa dipercaya pada skala Google.
Pencarian teks memberi keuntungan pada trik peringkat yang cerdik. Tetapi saat Google mulai menerima suara, foto, dan video, pendekatan lama tidak cukup. Input ini berantakan: aksen, kebisingan latar, gambar buram, rekaman goyang, bahasa gaul, dan konteks yang tidak tertulis di mana pun. Untuk membuatnya berguna, Google membutuhkan sistem yang bisa belajar pola dari data alih-alih mengandalkan aturan yang ditulis tangan.
Dengan pencarian suara dan dikte Android, tujuan bukan hanya “mentranskrip kata.” Tujuannya memahami apa yang dimaksud seseorang—dengan cepat, di perangkat, atau lewat koneksi yang buruk.
Pengenalan suara mendorong Google ke arah pembelajaran mesin skala besar karena kinerja meningkat paling baik ketika model dilatih pada dataset audio yang besar dan beragam. Tekanan produk itu membenarkan investasi serius dalam komputasi (untuk pelatihan), tooling khusus (pipa data, set evaluasi, sistem deployment), dan merekrut orang yang bisa mengiterasi model sebagai produk hidup—bukan demo riset sekali pakai.
Foto tidak datang dengan kata kunci. Pengguna mengharapkan Google Photos menemukan “anjing”, “pantai”, atau “perjalanan saya ke Paris”, meskipun mereka tidak pernah memberi tag apapun.
Ekspektasi itu memaksa pemahaman gambar yang lebih kuat: deteksi objek, pengelompokan wajah, dan pencarian kemiripan. Sekali lagi, aturan tidak bisa menutup variasi kehidupan nyata, jadi sistem pembelajaran menjadi jalur praktis. Meningkatkan akurasi berarti lebih banyak data berlabel, infrastruktur pelatihan yang lebih baik, dan siklus eksperimen yang lebih cepat.
Video menambah tantangan ganda: itu gambar berurutan ditambah audio. Membantu pengguna menavigasi YouTube—pencarian, teks terjemahan, “Up next”, dan filter keselamatan—membutuhkan model yang bisa menggeneralisasi lintas topik dan bahasa.
Rekomendasi membuat kebutuhan ML semakin jelas. Ketika miliaran pengguna mengklik, menonton, melewatkan, dan kembali, sistem harus beradaptasi terus-menerus. Jenis lingkar umpan balik itu secara alami menghargai investasi dalam pelatihan skala besar, metrik, dan talenta untuk menjaga model membaik tanpa merusak kepercayaan.
“AI-pertama” paling mudah dipahami sebagai keputusan produk: alih-alih menambahkan AI sebagai alat khusus di samping, Anda menganggapnya sebagai bagian mesin dalam segala sesuatu yang orang gunakan. Google menggambarkan arah ini secara publik sekitar 2016–2017, memposisikannya sebagai pergeseran dari “mobile-first” ke “AI-first.” Idéanya bukan semua fitur tiba-tiba menjadi “pintar,” tetapi cara default produk meningkat akan semakin melalui sistem pembelajaran—peringkat, rekomendasi, pengenalan suara, terjemahan, dan deteksi spam—daripada aturan yang disetel tangan.
Secara praktis, pendekatan AI-pertama terlihat ketika “loop inti” sebuah produk diam-diam berubah:
Pengguna mungkin tidak pernah melihat tombol bertuliskan “AI.” Mereka hanya memperhatikan lebih sedikit hasil yang salah, lebih sedikit gesekan, dan jawaban yang lebih cepat.
Asisten suara dan antarmuka percakapan mengubah ekspektasi. Ketika orang bisa berkata, “Ingatkan aku menelepon Ibu ketika aku sampai rumah,” mereka mulai mengharapkan perangkat lunak memahami niat, konteks, dan bahasa sehari-hari yang berantakan.
Itu mendorong produk ke arah pemahaman bahasa alami sebagai kemampuan dasar—di seluruh suara, ketikan, dan bahkan input kamera (mengarah ponsel ke sesuatu dan bertanya apa itu). Jadi pivot itu sama soal memenuhi kebiasaan pengguna baru seperti halnya ambisi riset.
Penting: “AI-pertama” paling baik dibaca sebagai arah—yang didukung oleh pernyataan publik berulang dan langkah produk—bukan klaim bahwa AI menggantikan semua pendekatan lain dalam semalam.
Pembentukan Alphabet pada 2015 bukan sekadar rebrand tetapi keputusan operasional: memisahkan inti yang matang dan menghasilkan pendapatan (Google) dari upaya yang lebih berisiko dan berdurasi panjang (sering disebut “Other Bets”). Struktur itu penting jika Anda berpikir tentang visi AI Larry Page sebagai proyek multi-dekade alih-alih siklus produk tunggal.
Google Search, Ads, YouTube, dan Android butuh eksekusi tanpa henti: keandalan, kontrol biaya, dan iterasi yang konsisten. Moonshot—mobil swakemudi, ilmu hayat, proyek konektivitas—membutuhkan sesuatu yang berbeda: toleransi terhadap ketidakpastian, ruang untuk eksperimen mahal, dan izin untuk salah.
Di bawah Alphabet, inti bisa dikelola dengan ekspektasi kinerja yang jelas, sementara taruhan dievaluasi berdasarkan tonggak pembelajaran: “Apakah kita membuktikan asumsi teknis kunci?” “Apakah model membaik cukup dengan data dunia nyata?” “Apakah masalah ini bahkan bisa diselesaikan pada tingkat keselamatan yang dapat diterima?”
Mentalitas “permainan panjang” ini tidak mengandaikan setiap proyek akan berhasil. Ia mengandaikan bahwa eksperimen yang berkelanjutan adalah cara Anda menemukan apa yang akan penting nanti.
Pabrik moonshot seperti X adalah contoh bagus: tim mencoba hipotesis berani, menginstrumentasikan hasil, dan menghentikan ide dengan cepat jika buktinya lemah. Disiplin itu sangat relevan untuk AI, di mana kemajuan sering bergantung pada iterasi—data yang lebih baik, setup pelatihan yang lebih baik, evaluasi yang lebih baik—bukan hanya satu terobosan.
Alphabet bukanlah jaminan kemenangan masa depan. Itu cara melindungi dua ritme kerja yang berbeda:
Untuk tim, pelajaran bersifat struktural: jika Anda menginginkan hasil AI jangka panjang, desainlah untuk itu. Pisahkan pengiriman jangka pendek dari pekerjaan eksploratori, danan eksperimen sebagai kendaraan pembelajaran, dan ukur kemajuan dengan wawasan yang tervalidasi—bukan sekadar headline.
Saat sistem AI melayani miliaran kueri, tingkat kesalahan kecil berubah menjadi headline harian. Model yang “kebanyakan benar” masih bisa menyesatkan jutaan—terutama pada kesehatan, keuangan, pemilu, atau berita terkini. Pada skala Google, kualitas bukan sekadar pelengkap; ia adalah tanggung jawab yang mengompound.
Bias dan representasi. Model belajar pola dari data, termasuk bias sosial dan historis. Peringkat yang “netral” masih bisa memperkuat pandangan dominan atau kurang melayani bahasa dan wilayah minoritas.
Kesalahan dan kepercayaan berlebih. AI sering gagal dengan cara yang terdengar meyakinkan. Kesalahan paling merusak bukan bug yang jelas; mereka jawaban yang terdengar masuk akal yang dipercaya pengguna.
Keselamatan vs. kegunaan. Filter ketat mengurangi bahaya tetapi juga bisa memblokir kueri sah. Filter lemah meningkatkan cakupan tapi menaikkan risiko penipuan, self-harm, atau misinformasi.
Akuntabilitas. Saat sistem menjadi lebih otomatis, makin sulit menjawab pertanyaan dasar: Siapa yang menyetujui perilaku ini? Bagaimana itu diuji? Bagaimana pengguna banding atau memperbaikinya?
Skala meningkatkan kemampuan, tetapi juga:
Itulah mengapa pengaman harus juga bisa diskalakan: rangkaian evaluasi, red-teaming, penegakan kebijakan, ketelusuran sumber, dan antarmuka pengguna yang jelas yang menandai ketidakpastian.
Gunakan ini untuk menilai fitur “didukung AI”—baik dari Google maupun pihak lain:
Kepercayaan diperoleh melalui proses yang dapat diulang—bukan satu model terobosan.
Pola yang paling dapat dipindah-tangankan di balik lengkungan panjang Google sederhana: tujuan jelas → data → infrastruktur → iterasi. Anda tidak perlu skala Google untuk menggunakan loop itu—yang Anda butuhkan adalah disiplin tentang apa yang Anda optimalkan, dan cara belajar dari penggunaan nyata tanpa menipu diri sendiri.
Mulailah dengan satu janji pengguna yang bisa diukur (kecepatan, lebih sedikit kesalahan, kecocokan yang lebih baik). Instrumenkan agar Anda bisa mengamati hasil. Bangun “mesin” minimum yang memungkinkan Anda mengumpulkan, memberi label, dan mengirim perbaikan dengan aman. Lalu iterasi dalam langkah kecil dan sering—anggap setiap rilis sebagai peluang belajar.
Jika hambatan Anda adalah mempercepat dari “ide” ke “produk terinstrumentasi”, alur kerja pembangunan modern bisa membantu. Misalnya, Koder.ai adalah platform vibe-coding di mana tim bisa membuat aplikasi web, backend, atau mobile dari antarmuka obrolan—berguna untuk memutar MVP yang menyertakan loop umpan balik (jempol atas/bawah, laporkan masalah, survei cepat) tanpa menunggu berminggu-minggu untuk pipa kustom penuh. Fitur seperti mode perencanaan serta snapshot/rollback juga cocok dengan prinsip “eksperimen aman, ukur, iterasi.”
Jika Anda ingin langkah praktis selanjutnya, tautkan ini ke daftar bacaan tim Anda: