KoderKoder.ai
HargaEnterpriseEdukasiUntuk investor
MasukMulai

Produk

HargaEnterpriseUntuk investor

Sumber daya

Hubungi kamiDukunganEdukasiBlog

Legal

Kebijakan privasiKetentuan penggunaanKeamananKebijakan penggunaan yang dapat diterimaLaporkan penyalahgunaan

Sosial

LinkedInTwitter
Koder.ai
Bahasa

© 2026 Koder.ai. Hak cipta dilindungi.

Beranda›Blog›Peralihan Eric Schmidt dari Google Search ke Strategi AI
23 Nov 2025·8 menit

Peralihan Eric Schmidt dari Google Search ke Strategi AI

Melacak perjalanan Eric Schmidt dari perannya membentuk Google Search hingga memengaruhi strategi AI nasional, termasuk peran kebijakan, gagasan kunci, dan perdebatan.

Peralihan Eric Schmidt dari Google Search ke Strategi AI

Mengapa Eric Schmidt Penting dalam Percakapan Kebijakan AI

Eric Schmidt sering diperkenalkan sebagai mantan CEO Google—tetapi relevansinya sekarang lebih sedikit tentang kotak pencarian dan lebih tentang bagaimana pemerintah memandang kecerdasan buatan. Tujuan artikel ini menjelaskan pergeseran itu: bagaimana seorang eksekutif teknologi yang membantu menskalakan salah satu perusahaan internet terbesar di dunia menjadi suara penting dalam prioritas AI nasional, laporan publik, dan praktik mengubah inovasi menjadi kapasitas negara.

Apa yang dimaksud 'strategi AI nasional' (dalam istilah sederhana)

Strategi AI nasional adalah rencana suatu negara tentang bagaimana mereka akan mengembangkan, mengadopsi, dan mengatur AI agar melayani tujuan publik. Biasanya mencakup pendanaan untuk penelitian, dukungan untuk startup dan adopsi industri, aturan untuk penggunaan bertanggung jawab, rencana tenaga kerja dan pendidikan, serta bagaimana lembaga pemerintahan akan mengadakan dan menerapkan sistem AI.

Ia juga mencakup pertanyaan 'berat': bagaimana melindungi infrastruktur kritis, mengelola data sensitif, dan merespons ketika alat AI yang sama bisa dipakai untuk manfaat sipil maupun keuntungan militer.

Tema yang akan ditelusuri artikel ini

Schmidt penting karena berada di persimpangan empat perdebatan yang membentuk pilihan kebijakan:

  • Inovasi: bagaimana menjaga kemajuan AI tetap berjalan tanpa mencekiknya dengan regulasi yang berlebihan.
  • Keamanan: bagaimana AI mengubah pertahanan, risiko siber, dan kerja intelijen.
  • Tata kelola: bagaimana menuntut keselamatan, akuntabilitas, dan perlindungan hak saat sistem membuat keputusan bernilai tinggi.
  • Kompetisi: bagaimana pesaing global—terutama AS dan Tiongkok—memperlakukan AI sebagai kapabilitas strategis.

Ruang lingkup dan aturan dasar

Ini bukan biografi atau daftar lengkap setiap pandangan Schmidt. Fokusnya pada peran publiknya (seperti kerja-kerja penasehat dan inisiatif yang diliput luas) dan apa yang diungkapkan tonggak tersebut tentang bagaimana pengaruh kebijakan AI terjadi—melalui laporan, prioritas pendanaan, gagasan pengadaan, dan penerjemahan realitas teknis menjadi tindakan pemerintahan.

Dari Eksekutif Teknologi ke Penjaga Teknologi: Latar Singkat

Profil publik Eric Schmidt sering terkait dengan Google, tetapi jalannya menuju kepemimpinan teknologi dimulai jauh sebelum pencarian menjadi kebiasaan sehari-hari.

Karier awal: akar teknik, lalu kepemimpinan organisasi

Schmidt berlatih sebagai ilmuwan komputer dan memulai kariernya dalam peran yang mencampurkan teknik dengan manajemen. Seiring waktu ia pindah ke posisi senior di perusahaan teknologi besar, termasuk Sun Microsystems dan kemudian Novell. Pekerjaan itu penting karena mengajarkan jenis kepemimpinan tertentu: bagaimana menjalankan organisasi yang kompleks, meluncurkan produk dalam skala global, dan mengambil keputusan teknologi di bawah tekanan pasar, pesaing, dan regulasi.

Masuk ke Google pada momen penting

Saat Schmidt bergabung dengan Google pada 2001 sebagai CEO, perusahaan itu masih dalam tahap awal—tumbuh cepat, berorientasi misi, dan dipimpin oleh pendiri yang menginginkan eksekutif berpengalaman untuk memprofesionalkan operasi. Tugasnya bukan 'mencipta ulang pencarian' melainkan membangun struktur yang memungkinkan inovasi berulang: pengambilan keputusan yang lebih jelas, jalur perekrutan yang kuat, dan ritme operasi yang bisa mengikuti pertumbuhan pesat.

Apa arti 'pencarian pada skala besar' sebenarnya

Era pertumbuhan Google bukan hanya tentang hasil yang lebih baik; ini tentang menangani volume besar kueri, halaman web, dan keputusan iklan—secara konsisten dan cepat. 'Pencarian pada skala besar' juga menimbulkan pertanyaan kepercayaan yang melampaui teknik: bagaimana data pengguna ditangani, bagaimana keputusan peringkat memengaruhi apa yang dilihat orang, dan bagaimana platform merespons ketika kesalahan menjadi konsumsi publik.

Tema manajemen yang muncul kemudian

Sepanjang periode itu, beberapa pola menonjol: kecenderungan merekrut talenta teknis yang kuat, penekanan pada fokus (memprioritaskan yang penting), dan berpikir sistem—memperlakukan produk, infrastruktur, dan batasan kebijakan sebagai bagian dari satu sistem operasi. Kebiasaan itu membantu menjelaskan mengapa Schmidt kemudian condong ke soal teknologi nasional, di mana koordinasi dan pertukaran sama pentingnya dengan penemuan.

Pelajaran Era Pencarian tentang Data, Skala, dan Kepercayaan

Pencarian tampak sederhana—ketik kueri, dapat jawaban—tetapi sistem di baliknya adalah loop disiplin mengumpulkan informasi, menguji asumsi, dan memperoleh kepercayaan pengguna pada skala besar.

Bagaimana pencarian bekerja (secara konseptual)

Secara garis besar, pencarian memiliki tiga tugas.

Pertama, merayapi (crawling): program otomatis menemukan halaman dengan mengikuti tautan dan mengunjungi kembali situs untuk mendeteksi perubahan.

Kedua, mengindeks dan memberi peringkat: sistem mengorganisasi apa yang ditemukan, lalu mengurutkan hasil menggunakan sinyal yang memperkirakan kualitas dan kegunaan.

Ketiga, relevansi: peringkat bukan 'halaman terbaik di internet', melainkan 'halaman terbaik untuk orang ini, untuk kueri ini, saat ini.' Itu berarti menafsirkan niat, bahasa, dan konteks—bukan sekadar mencocokkan kata kunci.

Data, eksperimen, dan infrastruktur

Era pencarian menegaskan kebenaran praktis: hasil yang baik biasanya berasal dari pengukuran, iterasi, dan infrastruktur siap-skalal.

Tim pencarian hidup dari data—pola klik, reformulasi kueri, kinerja halaman, laporan spam—karena itu menunjukkan apakah perubahan benar-benar membantu pengguna. Perubahan peringkat kecil sering dinilai melalui eksperimen terkontrol (seperti tes A/B) untuk menghindari bergantung pada intuisi.

Tidak ada itu yang bekerja tanpa infrastruktur. Sistem terdistribusi masif, pelayanan latensi rendah, pemantauan, dan prosedur rollback cepat mengubah 'ide baru' menjadi rilis yang aman. Kemampuan menjalankan banyak eksperimen dan belajar cepat menjadi keunggulan kompetitif.

Pelajaran yang berlanjut ke strategi AI

Tema yang sama cocok dengan pemikiran kebijakan AI modern:

  • Skala mengubah risiko: ketika suatu model atau sistem melayani jutaan, kegagalan langka menjadi kejadian harian.
  • Evaluasi penting: diperlukan tolok ukur, uji tekanan, dan pemantauan dunia nyata—bukan hanya demo yang mengesankan.
  • Keselamatan adalah operasional: pembatas, respons insiden, dan audit berkelanjutan mirip dengan sistem anti-spam dan kualitas pada pencarian.

Yang paling penting, sistem yang berhadapan dengan pengguna naik atau turun berdasarkan kepercayaan. Jika hasil terasa dimanipulasi, berbahaya, atau terus-menerus salah, adopsi dan legitimasi terkikis—wawasan yang berlaku lebih tajam lagi untuk sistem AI yang menghasilkan jawaban, bukan sekadar tautan.

Apa yang Berubah Ketika AI Menjadi Prioritas Nasional

Ketika AI diperlakukan sebagai prioritas nasional, percakapan bergeser dari 'Apa yang harus dilakukan produk ini?' menjadi 'Apa yang bisa kapabilitas ini lakukan terhadap masyarakat, ekonomi, dan keamanan?' Itu adalah pengambilan keputusan jenis berbeda. Taruhannya meluas: pemenang dan yang kalah bukan hanya perusahaan dan pelanggan, tetapi industri, institusi, dan kadang-kadang negara.

Dari roadmap fitur ke taruhannya nasional

Pilihan produk biasanya mengoptimalkan nilai pengguna, pendapatan, dan reputasi. AI yang menjadi prioritas nasional memaksa pertukaran antara kecepatan dan kehati-hatian, keterbukaan dan kontrol, serta inovasi dan ketahanan. Keputusan tentang akses model, berbagi data, dan garis waktu penerapan dapat memengaruhi risiko disinformasi, gangguan tenaga kerja, dan kesiapan pertahanan.

Mengapa pemerintah memperhatikan kapabilitas AI

Pemerintah peduli pada AI karena alasan sama seperti dulu mereka peduli pada listrik, penerbangan, dan internet: ini bisa meningkatkan produktivitas nasional dan membentuk ulang kekuatan.

Sistem AI juga bisa bersifat 'dual-use'—berguna dalam bidang medis dan logistik, tetapi juga dapat diterapkan untuk operasi siber, pengawasan, atau pengembangan senjata. Bahkan terobosan sipil pun dapat mengubah perencanaan militer, rantai pasok, dan alur kerja intelijen.

Kolaborasi publik–swasta, dengan ketegangan nyata

Sebagian besar kapabilitas AI terdepan berada di perusahaan swasta dan laboratorium penelitian teratas. Pemerintah perlu mengakses keahlian, komputasi, dan pengalaman penerapan; perusahaan butuh kejelasan aturan, jalur pengadaan, dan kepastian tanggung jawab. Namun kolaborasi jarang mulus. Perusahaan khawatir tentang IP, kerugian kompetitif, dan diminta melakukan pekerjaan penegakan. Pemerintah khawatir tentang capture, akuntabilitas yang tidak merata, dan bergantung pada sedikit vendor untuk infrastruktur strategis.

Apa saja yang termasuk 'strategi'

Strategi AI nasional lebih dari sekadar memo. Biasanya meliputi:

  • Talenta: pendidikan, visa, dan perekrutan di sektor publik yang dapat bersaing dengan industri.
  • Komputasi: akses ke chip, pusat data, dan lingkungan aman untuk pekerjaan sensitif.
  • Standar: pengujian keselamatan, ekspektasi dokumentasi, dan norma interoperabilitas.
  • Pengadaan: bagaimana lembaga membeli, memvalidasi, dan memperbarui sistem AI tanpa penundaan bertahun-tahun.

Setelah bagian-bagian ini dianggap prioritas nasional, mereka menjadi alat kebijakan—bukan sekadar keputusan bisnis.

Peran-Peran Penasehat dan Laporan Publik: Bagaimana Pengaruh Terjadi

Ubah strategi menjadi perangkat lunak
Bangun, deploy, dan sempurnakan aplikasi di satu tempat agar tim bisa fokus pada evaluasi.
Coba Koder ai

Dampak Eric Schmidt pada strategi AI kurang soal menulis undang-undang dan lebih soal membentuk 'narasi default' yang digunakan pembuat kebijakan saat bertindak. Setelah memimpin Google, ia menjadi suara penting di lingkaran penasehat AI AS—terutama sebagai ketua National Security Commission on Artificial Intelligence (NSCAI), serta melalui peran dewan, penasehat, dan upaya penelitian lain yang menghubungkan keahlian industri dengan prioritas pemerintahan.

Apa yang sebenarnya dilakukan badan penasehat

Komisi dan gugus tugas biasanya bekerja pada jadwal ketat, mengumpulkan masukan dari lembaga, akademisi, perusahaan, dan masyarakat sipil. Output cenderung praktis dan mudah dibagikan:

  • Laporan publik yang mendefinisikan masalah, menjelaskan risiko, dan menetapkan urgensi
  • Rekomendasi konkrit (perubahan organisasi, ide pengadaan, target pelatihan)
  • Kerangka kerja dan 'pendekatan model' yang dapat digunakan ulang oleh lembaga
  • Briefing yang menerjemahkan tren teknis ke dalam bahasa kebijakan

Dokumen ini penting karena menjadi titik rujukan. Staf mengutipnya, lembaga meniru strukturnya, dan jurnalis menggunakannya untuk menjelaskan mengapa topik layak diperhatikan.

Menasehati bukan berarti menetapkan kebijakan

Kelompok penasehat tidak bisa mengalokasikan dana, menerbitkan regulasi, atau memerintahkan lembaga. Mereka mengusulkan; pejabat terpilih dan lembaga eksekutif menentukan. Bahkan ketika laporan berpengaruh, laporan itu bersaing dengan anggaran, keterbatasan politik, otoritas hukum, dan prioritas nasional yang bergeser.

Meski begitu, garis antara 'ide' dan 'aksi' bisa pendek ketika laporan menawarkan langkah siap-implementasi—terutama pada pengadaan, standar, atau program tenaga kerja.

Cara menilai pengaruh yang nyata

Jika ingin menilai apakah pekerjaan seorang penasehat mengubah hasil, cari bukti selain tajuk berita:

  • Adopsi: rekomendasi muncul dalam perintah eksekutif, rencana lembaga, atau legislasi
  • Sitasi: seberapa sering laporan tersebut dirujuk dalam dengar pendapat, dokumen strategi, atau audit
  • Pergeseran pendanaan: alokasi baru, program hibah, atau anggaran pengadaan yang selaras dengan proposal
  • Perubahan kelembagaan: pembentukan kantor, badan koordinasi, atau laporan berkala yang terkait rekomendasi

Pengaruh terukur ketika ide berubah menjadi mekanisme kebijakan yang dapat diulang—bukan sekadar kutipan yang mengena.

Blok Bangunan Utama Strategi AI Nasional

Strategi AI nasional bukan satu undang-undang atau paket pendanaan sekali saja. Ia adalah serangkaian pilihan terkoordinasi tentang apa yang dibangun, siapa yang membangunnya, dan bagaimana negara akan mengetahui apakah itu berhasil.

1) R&D: Mengubah ide menjadi kapabilitas

Pendanaan riset publik membantu menciptakan terobosan yang mungkin diabaikan pasar—terutama pekerjaan yang membutuhkan waktu bertahun-tahun, memiliki imbal balik tidak pasti, atau fokus pada keselamatan. Strategi yang kuat menghubungkan riset dasar (universitas, laboratorium) ke program terapan (kesehatan, energi, layanan pemerintah) sehingga penemuan tidak berhenti sebelum sampai ke pengguna nyata.

2) Talenta: Orang adalah faktor pembatas

Kemajuan AI bergantung pada peneliti, insinyur, dan tim produk yang terampil—tetapi juga staf kebijakan yang dapat mengevaluasi sistem dan tim pengadaan yang dapat membelinya dengan bijak. Rencana nasional sering menggabungkan pendidikan, pelatihan tenaga kerja, dan jalur imigrasi, karena kekurangan tak bisa dipecahkan hanya dengan uang.

3) Infrastruktur: Komputasi dan chip sebagai sumber strategis

'Komputasi' adalah tenaga mentah yang digunakan untuk melatih dan menjalankan model AI—kebanyakan di pusat data besar. Chip canggih (seperti GPU dan akselerator khusus) adalah mesin yang menyediakan tenaga itu.

Itu membuat chip dan pusat data mirip jaringan listrik dan pelabuhan: tidak glamor, tetapi penting. Jika suatu negara tidak dapat mengakses chip kelas atas—atau tidak dapat secara andal memberi daya dan mendinginkan pusat data—maka ia dapat kesulitan membangun model kompetitif atau menerapkannya dalam skala.

4) Penerapan: Menggunakan AI di tempat yang penting

Strategi hanya berarti jika AI meningkatkan hasil di bidang prioritas: pertahanan, intelijen, kesehatan, pendidikan, dan layanan publik. Itu memerlukan aturan pengadaan, standar keamanan siber, dan akuntabilitas yang jelas ketika sistem gagal. Ini juga berarti membantu perusahaan kecil mengadopsi AI agar manfaat tidak terbatas pada beberapa raksasa.

Dalam praktiknya, banyak lembaga juga membutuhkan cara lebih cepat untuk membuat prototipe dan iterasi dengan aman sebelum berkomitmen pada kontrak multi-tahun. Alat seperti Koder.ai (platform vibe-coding yang membangun aplikasi web, backend, dan mobile dari chat, dengan mode perencanaan, snapshot, dan rollback) menggambarkan arah pengadaan: loop umpan balik lebih pendek, dokumentasi perubahan lebih jelas, dan pilot yang lebih terukur.

Akses data vs. privasi: mengelola pertukaran

Lebih banyak data dapat meningkatkan AI, tetapi 'kumpulkan semuanya' menciptakan risiko nyata: pengawasan, kebocoran, dan diskriminasi. Strategi praktis menggunakan berbagi data terarah, metode yang menjaga privasi, dan batasan yang jelas—terutama untuk domain sensitif—daripada memperlakukan privasi sebagai hal yang tidak relevan atau absolut.

Pengukuran: tolok ukur, audit, dan standar evaluasi

Tanpa pengukuran, strategi menjadi slogan. Pemerintah dapat mensyaratkan tolok ukur umum untuk kinerja, pengujian red-team untuk keselamatan, audit pihak ketiga untuk penggunaan berisiko tinggi, dan evaluasi berkelanjutan setelah penerapan—agar keberhasilan terlihat dan masalah cepat ditangani.

AI, Keamanan Nasional, dan Teknologi Dual-Use

Kementerian pertahanan dan intelijen peduli pada AI karena alasan sederhana: ia dapat mengubah kecepatan dan kualitas pengambilan keputusan. Model dapat menyaring citra satelit lebih cepat, menerjemahkan komunikasi yang disadap, mendeteksi anomali siber, dan membantu analis menghubungkan sinyal lemah di kumpulan data besar. Jika digunakan dengan baik, itu berarti peringatan lebih awal, penargetan sumber daya yang lebih baik, dan lebih sedikit jam kerja manusia yang dihabiskan untuk tugas repetitif.

Mengapa 'dual-use' menjadi kekhawatiran sentral

Banyak kapabilitas AI yang paling berharga juga yang paling mudah disalahgunakan. Model umum yang menulis kode, merencanakan tugas, atau menghasilkan teks meyakinkan dapat mendukung misi sah—seperti mengotomasi laporan atau mempercepat penemuan kerentanan—tetapi juga dapat:

  • Membantu penyerang menyusun phishing dalam skala besar atau menghasilkan variasi malware
  • Menurunkan hambatan untuk operasi pengaruh dan propaganda
  • Memungkinkan penargetan dan pengawasan lebih cepat bila dipasangkan dengan aliran data

Tantangan keamanan nasional bukan soal satu 'AI yang dilengkapi senjata', melainkan alat yang tersedia luas yang meningkatkan kemampuan pertahanan dan penyerangan.

Pengadaan: membeli kecepatan tanpa membeli buta

Pemerintah kesulitan mengadopsi AI yang bergerak cepat karena pengadaan tradisional mengharapkan persyaratan stabil, siklus pengujian panjang, dan garis tanggung jawab yang jelas. Dengan model yang sering diperbarui, lembaga membutuhkan cara untuk memverifikasi apa yang mereka beli (klaim data pelatihan, batas kinerja, postur keamanan) dan siapa yang bertanggung jawab bila terjadi kesalahan—vendor, integrator, atau lembaga.

Pengamanan yang cocok untuk AI

Pendekatan yang layak memadukan inovasi dengan cek yang dapat ditegakkan:

  • Pengawasan independen untuk penerapan berdampak tinggi
  • Pengujian pra-penerapan, termasuk red teaming untuk penyalahgunaan dan bias
  • Pelaporan insiden yang jelas (kegagalan model, kebocoran data, keluaran berbahaya)
  • Pemantauan berkelanjutan setelah peluncuran, bukan hanya saat 'penerimaan'

Jika dilakukan dengan benar, pengamanan tidak melambatkan semua hal. Mereka memprioritaskan pengawasan pada tempat di mana taruhannya tertinggi—analisis intelijen, pertahanan siber, dan sistem yang terkait dengan keputusan hidup atau mati.

Geopolitik dan Kompetisi: Dimensi AS–Tiongkok

Kurangi waktu iterasi
Percepat siklus iterasi ketika kebutuhan sering berubah dan tenggat waktu ketat.
Mulai Pro

Geopolitik membentuk strategi AI karena sistem paling kapabel bergantung pada bahan yang dapat diukur dan diperebutkan: talenta riset terbaik, komputasi skala besar, data berkualitas tinggi, dan perusahaan yang mampu mengintegrasikannya. Dalam konteks itu, dinamika AS–Tiongkok sering digambarkan sebagai 'perlombaan', tetapi bingkai itu bisa menyembunyikan perbedaan penting: berlomba untuk kapabilitas tidak sama dengan berlomba untuk keselamatan dan stabilitas.

Kompetisi kapabilitas vs. kompetisi keselamatan

Perlombaan kapabilitas murni memberi penghargaan pada kecepatan—luncurkan dulu, skalakan tercepat, raih pengguna terbanyak. Pendekatan keselamatan-dan-stabilitas memberi penghargaan pada penahanan—pengujian, pemantauan, dan aturan bersama yang mengurangi kecelakaan dan penyalahgunaan.

Kebanyakan pembuat kebijakan mencoba menyeimbangkan keduanya. Pertukarannya nyata: pengamanan yang lebih ketat dapat memperlambat penerapan, namun gagal berinvestasi pada keselamatan dapat menciptakan risiko sistemik dan mengikis kepercayaan publik, yang juga memperlambat kemajuan.

Talenta, ekosistem, dan konsentrasi kekuatan industri

Kompetisi bukan hanya soal 'siapa punya model terbaik.' Ini juga soal apakah sebuah negara dapat secara andal menghasilkan dan menarik peneliti, insinyur, dan pembangun produk.

Di AS, universitas terkemuka, pendanaan ventura, dan jaringan padat laboratorium serta startup memperkuat ekosistem riset. Pada saat yang sama, kapabilitas AI semakin terkonsentrasi pada sejumlah kecil perusahaan dengan anggaran komputasi dan akses data untuk melatih model paling mutakhir. Konsentrasi itu bisa mempercepat terobosan, tetapi juga membatasi kompetisi, menyulitkan keterbukaan akademis, dan mempersulit kemitraan pemerintah.

Kontrol ekspor dan aliansi (secara konseptual)

Kontrol ekspor paling baik dipahami sebagai alat untuk melambatkan difusi input kunci—terutama chip canggih dan peralatan manufaktur khusus—tanpa memutus semua perdagangan.

Aliansi penting karena rantai pasok bersifat internasional. Koordinasi dengan mitra dapat menyelaraskan standar, membagi beban keamanan, dan mengurangi 'kebocoran' di mana teknologi dibatasi dialihkan melalui negara ketiga. Jika dilakukan dengan hati-hati, aliansi juga dapat mempromosikan interoperabilitas dan harapan keselamatan bersama, alih-alih mengubah AI menjadi tumpukan regional yang terfragmentasi.

Pertanyaan praktis untuk strategi nasional adalah apakah itu memperkuat kapasitas inovasi jangka panjang sambil mencegah kompetisi mendorong penerapan yang gegabah.

Tata Kelola AI: Keselamatan, Akuntabilitas, dan Kebebasan Sipil

Ketika sistem AI membentuk perekrutan, pemberian pinjaman, triase medis, atau penegakan hukum, 'tata kelola' berhenti menjadi kata kunci dan menjadi pertanyaan praktis: siapa yang bertanggung jawab saat sistem gagal—dan bagaimana kita mencegah bahaya sebelum terjadi?

Alat utama tata kelola

Sebagian besar negara memadukan beberapa tuas daripada mengandalkan satu undang-undang:

  • Regulasi: aturan jelas untuk penggunaan berisiko tinggi (mis. ketika AI dapat menolak manfaat atau memicu investigasi).
  • Standar: persyaratan teknis dan proses bersama (dokumentasi, praktik keamanan, penanganan data) yang dapat diperbarui lebih cepat daripada legislatif.
  • Audit dan penilaian: tinjauan internal dan pemeriksaan pihak ketiga untuk memverifikasi klaim tentang kinerja, bias, dan keamanan.
  • Tanggung jawab hukum: menetapkan siapa yang bertanggung jawab saat terjadi kerugian—mendorong perusahaan berinvestasi pada desain yang lebih aman, pemantauan, dan mekanisme ganti rugi.

Kekhawatiran yang berulang: keadilan, transparansi, privasi

Tiga isu muncul di hampir setiap debat kebijakan:

  • Keadilan: model dapat mereproduksi hasil yang tidak setara, terutama ketika data pelatihan mencerminkan diskriminasi historis.
  • Transparansi: orang perlu penjelasan yang dapat dipahami tentang keputusan otomatis dan jalur banding.
  • Privasi: pengumpulan data skala besar dan pelatihan model dapat mengekspos informasi sensitif, bahkan tanpa bidang 'data pribadi' yang jelas.

Evaluasi penting—dan 'satu-ukuran-cocok-untuk-semua' cepat runtuh

Sistem AI sangat beragam: chatbot, alat diagnostik medis, dan sistem penargetan tidak membawa risiko yang sama. Itulah sebabnya tata kelola semakin menekankan evaluasi model (pengujian pra-penerapan, red-teaming, dan pemantauan berkelanjutan) yang terkait konteks.

Aturan umum seperti 'ungkapkan data pelatihan' mungkin layak untuk beberapa produk tetapi mustahil untuk lainnya karena keamanan, IP, atau keselamatan. Sebaliknya, tolok ukur keselamatan tunggal dapat menyesatkan jika tidak mencerminkan kondisi dunia nyata atau komunitas yang terdampak.

Suara independen bagian dari sistem keselamatan

Pemerintah dan industri tidak bisa menjadi wasit tunggal. Kelompok masyarakat sipil, peneliti akademis, dan laboratorium pengujian independen membantu mengungkap bahaya sejak dini, memvalidasi metode evaluasi, dan mewakili orang yang menanggung risiko. Membiayai akses ke komputasi, data, dan jalur pengujian aman sering sama pentingnya dengan menulis aturan baru.

Bekerja dengan Pemerintah: Manfaat dan Titik Gesekan

Ubah memo jadi pilot
Deploy dan host aplikasi Anda saat pilot perlu live, bukan terjebak di tiket.
Deploy Sekarang

Ketika AI menjadi prioritas publik, pemerintah tidak bisa membangun semuanya sendiri—dan industri tidak bisa menetapkan aturan sendirian. Hasil terbaik biasanya berasal dari kemitraan yang eksplisit tentang masalah yang diselesaikan dan batasan yang harus dihormati.

Seperti apa 'kemitraan efektif'

Kolaborasi yang dapat bekerja dimulai dengan tujuan yang jelas (mis. pengadaan komputasi aman lebih cepat untuk riset, alat pertahanan siber yang ditingkatkan, atau metode audit yang lebih baik untuk model berisiko tinggi) dan juga pembatas yang jelas. Pembatas sering mencakup persyaratan privasi-by-design, kontrol keamanan, standar evaluasi terdokumentasi, dan pengawasan independen. Tanpa itu, kemitraan melenceng menjadi usaha 'inovasi' yang kabur yang sulit diukur dan mudah dipolitisasi.

Manfaat: kecepatan, skala, dan pembelajaran bersama

Pemerintah membawa legitimasi, mandat, dan kemampuan mendanai pekerjaan jangka panjang yang mungkin tidak cepat membuahkan hasil. Industri membawa pengalaman rekayasa praktis, data operasional tentang kegagalan dunia nyata, dan kemampuan beriterasi. Universitas dan LSM sering melengkapi segitiga dengan penelitian terbuka, tolok ukur, dan saluran tenaga kerja.

Titik gesekan: insentif dan kepercayaan

Ketegangan terbesar adalah insentif. Perusahaan mungkin mendorong standar yang cocok dengan kekuatannya; lembaga mungkin memilih penawaran biaya terendah atau jadwal pendek yang merusak keselamatan dan pengujian. Masalah lain adalah 'pengadaan kotak hitam', di mana lembaga membeli sistem tanpa visibilitas memadai ke data pelatihan, batas model, atau kebijakan pembaruan.

Konflik kepentingan menjadi perhatian nyata, terutama ketika tokoh terkemuka menasehati pemerintah sambil mempertahankan hubungan dengan perusahaan, dana, atau dewan. Pengungkapan penting karena membantu publik—dan pembuat keputusan—membedakan keahlian dari kepentingan pribadi. Ini juga melindungi penasihat kredibel dari tuduhan yang dapat menggagalkan kerja berguna.

Koordinasi praktis yang benar-benar membantu

Kolaborasi cenderung berhasil saat konkret:

  • Program pendanaan dengan tonggak yang dapat dipublikasikan dan evaluasi independen
  • Infrastruktur bersama, seperti testbed aman, akses komputasi untuk peneliti yang disaring, dan alat audit standar
  • Program pelatihan untuk pegawai negeri (pengadaan, penilaian risiko, respons insiden) dan fellowship lintas-sektor

Mekanisme ini tidak menghilangkan perselisihan, tetapi membuat kemajuan terukur—dan memudahkan penegakan akuntabilitas.

Intisari dan Cara Menilai Klaim Strategi AI

Peralihan Eric Schmidt dari menskalakan pencarian konsumen ke memberi nasihat soal prioritas AI nasional menyoroti pergeseran sederhana: 'produk' bukan lagi hanya layanan—ia menjadi kapasitas, keamanan, dan kepercayaan publik. Itu membuat janji kabur mudah dijual dan sulit diverifikasi.

Pertanyaan untuk diajukan pada strategi AI apa pun

Gunakan ini sebagai saringan cepat saat mendengar rencana, white paper, atau pidato baru:

  • Apa tujuannya—secara spesifik? (mis. percepatan penerapan model untuk pemerintahan, pengadaan AI yang lebih aman, lebih banyak komputasi untuk riset)
  • Bagaimana keberhasilan akan diukur? Cari metrik konkret: waktu pengadaan, insiden keamanan, tingkat lulus evaluasi model, angka tenaga kerja.
  • Siapa yang mengawasinya—dan dengan otoritas apa? Dewan penasehat tanpa wewenang bukan pengawasan. Tanyakan apa yang bisa dihentikan, diaudit, atau diubah.
  • Apa jadwal dan urutannya? 'Visi lima tahun' bukanlah jadwal. Apa yang terjadi dalam 6, 12, dan 24 bulan?
  • Pertukaran apa yang diakui? Kecepatan vs. keselamatan, keterbukaan vs. keamanan, inovasi vs. privasi—strategi serius menyebutkan ketegangan.

Pelajaran dari lintasan Schmidt: skala, insentif, kepercayaan

Era pencarian mengajarkan bahwa skala memperbesar segala hal: manfaat, kesalahan, dan insentif. Diterapkan pada strategi AI nasional, itu menunjukkan:

  • Bangun sistem yang bisa tumbuh tanpa menurunkan standar (keamanan, evaluasi, disiplin pengadaan).
  • Selaraskan insentif sehingga lembaga dan vendor menang dengan memenuhi persyaratan keselamatan dan akuntabilitas yang jelas, bukan dengan mengirim tercepat.
  • Perlakukan kepercayaan sebagai hasil yang harus diperoleh—melalui audit, transparansi bila memungkinkan, dan mekanisme ganti rugi yang bermakna.

Kesimpulan seimbang

Strategi AI nasional dapat membuka peluang nyata: layanan publik yang lebih baik, kesiapan pertahanan yang lebih kuat, dan riset yang lebih kompetitif. Namun kekuatan dual-use yang sama menaikkan taruhannya. Klaim terbaik memadukan ambisi dengan pembatas yang bisa ditunjuk.

Bacaan lebih lanjut: jelajahi perspektif lain di /blog, dan primer praktis di /resources/ai-governance dan /resources/ai-safety.

Pertanyaan umum

Apa yang dimaksud 'strategi AI nasional' dalam istilah sederhana?

Strategi AI nasional adalah rencana terkoordinasi tentang bagaimana suatu negara akan mengembangkan, mengadopsi, dan mengatur AI untuk melayani tujuan publik. Dalam praktiknya biasanya mencakup:

  • Pendanaan untuk R&D (termasuk riset keselamatan)
  • Jalur talenta (pendidikan, visa, perekrutan sektor publik)
  • Akses komputasi dan chip
  • Standar, audit, dan aturan untuk penggunaan berisiko tinggi
  • Jalur pengadaan sehingga lembaga dapat membeli dan memperbarui AI dengan tanggung jawab
Mengapa Eric Schmidt relevan dalam percakapan kebijakan AI sekarang?

Karena pengaruhnya sekarang lebih sedikit soal produk konsumen dan lebih soal bagaimana pemerintah menerjemahkan kapabilitas AI menjadi kapasitas negara. Peran publiknya (terutama kerja penasehat dan komisi) berada di persimpangan inovasi, keamanan, tata kelola, dan kompetisi geopolitik—area di mana pembuat kebijakan butuh penjelasan operasional tentang apa yang bisa dan tidak bisa dilakukan AI.

Apa yang sebenarnya dilakukan komisi dan gugus tugas penasehat AI?

Badan penasehat biasanya tidak membuat undang-undang atau mengalokasikan dana, tetapi mereka dapat menetapkan playbook default yang diikuti pembuat kebijakan. Mereka sering menghasilkan:

  • Laporan publik yang mendefinisikan masalah dan urgensi
  • Rekomendasi siap-implementasi (struktur organisasi, langkah pengadaan, target pelatihan)
  • Kerangka kerja yang bisa dipakai ulang oleh lembaga
  • Briefing yang menerjemahkan realitas teknis ke bahasa kebijakan
Bagaimana Anda tahu apakah seorang penasehat kebijakan AI benar-benar berpengaruh?

Cari bukti bahwa ide berubah menjadi mekanisme yang dapat diulang, bukan sekadar headline:

  • Adopsi: rekomendasi muncul dalam perintah eksekutif, rencana lembaga, atau undang-undang
  • Sitasi: dirujuk dalam dengar pendapat, panduan resmi, atau audit
  • alokasi baru, program hibah, atau anggaran pengadaan yang selaras
Pelajaran apa dari menjalankan pencarian pada skala besar yang relevan untuk strategi AI nasional?

Pada skala besar, kegagalan langka menjadi kejadian yang sering. Itu sebabnya strategi perlu pengukuran dan operasional, bukan hanya prinsip:

  • Tolok ukur dan uji tekanan sebelum penerapan
  • Pemantauan dan respons insiden setelah penerapan
  • Proses rollback/update yang jelas
  • Audit berkelanjutan untuk drift, penyalahgunaan, dan masalah keamanan
Apa arti 'dual-use AI' dan mengapa penting untuk keamanan?

Dual-use berarti kapabilitas yang sama dapat memberi manfaat sipil dan memungkinkan penyalahgunaan. Misalnya, model yang membantu coding, perencanaan, atau menghasilkan teks dapat:

  • Menskalakan phishing dan operasi pengaruh
  • Membantu penemuan kerentanan dan variasi malware
  • Memungkinkan pengawasan atau penargetan bila dipasangkan dengan aliran data

Kebijakan cenderung fokus pada akses terkelola berisiko, pengujian, dan pemantauan, bukan asumsi pemisahan bersih antara AI sipil dan militer.

Mengapa pengadaan AI di pemerintahan begitu menantang?

Pengadaan tradisional mengasumsikan persyaratan stabil dan produk yang bergerak lambat. Sistem AI sering diperbarui, sehingga lembaga perlu cara untuk memverifikasi:

  • Apa yang dibeli (dokumentasi, klaim data pelatihan, batas kinerja)
  • Postur keamanan dan praktik penanganan data
  • Siapa bertanggung jawab saat terjadi kegagalan (vendor, integrator, lembaga)
  • Evaluasi berkelanjutan setelah penerapan, bukan hanya pada penerimaan awal
Mengapa chip dan komputasi sering muncul dalam banyak rencana nasional AI?

“Komputasi” (pusat data) dan chip canggih (GPU/akselerator) adalah kapasitas untuk melatih dan menjalankan model. Strategi sering menganggapnya sebagai infrastruktur kritis karena kekurangan atau gangguan rantai pasok dapat menghambat:

  • Pengembangan model frontier
  • Penerapan aman untuk lembaga pemerintah
  • Akses riset untuk universitas dan penguji independen
Apa saja alat utama yang digunakan pemerintah untuk mengatur AI dengan aman?

Alat tata kelola umum meliputi:

  • Regulasi untuk penggunaan berisiko tinggi
  • Standar yang dapat diperbarui lebih cepat daripada hukum (dokumentasi, praktik keamanan)
  • Audit/penilaian untuk memverifikasi klaim tentang kinerja, bias, dan ketahanan
  • Tanggung jawab hukum dan mekanisme ganti rugi

Pendekatannya biasanya : pemeriksaan lebih ketat di tempat dampak tertinggi.

Bagaimana pemerintah bisa bekerja dengan perusahaan AI tanpa kehilangan akuntabilitas?

Kemitraan dapat mempercepat penerapan dan meningkatkan keselamatan, tetapi membutuhkan pembatas:

  • Tujuan jelas, tonggak yang terukur, dan evaluasi independen
  • Pengungkapan dan pengelolaan konflik kepentingan
  • Menghindari 'pengadaan kotak hitam' tanpa visibilitas terhadap batas model dan kebijakan pembaruan
  • Infrastruktur bersama (testbed aman, alat audit, akses komputasi bagi peneliti terverifikasi)

Kolaborasi yang dirancang dengan baik menyeimbangkan inovasi dan akuntabilitas, bukan menyerahkan salah satunya.

Daftar isi
Mengapa Eric Schmidt Penting dalam Percakapan Kebijakan AIDari Eksekutif Teknologi ke Penjaga Teknologi: Latar SingkatPelajaran Era Pencarian tentang Data, Skala, dan KepercayaanApa yang Berubah Ketika AI Menjadi Prioritas NasionalPeran-Peran Penasehat dan Laporan Publik: Bagaimana Pengaruh TerjadiBlok Bangunan Utama Strategi AI NasionalAI, Keamanan Nasional, dan Teknologi Dual-UseGeopolitik dan Kompetisi: Dimensi AS–TiongkokTata Kelola AI: Keselamatan, Akuntabilitas, dan Kebebasan SipilBekerja dengan Pemerintah: Manfaat dan Titik GesekanIntisari dan Cara Menilai Klaim Strategi AIPertanyaan umum
Bagikan
Koder.ai
Buat aplikasi sendiri dengan Koder hari ini!

Cara terbaik untuk memahami kekuatan Koder adalah melihatnya sendiri.

Mulai GratisPesan Demo
Perubahan pendanaan:
  • Perubahan kelembagaan: pembentukan kantor, mandat, atau laporan berkala terkait rekomendasi
  • bertingkat risiko