Biografi ringkas Demis Hassabis—perjalanan dari game dan neurosains ke DeepMind, AlphaGo, dan AlphaFold—dan pelajaran yang diambil tentang AI modern.

Demis Hassabis adalah ilmuwan dan pengusaha asal Inggris yang paling dikenal sebagai salah satu pendiri DeepMind, lab riset di balik AlphaGo dan AlphaFold. Kerjanya penting karena membantu memindahkan AI dari “demo menarik” ke sistem yang dapat mengungguli pakar manusia pada tugas-tugas tertentu yang bernilai tinggi—dan kemudian menggunakan kembali ide-ide tersebut di domain yang sangat berbeda.
Saat orang mengatakan Hassabis membantu membuat AI “bersaing dengan manusia,” yang dimaksud biasanya adalah kinerja tugas: AI bisa menyamai atau melampaui manusia pada tujuan yang jelas, seperti memenangkan permainan kompleks atau memprediksi struktur protein. Itu bukanlah kecerdasan umum.
AlphaGo tidak memahami dunia sebagaimana manusia; ia belajar bermain Go dengan sangat baik. AlphaFold tidak “melakukan biologi”; ia memprediksi bentuk 3D protein dari urutan dengan akurasi luar biasa. Sistem-sistem ini sempit, tetapi dampaknya luas karena menunjukkan bagaimana metode berbasis pembelajaran dapat menangani masalah yang dulu dipandang memerlukan intuisi manusia yang unik.
Beberapa pencapaian penting membuat Hassabis dipandang sebagai sosok penentu:
Ini bukan kisah pahlawan atau artikel hype. Kita akan berpegang pada fakta yang jelas, menambahkan konteks agar terobosan itu masuk akal, dan menarik pelajaran praktis—cara berpikir tentang sistem pembelajaran, apa arti “setara manusia” sebenarnya, dan mengapa diskusi etika serta keselamatan muncul alami ketika AI mulai berperforma seperti ahli.
Jalan Hassabis ke AI tidak dimulai dari teori abstrak. Ia mulai dari permainan—dunia terstruktur tempat Anda bisa menguji ide, melakukan kesalahan dengan aman, dan mendapatkan umpan balik segera.
Sejak kecil, ia unggul dalam catur dan permainan strategi lainnya, membangun kenyamanan awal dengan perencanaan jangka panjang: Anda tidak hanya memilih “langkah yang bagus,” Anda memilih langkah yang membentuk permainan beberapa langkah ke depan. Kebiasaan itu—berpikir dalam urutan, bukan tindakan tunggal—sangat berhubungan dengan bagaimana sistem AI modern belajar membuat keputusan dari waktu ke waktu.
Permainan kompetitif memaksa disiplin tertentu:
Itu adalah keterampilan praktis, bukan slogan. Pemain kuat terus bertanya: Apa opsi yang tersedia? Apa kemungkinan langkah lawan berikutnya? Berapa biaya jika salah?
Hassabis juga menghabiskan waktu membangun permainan, bukan hanya memainkannya. Bekerja di pengembangan game berarti menangani banyak bagian yang saling berinteraksi sekaligus: aturan, insentif, batas waktu, kurva kesulitan, dan bagaimana perubahan kecil merambat melalui keseluruhan pengalaman.
Itulah “berpikir sistem” secara konkret—memperlakukan performa sebagai hasil dari keseluruhan pengaturan, bukan trik tunggal. Perilaku game muncul dari bagaimana komponennya saling cocok. Nanti, pola pikir yang sama muncul dalam riset AI: kemajuan sering bergantung pada kombinasi tepat data, metode pelatihan, daya komputasi, evaluasi, dan tujuan yang jelas.
Fondasi awal ini—permainan strategis dan membangun lingkungan berbasis aturan yang kompleks—membantu menjelaskan mengapa karya berikutnya menekankan pembelajaran lewat interaksi dan umpan balik, daripada hanya bergantung pada instruksi yang ditulis tangan.
Hassabis tidak memandang neurosains sebagai jalan memutar dari AI. Ia memandangnya sebagai cara untuk mengajukan pertanyaan yang lebih baik: Apa arti belajar dari pengalaman? Bagaimana kita menyimpan pengetahuan berguna tanpa menghafal semuanya? Bagaimana kita memutuskan apa yang harus dilakukan selanjutnya ketika masa depan tidak pasti?
Secara sederhana, belajar adalah memperbarui perilaku berdasarkan umpan balik. Seorang anak menyentuh cangkir panas sekali dan menjadi lebih berhati-hati. Sistem AI dapat melakukan hal serupa: mencoba aksi, melihat hasil, dan menyesuaikan.
Memori adalah menyimpan informasi yang membantu di kemudian hari. Manusia tidak merekam hidup seperti video; kita menyimpan pola dan petunjuk. Untuk AI, memori bisa berarti menyimpan pengalaman masa lalu, membangun ringkasan internal, atau mengompresi informasi sehingga bisa digunakan ketika situasi baru muncul.
Perencanaan adalah memilih aksi dengan membayangkan ke depan. Saat Anda memilih rute untuk menghindari macet, Anda membayangkan kemungkinan hasil. Dalam AI, perencanaan sering berarti mensimulasikan “apa yang mungkin terjadi jika…” dan memilih opsi yang tampak terbaik.
Mempelajari otak dapat menyarankan masalah yang layak dipecahkan—seperti belajar efisien dari data terbatas, atau menyeimbangkan reaksi cepat dengan pemikiran hati-hati. Tapi penting untuk tidak melebihkan hubungan: jaringan saraf modern bukan otak, dan meniru biologi bukan tujuan akhir.
Nilainya pragmatis. Neurosains menawarkan petunjuk tentang kemampuan yang dibutuhkan kecerdasan (mengenali pola, beradaptasi, bernalar di bawah ketidakpastian), sementara ilmu komputer mengubah petunjuk itu menjadi metode yang dapat diuji.
Latar belakang Hassabis menunjukkan bagaimana mencampur bidang dapat menciptakan leverage. Neurosains mendorong rasa ingin tahu tentang kecerdasan alami; riset AI menuntut membangun sistem yang dapat diukur, ditingkatkan, dan dibandingkan. Bersama-sama, mereka mendorong peneliti menghubungkan ide besar—seperti penalaran dan memori—ke eksperimen konkret yang benar-benar bekerja.
DeepMind dimulai dengan tujuan yang jelas dan tidak biasa: bukan membuat satu aplikasi pintar, melainkan menciptakan sistem pembelajaran umum—perangkat lunak yang bisa belajar menyelesaikan banyak masalah dengan terus meningkat lewat pengalaman.
Ambisi itu membentuk segala hal tentang perusahaan. Alih-alih bertanya “Fitur apa yang bisa kita rilis bulan depan?”, pertanyaan pendiri lebih mirip “Jenis mesin pembelajaran apa yang bisa terus menjadi lebih baik, bahkan dalam situasi yang belum pernah dilihat sebelumnya?”
DeepMind diorganisir lebih mirip lab akademik daripada startup perangkat lunak biasa. Outputnya bukan hanya produk—tetapi juga temuan riset, hasil eksperimen, dan metode yang bisa diuji serta dibandingkan.
Perusahaan perangkat lunak tipikal sering mengoptimalkan untuk pengiriman: user story, iterasi cepat, milestone pendapatan, dan perbaikan inkremental.
DeepMind mengoptimalkan untuk penemuan: waktu untuk eksperimen yang mungkin gagal, penyelaman mendalam ke masalah sulit, dan tim yang dibangun sekitar pertanyaan jangka panjang. Bukan berarti mengabaikan kualitas engineering—melainkan engineering melayani kemajuan riset, bukan sebaliknya.
Taruhan besar bisa menjadi samar kecuali diikat pada tujuan terukur. DeepMind biasa memilih benchmark yang publik, sulit, dan mudah dievaluasi—terutama game dan simulasi di mana keberhasilan tidak ambigu.
Ini menciptakan ritme riset yang praktis:
Saat pekerjaan mendapat perhatian, DeepMind menjadi bagian dari ekosistem yang lebih besar. Pada 2014, Google mengakuisisi DeepMind, menyediakan sumber daya dan skala komputasi yang sulit ditandingi secara mandiri.
Yang penting, budaya pendiri—ambisi tinggi dipasangkan dengan pengukuran ketat—tetap sentral. Identitas awal DeepMind bukanlah “perusahaan yang membuat alat AI,” melainkan “tempat yang mencoba memahami bagaimana membangun pembelajaran itu sendiri.”
Pembelajaran penguatan adalah cara bagi AI untuk belajar dengan melakukan, bukan dengan diberi “jawaban benar” untuk setiap situasi.
Bayangkan mengajari seseorang menembak lemparan bebas. Anda tidak memberinya spreadsheet sudut lengan yang sempurna untuk setiap situasi. Anda membiarkannya mencoba, melihat hasil, dan memberi umpan balik sederhana: “Itu lebih dekat,” “Itu meleset jauh,” “Lakukan lebih banyak hal yang berhasil itu.” Seiring waktu, ia menyesuaikan.
Pembelajaran penguatan bekerja serupa. AI mengambil aksi, melihat apa yang terjadi, dan menerima skor (sebuah “reward”) yang memberi sinyal seberapa baik hasil itu. Tujuannya adalah memilih aksi yang menghasilkan total reward lebih tinggi dari waktu ke waktu.
Ide kuncinya adalah coba dan salah + umpan balik. Kedengarannya lambat—sampai Anda menyadari cobaannya bisa diotomasi.
Seseorang mungkin berlatih 200 tembakan di sore hari. AI dapat berlatih jutaan “tembakan” di lingkungan simulasi, mempelajari pola yang membutuhkan manusia bertahun-tahun untuk menemukannya. Inilah salah satu alasan pembelajaran penguatan menjadi pusat AI pemain game: game memiliki aturan jelas, umpan balik cepat, dan cara objektif untuk memberi skor keberhasilan.
Banyak sistem AI membutuhkan data berlabel (contoh dengan jawaban benar). Pembelajaran penguatan dapat mengurangi ketergantungan itu dengan menghasilkan pengalamannya sendiri.
Dengan simulasi, AI bisa berlatih di “arena latihan” yang aman dan cepat. Dengan self-play, ia bermain melawan salinan dirinya, terus menemui lawan yang semakin tangguh seiring perbaikan. Alih-alih mengandalkan manusia memberi label, AI menciptakan kurikulum pelatihan melalui kompetisi dan iterasi.
Pembelajaran penguatan bukanlah sulap. Seringkali membutuhkan jumlah pengalaman yang sangat besar (data), komputasi mahal, dan evaluasi yang cermat—AI bisa “menang” dalam pelatihan tapi gagal dalam kondisi sedikit berbeda.
Ada juga risiko keselamatan: mengoptimalkan reward yang salah dapat menghasilkan perilaku yang tidak diinginkan, terutama di setting berdampak tinggi. Menetapkan tujuan dan pengujian yang benar sama pentingnya dengan proses pembelajaran itu sendiri.
Pertandingan AlphaGo pada 2016 melawan Lee Sedol menjadi titik balik budaya karena Go lama dianggap sebagai “benteng terakhir” bagi komputer. Catur kompleks, tetapi Go jauh lebih luas: ada lebih banyak posisi papan yang mungkin, dan langkah baik sering bergantung pada pengaruh jangka panjang dan intuisi pola daripada taktik langsung.
Pendekatan brute-force—mencoba menghitung setiap kemungkinan masa depan—bertemu ledakan kombinatorial. Bahkan pemain Go kuat tidak bisa menjelaskan setiap pilihan sebagai urutan perhitungan rapi; banyak di antaranya adalah penilaian yang dibangun dari pengalaman. Itu membuat Go kurang cocok untuk program game generasi sebelumnya yang bergantung pada aturan buatan tangan.
AlphaGo tidak “hanya menghitung,” dan tidak “hanya belajar.” Ia menggabungkan keduanya. Ia menggunakan jaringan saraf yang dilatih pada permainan manusia (dan kemudian pada self-play) untuk mengembangkan rasa langkah yang menjanjikan. Lalu ia menggunakan pencarian terfokus untuk mengeksplorasi variasi, dipandu oleh insting yang dipelajari. Bayangkan ini sebagai menggabungkan intuisi (pola yang dipelajari) dengan deliberasi (melihat ke depan), daripada mengandalkan salah satu saja.
Kemenangan itu menunjukkan bahwa sistem pembelajaran mesin bisa menguasai domain yang memberi penghargaan pada kreativitas, perencanaan jangka panjang, dan pertukaran halus—tanpa meminta manusia mengode strategi Go secara manual.
Itu tidak berarti AlphaGo memiliki kecerdasan umum. Ia tidak bisa mentransfer keterampilannya ke masalah tak terkait, menjelaskan penalarannya seperti manusia, atau memahami Go sebagai praktik budaya manusia. Ia luar biasa pada satu tugas.
Minat publik melonjak, tetapi dampak yang lebih dalam terjadi di dalam riset. Pertandingan itu memvalidasi jalur: menggabungkan pembelajaran skala besar, peningkatan melalui latihan, dan pencarian sebagai resep praktis untuk mencapai (dan melampaui) performa manusia elit di lingkungan kompleks.
Kemenangan headline bisa membuat AI terasa “terpecahkan,” tetapi kebanyakan sistem yang bersinar di satu setting gagal ketika aturan bergeser. Cerita yang lebih berarti setelah terobosan adalah dorongan dari solusi sempit yang dibuat khusus menuju metode yang menggeneralisasi.
Dalam AI, generalisasi adalah kemampuan berperforma baik pada situasi baru yang tidak dilatih secara spesifik. Ini beda antara menghafal satu ujian dan benar-benar memahami mata pelajaran.
Sistem yang hanya menang dalam satu set kondisi—aturan sama, lawan sama, lingkungan sama—masih bisa sangat rapuh. Generalisasi menanyakan: jika kita mengubah kendala, dapatkah sistem beradaptasi tanpa memulai dari awal?
Para peneliti berusaha merancang pendekatan pembelajaran yang dapat ditransfer antar tugas, bukan merekayasa “trik” terpisah untuk masing-masing. Contoh praktis meliputi:
Intinya bukan bahwa satu model harus segera melakukan segalanya. Melainkan kemajuan diukur dari seberapa banyak solusi yang dapat digunakan ulang.
Benchmark adalah “tes standar” AI: mereka memungkinkan tim membandingkan hasil, melacak peningkatan, dan mengidentifikasi apa yang bekerja. Mereka penting untuk kemajuan ilmiah.
Namun benchmark bisa menyesatkan bila menjadi tujuan alih-alih ukuran. Model bisa “overfit” pada keanehan benchmark, atau menang dengan mengeksploitasi celah yang tidak mencerminkan pemahaman dunia nyata.
“Setara manusia” biasanya berarti menyamai manusia pada metrik tertentu di setting tertentu—bukan memiliki fleksibilitas manusia, penilaian, atau akal sehat umum. Sistem bisa mengungguli ahli dalam aturan sempit dan masih kesulitan saat lingkungan berubah.
Pelajaran nyata setelah kemenangan yang dirayakan adalah disiplin riset yang mengikuti: menguji pada variasi lebih sulit, mengukur transfer, dan membuktikan metode skalanya melampaui satu tahap.
Protein adalah “mesin kecil” di dalam makhluk hidup. Mereka dimulai sebagai rantai panjang blok penyusun (asam amino), lalu rantai itu melipat menjadi bentuk 3D tertentu—seperti selembar kertas yang dilipat menjadi origami.
Bentuk akhir penting karena menentukan apa yang bisa dilakukan protein: membawa oksigen, melawan infeksi, mengirim sinyal, atau membangun jaringan. Tantangannya adalah rantai protein bisa membengkok dalam jumlah kemungkinan yang luar biasa, dan bentuk yang tepat sulit ditebak hanya dari urutan. Bertahun-tahun, ilmuwan sering membutuhkan metode lab yang lambat dan mahal untuk menentukan struktur.
Mengetahui struktur protein seperti memiliki peta rinci daripada sekadar nama jalan. Itu membantu peneliti untuk:
Ini penting bahkan ketika tidak langsung menerjemahkannya menjadi produk: ia memperbaiki fondasi yang banyak studi hilir andalkan.
AlphaFold menunjukkan bahwa pembelajaran mesin bisa memprediksi banyak struktur protein dengan akurasi mencolok, sering mendekati apa yang teknik laboratorium ungkapkan. Kontribusi utamanya bukanlah “menyelesaikan biologi,” melainkan membuat tebakan struktural jauh lebih dapat diandalkan dan dapat diakses—mengubah hambatan besar menjadi sesuatu yang peneliti bisa tangani lebih awal dalam proyek.
Penting memisahkan percepatan ilmiah dari obat siap pakai. Memprediksi struktur bukan sama dengan menghasilkan obat yang aman. Penemuan obat masih memerlukan validasi target, pengujian molekul, memahami efek samping, dan uji klinis. Dampak AlphaFold paling baik dijelaskan sebagai memungkinkan dan mempercepat riset—memberi titik awal yang lebih baik—bukan langsung menghadirkan perawatan.
Karya Hassabis sering digambarkan lewat momen headline seperti AlphaGo atau AlphaFold, tetapi pelajaran yang lebih dapat dipindahkan adalah bagaimana DeepMind mengarahkan usahanya: loop yang ketat antara tujuan yang jelas, pengukuran, dan iterasi tanpa henti.
Proyek AI terobosan di DeepMind biasanya dimulai dengan target yang tajam (“selesaikan kelas tugas ini”) dan papan skor yang jujur. Papan skor itu penting karena mencegah tim mengira demo mengesankan sebagai kemampuan nyata.
Setelah evaluasi ditetapkan, pekerjaan menjadi iteratif: bangun, uji, pelajari apa yang gagal, sesuaikan pendekatan, ulangi. Hanya setelah loop itu berjalan baik Anda menskalakan—lebih banyak data, lebih banyak komputasi, lebih banyak waktu pelatihan, dan sering model yang lebih besar serta dirancang lebih baik. Skalasi terlalu dini hanya mempercepat kebingungan.
Banyak sistem AI sebelumnya bergantung pada orang menulis aturan eksplisit (“jika X, maka lakukan Y”). Keberhasilan DeepMind menyoroti keunggulan representasi yang dipelajari: sistem menemukan pola dan abstraksi berguna langsung dari pengalaman.
Itu penting karena masalah nyata memiliki kasus tepi yang berantakan. Aturan cenderung runtuh saat kompleksitas meningkat, sementara representasi yang dipelajari bisa menggeneralisasi—terutama ketika dipasangkan dengan sinyal pelatihan kuat dan evaluasi cermat.
Ciri khas gaya DeepMind adalah kerja tim lintas-disiplin. Teori mengarahkan apa yang mungkin berhasil, engineering memungkinkan pelatihan pada skala, dan eksperimen menjaga semuanya jujur. Budaya riset menghargai bukti: ketika hasil bertentangan dengan intuisi, tim mengikuti data.
Jika Anda menerapkan AI di produk, intinya kurang “salin model” dan lebih “salin metodenya”:\n\n- Definisikan keberhasilan dengan satu atau dua metrik yang terkait nilai pengguna.\n- Bangun harness pengujian sejak awal (dataset, simulasi, evaluasi offline) sehingga kemajuan terukur.\n- Iterasi cepat pada versi kecil sebelum berinvestasi pada pelatihan skala besar.\n- Perlakukan kualitas data dan loop umpan balik sebagai pekerjaan engineering kelas satu, bukan pemikiran belakangan.
Jika tujuan Anda adalah mengubah prinsip ini menjadi alat internal dengan cepat (tanpa membangun seluruh pipeline engineering terlebih dahulu), sebuah platform vibe-coding seperti Koder.ai bisa membantu Anda membuat prototipe dan mengirim lebih cepat: Anda dapat mendeskripsikan aplikasi lewat chat, menghasilkan UI web React, menambahkan backend Go dengan PostgreSQL, dan beriterasi dengan mode perencanaan, snapshot, dan rollback. Untuk tim, ekspor kode sumber dan opsi deployment/hosting memudahkan berpindah dari “prototipe bekerja” ke “kode produksi yang dapat dimiliki” tanpa mengunci tetap di sebuah demo.
Ketika sistem AI mulai menyamai atau melampaui manusia pada tugas tertentu, percakapan bergeser dari “Bisakah kita membangunnya?” ke “Haruskah kita menerapkannya, dan bagaimana?” Kemampuan yang sama yang membuat AI berharga—kecepatan, skala, dan otonomi—juga dapat membuat kesalahan atau penyalahgunaan menjadi lebih berdampak.
Model yang lebih mampu dapat dipakai ulang dengan cara yang penciptanya tidak maksudkan: menghasilkan disinformasi persuasif, membantu mengotomasi penyalahgunaan siber, atau mempercepat pengambilan keputusan berbahaya pada skala. Bahkan tanpa niat jahat, kegagalan bisa lebih berarti—saran medis yang salah, filter rekrutmen bias, atau ringkasan terlalu percaya diri yang disajikan sebagai fakta.
Bagi organisasi yang membangun sistem perbatasan, keselamatan juga isu praktis: hilangnya kepercayaan, eksposur regulasi, dan bahaya dunia nyata dapat merusak kemajuan sama kerasnya dengan batasan teknis.
Pengembangan bertanggung jawab sering menekankan bukti dibandingkan hype:\n\n- Pengujian pra-rilis dengan red-teaming (upaya terstruktur untuk menjebol sistem) dan evaluasi berbasis skenario.\n- Batasan penggunaan yang jelas: untuk apa sistem ini, untuk apa bukan, dan di mana manusia harus tetap terlibat.\n- Pemantauan setelah peluncuran, karena pengguna nyata menemukan kasus tepi yang sering terlewat di lab.\n- Dokumentasi yang menjelaskan keterbatasan yang diketahui, risiko data, dan konteks yang sesuai.
Tidak ada satu pun langkah ini yang menjamin keselamatan, tetapi bersama-sama mereka mengurangi kemungkinan perilaku paling mengejutkan model ditemukan di ruang publik.
Ada ketegangan nyata antara ilmu terbuka dan manajemen risiko. Mempublikasikan metode dan merilis bobot model dapat mempercepat riset dan transparansi, tetapi juga menurunkan hambatan bagi aktor jahat. Bergerak cepat dapat memberi keunggulan kompetitif, namun terburu-buru dapat memperlebar jurang antara kemampuan dan kendali.
Pendekatan yang matang adalah menyesuaikan keputusan rilis dengan potensi dampak: semakin besar taruhannya, semakin kuat alasan untuk peluncuran bertahap, evaluasi independen, dan akses yang lebih sempit—setidaknya sampai risikonya lebih dipahami.
Tonggak Hassabis—budaya riset-pertama DeepMind, loncatan AlphaGo dalam pengambilan keputusan, dan dampak AlphaFold pada biologi—secara kolektif mengarah pada satu pergeseran besar: AI menjadi alat pemecah masalah serba guna ketika Anda bisa mendefinisikan tujuan yang jelas, menyediakan umpan balik, dan menskalakan pembelajaran.
Yang tak kalah penting, kemenangan ini menunjukkan pola. Terobosan cenderung terjadi ketika metode pembelajaran kuat bertemu lingkungan yang dirancang dengan baik (game, simulasi, benchmark) dan ketika hasil diuji dengan ukuran keberhasilan publik yang tak kenal ampun.
AI modern unggul dalam pengenalan pola dan “pencarian” ruang solusi jauh lebih cepat daripada manusia—terutama di area dengan banyak data, aturan berulang, atau skor yang dapat diukur. Itu termasuk prediksi struktur protein, tugas gambar dan suara, dan mengoptimalkan sistem kompleks di mana Anda dapat menjalankan banyak uji coba.
Dalam istilah sehari-hari: AI hebat untuk mempersempit opsi, menemukan struktur tersembunyi, dan menyusun keluaran dengan cepat.
Bahkan sistem mengesankan bisa rapuh di luar kondisi pelatihan. Mereka mungkin kesulitan dengan:\n\n- Penalaran jelas di bawah ketidakpastian ketika tujuan tidak mudah diukur\n- Perencanaan horizon panjang di lingkungan dunia nyata yang berantakan\n- Pemahaman sebab-akibat sejati (bukan hanya korelasi)\n- Keandalan, transparansi, dan penyelarasan dengan niat manusia
Itulah mengapa “lebih besar” tidak otomatis berarti “lebih aman” atau “lebih pintar” dalam cara orang harapkan.
Jika Anda ingin mendalami, fokus pada ide yang menghubungkan tonggak-tonggak ini: pembelajaran berbasis umpan balik, evaluasi, dan penerapan yang bertanggung jawab.
Jelajahi lebih banyak penjelasan dan studi kasus di /blog.
Jika Anda mengeksplorasi bagaimana AI dapat mendukung tim Anda (atau ingin memeriksa ekspektasi secara realistis), bandingkan opsi di /pricing.
Punya use case spesifik, atau pertanyaan tentang adopsi aman dan realistis? Hubungi via /contact.
Demis Hassabis adalah ilmuwan dan pengusaha asal Inggris yang ikut mendirikan DeepMind. Ia terkait erat dengan terobosan AI seperti AlphaGo (pemain game) dan AlphaFold (prediksi struktur protein), yang menunjukkan bahwa sistem berbasis pembelajaran dapat mencapai atau melampaui performa ahli manusia pada tugas-tugas tertentu yang terdefinisi dengan jelas.
Biasanya itu berarti kinerja pada tugas tertentu yang dibenchmark (mis. memenangkan pertandingan Go atau memprediksi struktur protein dengan akurat).
Itu tidak berarti sistem tersebut memiliki akal sehat luas, dapat memindahkan keterampilan antar domain dengan mudah, atau “memahami” dunia seperti manusia.
DeepMind dibangun sebagai laboratorium riset terlebih dahulu, fokus pada kemajuan jangka panjang dalam sistem pembelajaran umum, bukan meluncurkan satu aplikasi.
Secara praktis, itu berarti:
Pembelajaran penguatan (reinforcement learning) adalah pembelajaran lewat coba dan salah menggunakan sinyal skor (“reward”). Alih-alih diberi jawaban benar untuk setiap situasi, sistem mengambil aksi, mengamati hasil, dan memperbarui perilakunya untuk meningkatkan reward jangka panjang.
Ini sangat berguna ketika:
Self-play berarti sistem berlatih melawan salinan dirinya sendiri, menghasilkan pengalaman pelatihan tanpa perlu manusia memberi label contoh.
Ini membantu karena:
Go memiliki jumlah posisi yang sangat besar, membuat pendekatan brute-force tidak praktis. AlphaGo berhasil dengan menggabungkan:
Kombinasi ini menunjukkan resep praktis untuk performa tingkat atas di lingkungan keputusan kompleks—tanpa strategi Go yang ditulis tangan.
Generalization berarti berperforma baik di kondisi baru yang tidak Anda latih—perubahan aturan, skenario baru, atau distribusi berbeda.
Cara praktis mengujinya:
Benchmark memberi papan skor bersama, tapi model bisa overfit pada kekhasan tes.
Untuk menghindari jebakan:
Anggap benchmark sebagai alat pengukuran, bukan tujuan akhir.
AlphaFold memprediksi bentuk 3D protein dari urutan asam amino dengan akurasi tinggi untuk banyak protein.
Itu penting karena struktur membantu peneliti untuk:
AlphaFold mempercepat riset dengan memberikan titik awal yang lebih baik, tapi bukan berarti langsung menghasilkan obat jadi—penemuan obat masih membutuhkan validasi dan uji klinis panjang.
Mulailah meniru metodenya, bukan model headline:
Jika sistem berdampak tinggi, tambahkan pengujian terstruktur (red-teaming), batasan penggunaan yang jelas, dan peluncuran bertahap.