Pelajari bagaimana model kausal Judea Pearl membantu tim menjelaskan perilaku AI, memperbaiki bug, dan membuat keputusan produk yang lebih jelas—melampaui sekadar korelasi.

Sebuah tim melihat sesuatu yang “jelas” di dashboard mereka: pengguna yang menerima lebih banyak notifikasi kembali lebih sering. Jadi mereka menaikkan volume notifikasi. Seminggu kemudian, retensi turun dan keluhan churn naik. Apa yang terjadi?
Polanya nyata—tetapi menyesatkan. Pengguna yang paling terlibat secara alami memicu lebih banyak notifikasi (karena mereka menggunakan produk lebih sering), dan mereka juga secara alami kembali lebih sering. Notifikasi tidak menyebabkan retensi; keterlibatan menyebabkan keduanya. Tim bertindak berdasarkan korelasi dan tanpa sengaja menciptakan pengalaman yang lebih buruk.
Pemikiran kausal adalah kebiasaan bertanya: apa yang menyebabkan apa, dan bagaimana kita tahu? Alih-alih berhenti pada “kedua hal ini bergerak bersama,” Anda mencoba memisahkan:
Ini bukan tentang skeptisisme terhadap data—melainkan tentang bersikap spesifik pada pertanyaannya. “Apakah notifikasi berkorelasi dengan retensi?” berbeda dari “Apakah mengirim lebih banyak notifikasi akan meningkatkan retensi?” Pertanyaan kedua adalah kausal.
Tulisan ini fokus pada tiga area praktis di mana pencarian pola sering gagal:
Ini bukan tur inferensi kausal yang berat matematika. Anda tidak perlu mempelajari notasi do-calculus untuk mendapat nilai di sini. Tujuannya adalah seperangkat model mental dan alur kerja yang bisa digunakan tim Anda untuk:
Jika Anda pernah mengirim perubahan yang “terlihat bagus di data” tetapi tidak bekerja di dunia nyata, pemikiran kausal adalah tautan yang hilang.
Judea Pearl adalah ilmuwan komputer dan filsuf sains yang karyanya membentuk ulang cara banyak tim memandang data, AI, dan pengambilan keputusan. Sebelum revolusi kausalnya, banyak praktik “belajar dari data” di bidang komputasi fokus pada asosiasi statistik: menemukan pola, memasang model, memprediksi apa yang terjadi selanjutnya. Pendekatan ini kuat—tetapi sering runtuh ketika Anda mengajukan pertanyaan produk atau teknik yang mengandung kata karena.
Perubahan inti Pearl adalah memperlakukan kausalitas sebagai konsep kelas pertama, bukan intuisi samar di atas korelasi. Alih-alih hanya bertanya, “Ketika X tinggi, apakah Y juga tinggi?”, pemikiran kausal bertanya, “Jika kita mengubah X, apakah Y akan berubah?” Perbedaan ini terdengar kecil, tetapi memisahkan prediksi dari pengambilan keputusan.
Asosiasi menjawab “apa yang cenderung terjadi bersamaan.” Kausalitas bertujuan menjawab “apa yang akan terjadi jika kita campur tangan.” Ini penting dalam komputasi karena banyak keputusan nyata adalah intervensi: mengirim fitur, mengubah peringkat, menambah pengaman, mengubah set pelatihan, atau menyesuaikan kebijakan.
Pearl membuat kausalitas lebih praktis dengan membingkainya sebagai pilihan pemodelan ditambah asumsi eksplisit. Anda tidak “menemukan” kausalitas secara otomatis dari data secara umum; Anda mengusulkan sebuah cerita kausal (sering berdasarkan pengetahuan domain) dan kemudian menggunakan data untuk menguji, mengestimasi, dan menyempurnakannya.
Alat-alat ini memberi tim bahasa bersama untuk bergerak dari pencarian pola ke menjawab pertanyaan kausal dengan ketegasan dan disiplin.
Korelasi berarti dua hal bergerak bersama: ketika satu naik, yang lain cenderung naik (atau turun). Ini sangat berguna—terutama di tim yang berat data—karena membantu dengan prediksi dan deteksi.
Jika penjualan es krim melonjak saat suhu naik, sinyal terkorrelasi (suhu) dapat meningkatkan peramalan. Dalam pekerjaan produk dan AI, korelasi menggerakkan model peringkat (“tampilkan lebih banyak apa yang diklik pengguna serupa”), deteksi anomali (“metrik ini biasanya mengikuti metrik itu”), dan diagnostik cepat (“error naik saat latensi naik”).
Masalah muncul ketika kita memperlakukan korelasi sebagai jawaban untuk pertanyaan berbeda: apa yang terjadi jika kita mengubah sesuatu dengan sengaja? Itu adalah kausalitas.
Hubungan terkorrelasi mungkin didorong oleh faktor ketiga yang memengaruhi kedua variabel. Mengubah X tidak selalu mengubah Y—karena X mungkin bukan alasan Y bergerak pada awalnya.
Bayangkan Anda memplot belanja pemasaran mingguan terhadap penjualan mingguan dan melihat korelasi positif kuat. Mudah untuk menyimpulkan “lebih banyak belanja menyebabkan lebih banyak penjualan.”
Tetapi anggaplah keduanya naik selama musim liburan. Musim (sebagai konfounder) mendorong permintaan lebih tinggi dan juga memicu anggaran lebih besar. Jika Anda menaikkan belanja pada minggu non-liburan, penjualan mungkin tidak naik banyak—karena permintaan mendasar tidak ada.
Anda berada di wilayah kausal ketika Anda mendengar diri Anda bertanya:
Saat kata kerja adalah mengubah, meluncurkan, menghapus, atau mengurangi, korelasi adalah petunjuk awal—bukan aturan keputusan.
Diagram kausal—sering digambar sebagai DAG (Directed Acyclic Graph)—adalah cara sederhana untuk membuat asumsi tim terlihat. Alih-alih berdebat secara samar (“mungkin modelnya” atau “mungkin UI”), Anda letakkan ceritanya di papan.
Tujuannya bukan kebenaran sempurna; melainkan draf bersama tentang “bagaimana kami kira sistem bekerja” yang bisa dikritik.
Misalkan Anda menilai apakah tutorial onboarding baru (T) meningkatkan aktivasi (A).
Refleks analitik umum adalah “kontrol untuk semua variabel yang tersedia.” Dalam istilah DAG, itu bisa berarti secara tidak sengaja menyesuaikan untuk:
Dengan DAG, Anda menyesuaikan variabel dengan alasan—biasanya untuk memblok jalur konfounding—bukan karena variabel itu ada.
Mulai dengan papan tulis dan tiga langkah:
Bahkan DAG kasar menyelaraskan produk, data, dan engineering pada pertanyaan kausal yang sama sebelum Anda menjalankan angka.
Perubahan besar dalam pemikiran kausal Judea Pearl adalah memisahkan mengamati sesuatu dari mengubahnya.
Jika Anda mengamati bahwa pengguna yang mengaktifkan notifikasi mempertahankan lebih baik, Anda telah mempelajari pola. Tetapi Anda masih belum tahu apakah notifikasi menyebabkan retensi, atau apakah pengguna yang terlibat hanya lebih cenderung menyalakan notifikasi.
Sebuah intervensi berbeda: itu berarti Anda secara aktif menetapkan sebuah variabel ke nilai tertentu dan melihat apa yang terjadi selanjutnya. Dalam istilah produk, itu bukan “pengguna memilih X,” melainkan “kami mengirimkan X.”
Pearl sering memberi label perbedaan ini sebagai:
Ide “do” pada dasarnya adalah catatan mental bahwa Anda memutus alasan biasa sebuah variabel mengambil nilai. Saat Anda campur tangan, notifikasi ON bukan karena pengguna yang terlibat memilihnya; notifikasi ON karena Anda memaksa atau mendorong pengaturan tersebut. Intervensi membantu mengisolasi sebab-akibat.
Sebagian besar pekerjaan produk nyata berbentuk intervensi:
Tindakan-tindakan ini bertujuan untuk mengubah hasil, bukan hanya menggambarkannya. Pemikiran kausal menjaga pertanyaan tetap jujur: “Jika kita melakukan ini, apa yang akan berubah?”
Anda tidak bisa menginterpretasikan sebuah intervensi (atau bahkan merancang eksperimen yang baik) tanpa asumsi tentang apa yang memengaruhi apa—diagram kausal Anda, meskipun informal. Misalnya, jika musim memengaruhi baik belanja pemasaran maupun pendaftaran, maka “melakukan” perubahan belanja tanpa memperhitungkan musim masih bisa menyesatkan. Intervensi kuat, tetapi hanya menjawab pertanyaan kausal ketika cerita kausal dasar setidaknya cukup tepat.
Kontrafaktual adalah jenis pertanyaan “bagaimana jika?” yang khusus: untuk kasus ini, apa yang akan terjadi jika kita melakukan tindakan berbeda (atau jika satu input berbeda)? Ini bukan “apa yang terjadi rata-rata?”—melainkan “apakah hasil ini akan berubah untuk orang ini, tiket ini, transaksi ini?”
Kontrafaktual muncul saat seseorang meminta jalan menuju hasil yang berbeda:
Pertanyaan-pertanyaan ini bersifat tingkat pengguna. Mereka juga cukup konkret untuk memandu perubahan produk, kebijakan, dan penjelasan.
Bayangkan model pinjaman yang menolak suatu aplikasi. Penjelasan berbasis korelasi mungkin mengatakan, “Tabungan rendah berkorelasi dengan penolakan.” Sebuah kontrafaktual bertanya:
Jika tabungan pemohon $3.000 lebih tinggi (semua hal lain sama), apakah model akan menyetujuinya?
Jika jawabannya “ya,” Anda mempelajari sesuatu yang dapat ditindaklanjuti: perubahan yang masuk akal dapat membalik keputusan. Jika jawabannya “tidak,” Anda menghindari memberi saran menyesatkan seperti “tingkatkan tabungan” ketika penghambat sebenarnya adalah rasio utang terhadap pendapatan atau riwayat pekerjaan yang tidak stabil.
Kontrafaktual bergantung pada model kausal—cerita tentang bagaimana variabel saling memengaruhi—bukan sekadar dataset. Anda harus memutuskan apa yang bisa berubah secara realistis, apa yang akan berubah sebagai konsekuensi, dan apa yang harus tetap sama. Tanpa struktur kausal itu, kontrafaktual bisa menjadi skenario mustahil (“meningkatkan tabungan tanpa mengubah pendapatan atau pengeluaran”) dan menghasilkan rekomendasi yang tidak membantu atau tidak adil.
Ketika model ML gagal di produksi, penyebab akar jarang “algoritme menjadi lebih buruk.” Lebih sering, sesuatu di sistem berubah: apa data yang dikumpulkan, bagaimana label dibuat, atau apa yang pengguna lakukan. Pemikiran kausal membantu Anda berhenti menebak dan mulai mengisolasi perubahan mana yang menyebabkan degradasi.
Beberapa pelaku yang berulang muncul di banyak tim:
Ini bisa tampak “baik” di dashboard agregat karena korelasi dapat tetap tinggi bahkan ketika alasan model benar telah berubah.
Diagram kausal sederhana (DAG) mengubah debugging menjadi peta. Itu memaksa Anda bertanya: apakah fitur ini penyebab label, konsekuensi darinya, atau konsekuensi dari bagaimana kita mengukurnya?
Misalnya, jika Kebijakan pelabelan → Rekayasa fitur → Input model, Anda mungkin membangun pipeline di mana model memprediksi kebijakan alih-alih fenomena mendasar. DAG membuat jalur itu terlihat sehingga Anda bisa membloknya (hapus fitur, ubah instrumentasi, atau definisikan ulang label).
Alih-alih hanya memeriksa prediksi, coba intervensi terkontrol:
Banyak alat “explainability” menjawab pertanyaan sempit: Mengapa model menghasilkan skor ini? Mereka sering melakukan ini dengan menyoroti input berpengaruh (kepentingan fitur, peta saliency, nilai SHAP). Itu bisa berguna—tetapi bukan hal yang sama dengan menjelaskan sistem tempat model berada.
Penjelasan prediksi bersifat lokal dan deskriptif: “Pinjaman ini ditolak terutama karena pendapatan rendah dan utilisasi tinggi.”
Penjelasan sistem bersifat kausal dan operasional: “Jika kita meningkatkan pendapatan terverifikasi (atau mengurangi utilisasi) dengan cara yang mencerminkan intervensi nyata, apakah keputusan akan berubah—dan apakah hasil hilir akan membaik?”
Yang pertama membantu menginterpretasi perilaku model. Yang kedua membantu memutuskan apa yang harus dilakukan.
Pemikiran kausal mengikat penjelasan pada intervensi. Alih-alih bertanya variabel mana yang berkorelasi dengan skor, Anda bertanya variabel mana yang merupakan tuas sah dan efek apa yang diproduksi saat diubah.
Model kausal memaksa Anda eksplisit tentang:
Ini penting karena fitur “penting” bisa jadi proxy—berguna untuk prediksi, berbahaya untuk aksi.
Penjelasan pasca-faktual bisa tampak meyakinkan sambil tetap murni korelasional. Jika “jumlah tiket dukungan” kuat memprediksi churn, plot kepentingan fitur bisa menggoda tim untuk “mengurangi tiket” dengan membuat dukungan lebih sulit dijangkau. Intervensi itu bisa meningkatkan churn, karena tiket adalah gejala masalah produk—bukan penyebab.
Penjelasan berbasis korelasi juga rapuh saat distribusi berubah: begitu perilaku pengguna berubah, fitur yang disorot tidak lagi berarti sama.
Penjelasan kausal sangat berharga ketika keputusan punya konsekuensi dan akuntabilitas:
Saat Anda perlu bertindak, bukan sekadar menginterpretasi, penjelasan butuh kerangka kausal.
A/B testing adalah inferensi kausal dalam bentuk paling sederhana dan praktis. Saat Anda menugaskan pengguna secara acak ke varian A atau B, Anda melakukan intervensi: Anda tidak hanya mengamati apa yang dipilih orang, Anda menetapkan apa yang mereka lihat. Dalam istilah Pearl, randomisasi membuat “do(varian = B)” nyata—jadi perbedaan hasil dapat secara kredibel diatribusikan ke perubahan, bukan siapa yang kebetulan memilihnya.
Penugasan acak memutus banyak tautan tersembunyi antara sifat pengguna dan paparan. Pengguna power, pengguna baru, jam, jenis perangkat—faktor-faktor ini tetap ada, tetapi (rata-rata) seimbang di antara grup. Keseimbangan itu yang mengubah selisih metrik menjadi klaim kausal.
Bahkan tim hebat tidak selalu bisa menjalankan tes teracak bersih:
Dalam kasus ini, Anda tetap bisa berpikir kausal—hanya perlu eksplisit tentang asumsi dan ketidakpastian.
Opsi umum termasuk difference-in-differences (bandingkan perubahan dari waktu ke waktu antara grup), regression discontinuity (gunakan aturan cutoff seperti “hanya pengguna dengan skor di atas X”), instrumental variables (dorongan alami yang mengubah paparan tanpa langsung mengubah hasil), dan matching/weighting untuk membuat grup lebih sebanding. Setiap metode menukar randomisasi dengan asumsi; diagram kausal membantu Anda menyatakan asumsi tersebut dengan jelas.
Sebelum mengirim tes (atau studi observasional), tuliskan: metrik utama, guardrail, populasi target, durasi, dan aturan keputusan. Pra-registrasi tidak menghilangkan bias, tetapi mengurangi pencarian metrik dan membuat klaim kausal lebih mudah dipercaya—dan lebih mudah diperdebatkan sebagai tim.
Sebagian besar debat produk terdengar seperti: “Metrik X bergerak setelah kita mengirim Y—jadi Y berhasil.” Pemikiran kausal merapatkan itu menjadi pertanyaan lebih jelas: “Apakah perubahan Y menyebabkan metrik X bergerak, dan seberapa besar?” Pergeseran itu mengubah dashboard dari bukti menjadi titik awal.
Perubahan harga: alih-alih “Apakah pendapatan naik setelah kenaikan harga?”, tanyakan:
Perbaikan onboarding: alih-alih “Pengguna baru menyelesaikan onboarding lebih sering sekarang,” tanyakan:
Perubahan peringkat rekomendasi: alih-alih “CTR meningkat,” tanyakan:
Dashboard sering mencampur “siapa yang mendapat perubahan” dengan “siapa yang sudah akan berkinerja baik.” Contoh klasik: Anda meluncurkan flow onboarding baru, tetapi pertama kali ditampilkan kepada pengguna pada versi aplikasi terbaru. Jika versi baru diadopsi oleh pengguna yang lebih terlibat, grafik Anda mungkin menunjukkan kenaikan yang sebagian (atau seluruhnya) disebabkan oleh adopsi versi, bukan onboarding.
Konfounder lain yang sering muncul di analitik produk:
Bagian PRD yang berguna bisa berjudul “Pertanyaan Kausal,” dan mencakup:
Jika Anda menggunakan loop pembangunan cepat (terutama dengan pengembangan yang dibantu LLM), bagian ini makin penting: mencegah “kita bisa merilis cepat” berubah jadi “kita merilis tanpa tahu apa yang disebabkannya.” Tim yang membangun di Koder.ai sering menanamkan pertanyaan kausal ini ke mode perencanaan sejak awal, lalu mengimplementasikan varian dengan feature flag cepat, beserta snapshot/rollback untuk menjaga eksperimen aman ketika hasil (atau efek samping) mengejutkan Anda.
PM menentukan keputusan dan kriteria keberhasilan. Mitra data menerjemahkannya ke estimasi kausal dapat diukur dan pemeriksaan kewarasan. Engineering memastikan perubahan dapat dikendalikan (feature flag, logging eksposur yang bersih). Support berbagi sinyal kualitatif—perubahan harga sering “berhasil” sambil diam-diam meningkatkan pembatalan atau volume tiket. Ketika semua setuju pada pertanyaan kausal, pengiriman menjadi pembelajaran—bukan sekadar pengiriman.
Pemikiran kausal tidak perlu peluncuran bergelar PhD. Perlakukan sebagai kebiasaan tim: tuliskan cerita kausal Anda, uji tekan, lalu biarkan data (dan eksperimen bila mungkin) mengonfirmasi atau mengoreksinya.
Untuk maju, kumpulkan empat input di muka:
Dalam praktiknya, kecepatan penting: semakin cepat Anda mengubah pertanyaan kausal menjadi perubahan terkontrol, semakin sedikit waktu yang Anda habiskan berdebat tentang pola ambigu. Itu sebabnya tim memakai platform seperti Koder.ai untuk bergerak dari “hipotesis + rencana” ke implementasi yang bekerja (web, backend, atau mobile) dalam hari, bukan minggu—sambil tetap menjaga ketelitian melalui rollout bertahap, deploy, dan rollback.
Jika Anda ingin menyegarkan memori tentang eksperimen, lihat /blog/ab-testing-basics. Untuk jebakan umum pada metrik produk yang meniru “efek”, lihat /blog/metrics-that-mislead.
Pemikiran kausal adalah pergeseran dari “apa yang cenderung bergerak bersama?” menjadi “apa yang akan berubah jika kita bertindak?” Pergeseran itu—dipopulerkan dalam komputasi dan statistik oleh Judea Pearl—membantu tim menghindari cerita yang terdengar percaya diri tetapi tidak bertahan pada intervensi dunia nyata.
Korelasi adalah petunjuk, bukan jawaban.
Diagram kausal (DAG) membuat asumsi terlihat dan dapat didiskusikan.
Intervensi (“do”) berbeda dari observasi (“see”).
Kontrafaktual membantu menjelaskan kasus tunggal: “bagaimana jika satu hal ini berbeda?”
Pekerjaan kausal yang baik mendokumentasikan ketidakpastian dan penjelasan alternatif.
Kausalitas membutuhkan kehati-hatian: konfounder tersembunyi, kesalahan pengukuran, dan efek seleksi bisa membalikkan kesimpulan. Antidotnya adalah transparansi—tuliskan asumsi, tunjukkan data yang dipakai, dan catat apa yang akan memalsukan klaim Anda.
Jika Anda ingin mempelajari lebih jauh, jelajahi artikel terkait di /blog dan bandingkan pendekatan kausal dengan metode analitik dan “explainability” lain untuk melihat di mana masing‑masing membantu—dan di mana bisa menyesatkan.
Korelasi membantu Anda memrediksi atau mendeteksi (mis. “ketika X naik, Y sering naik juga”). Kausalitas menjawab pertanyaan keputusan: “Jika kita mengubah X dengan sengaja, apakah Y akan berubah?”
Gunakan korelasi untuk peramalan dan pemantauan; gunakan pemikiran kausal saat Anda akan meluncurkan perubahan, menetapkan kebijakan, atau mengalokasikan anggaran.
Karena korelasi tersebut kemungkinan disebabkan oleh konfounding. Pada contoh notifikasi, pengguna yang sangat terlibat memicu/menerima lebih banyak notifikasi dan juga kembali lebih sering.
Jika Anda meningkatkan notifikasi untuk semua orang, Anda telah mengubah pengalaman (sebuah intervensi) tanpa mengubah keterlibatan mendasar—jadi retensi mungkin tidak membaik dan bahkan bisa turun.
DAG (Directed Acyclic Graph) adalah diagram sederhana di mana:
Ini berguna karena membuat asumsi eksplisit, membantu tim setuju pada apa yang harus dikontrol, apa yang tidak boleh dikontrol, dan eksperimen apa yang benar-benar akan menjawab pertanyaan.
Kesalahan umum adalah “kontrol untuk semua hal”, yang bisa secara tidak sengaja menyesuaikan untuk mediator atau collider dan menghasilkan bias.
“See” adalah mengamati apa yang terjadi secara alami (pengguna memilih sendiri, skor tinggi). “Do” adalah secara aktif menetapkan suatu variabel (meluncurkan fitur, memaksa default).
Inti: sebuah intervensi memutus alasan biasa mengapa sebuah variabel mengambil nilai tertentu, itulah sebabnya intervensi bisa mengungkap sebab-akibat lebih andal daripada pengamatan saja.
Kontrafaktual bertanya: untuk kasus spesifik ini, apa yang akan terjadi jika kita melakukan sesuatu yang berbeda.
Ini berguna untuk:
Ia membutuhkan model kausal agar Anda tidak mengusulkan perubahan tidak realistis.
Fokus pada apa yang berubah hulu dan apa yang mungkin dieksploitasi model:
Pola pikir kausal mendorong Anda menguji intervensi terarah (ablasi, pertubasi) daripada mengejar pergerakan metrik yang hanya kebetulan.
Tidak selalu. Pentingnya fitur menjelaskan apa yang memengaruhi prediksi, bukan apa yang harus Anda ubah.
Fitur yang sangat “penting” bisa jadi proxy atau gejala (mis. tiket dukungan memprediksi churn). Mengintervensi proxy itu (“mengurangi tiket dengan membuat dukungan lebih sulit diakses”) bisa berbalik meningkatkan churn. Penjelasan kausal mengaitkan pentingnya dengan tuas valid dan hasil yang diharapkan di bawah intervensi.
Tes A/B teracak paling baik jika memungkinkan, tetapi Anda mungkin perlu alternatif ketika:
Dalam kasus tersebut, pertimbangkan quasi-eksperimen seperti difference-in-differences, regression discontinuity, instrumental variables, atau matching/weighting—dengan keterbukaan mengenai asumsi.
Tambahkan bagian singkat yang memaksa kejelasan sebelum analisis:
Ini menjaga tim selaras pada pertanyaan kausal daripada cerita dashboard pasca-faktum.