Pelajari bagaimana silikon infrastruktur Marvell mendukung jaringan cloud, penyimpanan, dan akselerasi kustom—menjalankan pusat data lebih cepat dan efisien di balik layar.

Kebanyakan orang mengira “cloud” hanya server. Sebenarnya, pusat data cloud adalah sistem besar untuk memindahkan, menyimpan, dan melindungi data dengan kecepatan tinggi. Silikon infrastruktur data adalah kumpulan chip khusus yang menangani tugas‑tugas berat data tersebut agar CPU utama tidak perlu melakukannya.
Marvell fokus pada lapisan “di antaranya”: chip yang menghubungkan compute ke jaringan dan penyimpanan, mempercepat tugas‑tugas umum pusat data, dan menjaga aliran data tetap dapat diprediksi saat beban naik.
Jika membayangkan rak cloud dari atas ke bawah, perangkat Marvell sering berada:
Ini bukan “aplikasi” dan bukan “server” dalam pengertian biasa—mereka adalah blok perangkat keras yang membuat ribuan server berperilaku seperti satu layanan koheren.
Saat silikon infrastruktur melakukan tugasnya, Anda tidak akan menyadarinya. Halaman terbuka lebih cepat, video jarang buffering, dan backup selesai tepat waktu—tetapi pengguna tidak melihat mesin offload jaringan, pengendali penyimpanan, atau fabric switching yang membuat itu mungkin. Chip‑chip ini diam‑diam mengurangi latenansi, membebaskan siklus CPU, dan membuat performa lebih konsisten.
Peran Marvell paling mudah dikelompokkan menjadi tiga bucket:
Itulah silikon “diam‑diam” yang membuat layanan cloud terasa sederhana di permukaan.
Aplikasi cloud terasa “software‑defined,” tetapi pekerjaan fisik masih terjadi di rak‑rak penuh server, switch, dan penyimpanan. Saat permintaan tumbuh, cloud tidak dapat mengandalkan CPU umum untuk semua tugas tanpa menabrak batas keras dalam biaya dan efisiensi.
Pelatihan dan inferensi AI memindahkan dataset besar di pusat data. Streaming video, backup, analitik, dan platform SaaS menambah beban latar konstan. Bahkan saat compute tersedia, bottleneck sering bergeser ke pemindahan, penyaringan, enkripsi, dan penyimpanan data yang cukup cepat.
Sebagian besar trafik cloud tidak pernah menyentuh internet publik. Ia bergerak “timur–barat” antar layanan: panggilan microservice, pembacaan database, pembaruan cache, replikasi penyimpanan, dan beban AI terdistribusi. Trafik internal ini butuh latenansi yang dapat diprediksi dan throughput tinggi, sehingga mendorong perangkat jaringan dan penyimpanan melakukan lebih banyak pemrosesan dekat jalur data.
Daya dan ruang tidak tak terbatas. Jika penyedia cloud bisa memindahkan pekerjaan seperti pemrosesan paket, enkripsi, kompresi, atau checksum penyimpanan ke silikon khusus, CPU akan menghabiskan lebih sedikit waktu untuk overhead. Itu meningkatkan:
Alih‑alih menambah lebih banyak core umum, platform cloud semakin menggunakan chip khusus—Smart NIC/DPU, silikon switching, pengendali penyimpanan, dan akselerator—untuk menangani tugas infrastruktur yang repetitif dan bervolume tinggi. Hasilnya adalah cloud yang lebih cepat dan lebih murah dijalankan, meskipun beban kerja semakin haus data.
Server cloud menghabiskan waktu yang mengejutkan untuk melakukan “pekerjaan infrastruktur” daripada menjalankan aplikasi Anda. Setiap paket perlu dipindahkan, diperiksa, dicatat, dan kadang‑kadang dienkripsi—seringkali oleh CPU utama. Offload jaringan memindahkan tugas‑tugas itu ke perangkat keras khusus, di mana Smart NIC dan DPU muncul di banyak pusat data modern (termasuk sistem yang dibangun dengan silikon Marvell).
Sebuah Smart NIC adalah kartu antarmuka jaringan yang melakukan lebih dari sekadar kirim/terima. Selain port Ethernet biasa, ia menyertakan pemrosesan ekstra (sering core Arm dan/atau logika yang dapat diprogram) untuk menjalankan fitur jaringan pada kartu.
Sebuah DPU (Data Processing Unit) melangkah lebih jauh: dirancang untuk bertindak seperti “komputer infrastruktur” terdedikasi di dalam server. DPU biasanya menggabungkan jaringan berperforma tinggi, beberapa core CPU, akselerator perangkat keras (kripto, pemrosesan paket), dan fitur isolasi kuat sehingga dapat mengelola perpindahan data dan keamanan tanpa bergantung pada CPU host.
Model mental praktis:
Target offload adalah pekerjaan yang dapat diulang dan bervolume tinggi yang sebaliknya akan mencuri siklus CPU dari aplikasi. Contoh umum termasuk:
Ketika CPU harus “mengasuh” jaringan, performa aplikasi bisa berfluktuasi tergantung lonjakan trafik, tetangga yang berisik, atau ledakan kerja keamanan. Offload membantu dengan:
Secara fisik, DPU biasanya hadir sebagai kartu add‑in PCIe atau modul OCP NIC. Mereka terhubung ke:
Secara konseptual, DPU menjadi “polisi lalu lintas” antara jaringan dan server—mengelola kebijakan, enkripsi, dan switching sehingga OS host dan CPU dapat tetap fokus menjalankan aplikasi.
Saat Anda membuka aplikasi atau memindahkan data ke cloud, permintaan Anda biasanya tidak pergi ke “sebuah server” saja—ia melewati fabric switch Ethernet yang menghubungkan ribuan server seolah‑olah mereka satu mesin besar.
Sebagian besar pusat data cloud menggunakan desain “leaf‑spine”:
Desain ini menjaga jalur tetap pendek dan konsisten, kunci untuk performa pada skala besar.
Dua angka membentuk pengalaman pengguna dan biaya:
Operator cloud berusaha menjaga latenansi stabil meskipun link sibuk, sambil tetap mendorong volume trafik besar.
Chip switch Ethernet melakukan lebih dari sekadar “meneruskan paket.” Ia harus:
Vendor seperti Marvell membangun silikon yang fokus mengerjakan tugas‑tugas ini secara dapat diprediksi pada kecepatan sangat tinggi.
Berpindah dari 25/100G ke 200/400/800G bukan sekadar angka. Kecepatan lebih tinggi bisa berarti:
Hasilnya adalah jaringan pusat data yang terasa kurang seperti “kabel” dan lebih seperti infrastruktur bersama untuk setiap beban kerja di atasnya.
Ketika orang membicarakan performa cloud, mereka sering membayangkan CPU dan GPU. Tetapi sejumlah besar “kecepatan” (dan keandalan) ditentukan oleh silikon penyimpanan yang duduk di antara drive flash dan sisa server. Lapisan itu biasanya adalah pengendali penyimpanan—chip khusus yang mengelola cara data ditulis, dibaca, diperiksa, dan dipulihkan.
Pengendali penyimpanan adalah pengarah lalu lintas untuk data persisten. Ia memecah tulis masuk menjadi potongan yang dapat dikelola, menjadwalkan baca sehingga data panas kembali cepat, dan terus menjalankan pemeriksaan integritas agar bit korup tidak berubah menjadi file korup.
Ia juga menangani pembukuan yang kurang glamor yang membuat penyimpanan dapat diprediksi pada skala: memetakan blok logis ke lokasi fisik flash, menyeimbangkan aus agar drive bertahan lebih lama, dan menjaga latenansi tetap stabil ketika banyak aplikasi mengakses pool penyimpanan yang sama.
NVMe (Non‑Volatile Memory Express) adalah protokol yang dirancang untuk penyimpanan flash cepat. Ia menjadi umum karena mengurangi overhead dan mendukung antrean paralel—artinya banyak operasi bisa berjalan bersamaan, cocok untuk beban cloud di mana ribuan pembacaan/penulisan kecil terjadi secara bersamaan.
Bagi penyedia cloud, NVMe bukan hanya tentang throughput puncak; ini tentang latenansi rendah yang konsisten di bawah beban, yang membuat aplikasi terasa responsif.
Pengendali modern sering menyertakan fitur perangkat keras yang sebaliknya akan menghabiskan siklus CPU:
Penyimpanan bukan subsystem terisolasi—ia membentuk bagaimana aplikasi berperilaku:
Singkatnya, silikon penyimpananlah yang mengubah flash mentah menjadi infrastruktur cloud yang andal dan berthroughput tinggi.
Saat penyedia cloud mengupgrade server, mereka tidak hanya mengganti CPU. Mereka juga butuh “jaringan penghubung” yang memungkinkan CPU berbicara dengan kartu jaringan, penyimpanan, dan akselerator tanpa memaksa redesign total. Itulah mengapa standar seperti PCIe dan CXL penting: mereka menjaga interoperabilitas, membuat upgrade lebih aman, dan membantu pusat data skala dengan cara yang dapat diprediksi.
PCIe (Peripheral Component Interconnect Express) adalah link internal utama yang digunakan untuk menghubungkan komponen seperti:
Model mental yang membantu: PCIe seperti menambah jalur di jalan tol. Generasi PCIe yang lebih baru meningkatkan kecepatan per jalur, dan link yang lebih lebar (x8, x16, dll.) menambah kapasitas total. Bagi operator cloud, ini langsung mempengaruhi seberapa cepat data bisa bergerak antara compute dan perangkat yang memberinya.
Silikon infrastruktur Marvell sering berada di salah satu ujung koneksi PCIe ini—di dalam NIC, DPU, pengendali penyimpanan, atau komponen yang berdekatan dengan switch—sehingga kemampuan PCIe bisa menjadi pembatas (atau pendorong) untuk upgrade performa.
CXL (Compute Express Link) membangun di atas koneksi fisik PCIe tetapi menambahkan cara agar perangkat dapat berbagi sumber daya mirip memori dengan overhead lebih rendah. Secara sederhana, CXL membantu server memperlakukan sumber daya eksternal tertentu (seperti perluasan memori atau memori pooled) lebih mirip ekstensi lokal daripada perangkat jauh.
Hasilnya bukan hanya “lebih cepat.” PCIe dan CXL memungkinkan:
Standar konektivitas jarang muncul di tajuk utama, tetapi mereka sangat membentuk seberapa cepat cloud bisa mengadopsi jaringan, penyimpanan, dan akselerasi yang lebih baik.
“Akselerasi kustom” dalam infrastruktur cloud tidak selalu berarti GPU raksasa yang dipasang ke server. Lebih sering, itu berarti menambahkan blok compute kecil dan khusus yang mempercepat satu tugas berulang—sehingga CPU bisa fokus menjalankan aplikasi.
Beban cloud sangat beragam: node database yang banyak penyimpanan punya bottleneck berbeda dengan kotak tepi streaming video atau perangkat firewall. Silikon yang dirancang khusus menargetkan bottleneck tersebut secara langsung—sering dengan memindahkan fungsi ke perangkat keras sehingga berjalan lebih cepat, lebih konsisten, dan dengan overhead CPU lebih rendah.
Beberapa kategori praktis yang sering muncul di data center:
Tim cloud besar biasanya mulai dengan profiling: di mana permintaan macet, dan tugas apa yang berulang jutaan kali per detik? Lalu mereka memilih apakah mengakselerasi lewat engine yang dapat diprogram (lebih adaptif) atau blok fungsi tetap (efisiensi tertinggi). Vendor seperti Marvell sering menyediakan blok bangunan—jaringan, keamanan, antarmuka penyimpanan—sehingga bagian “kustom” bisa fokus pada hot path spesifik cloud.
Akselerasi fungsi tetap biasanya menang pada performa per watt dan determinisme, tetapi sulit dipakai ulang jika beban berubah. Opsi yang lebih dapat diprogram lebih mudah dikembangkan, namun mungkin memakan daya lebih dan menyisakan beberapa performa. Desain terbaik mencampur keduanya: plane kontrol yang fleksibel dengan jalur cepat perangkat keras di tempat yang penting.
Daya sering menjadi batasan nyata di pusat data—bukan jumlah server yang bisa dibeli, tetapi seberapa banyak listrik yang bisa disuplai dan dibuang sebagai panas. Saat fasilitas mencapai batas dayanya, satu‑satunya cara untuk tumbuh adalah mendapatkan lebih banyak kerja berguna dari setiap watt.
CPU umum fleksibel, tetapi tidak selalu efisien untuk tugas infrastruktur repetitif seperti penanganan paket, enkripsi, pemrosesan protokol penyimpanan, atau telemetri. Silikon infrastruktur khusus (mis. smart NIC/DPU, switch, dan pengendali penyimpanan) dapat menjalankan tugas tersebut dengan lebih sedikit siklus dan pekerjaan yang lebih sedikit terbuang.
Kemenangan energi sering bersifat tidak langsung: jika offload mengurangi pemanfaatan CPU, Anda bisa menjalankan beban yang sama dengan lebih sedikit core CPU aktif, frekuensi lebih rendah, atau lebih sedikit server. Itu juga dapat mengurangi tekanan memori dan lalu lintas PCIe, yang semakin mengurangi daya.
Setiap watt menjadi panas. Lebih banyak panas berarti kipas lebih cepat, aliran pendingin lebih tinggi, dan perencanaan rak yang lebih ketat. Rak berdensitas tinggi menarik, tetapi hanya jika bisa didinginkan secara konsisten. Inilah mengapa pilihan chip penting selain throughput mentah: komponen yang menarik daya lebih sedikit (atau tetap efisien pada beban tinggi) dapat memungkinkan operator menempatkan lebih banyak kapasitas dalam jejak yang sama tanpa menciptakan titik panas.
Angka efisiensi mudah dipasarkan dan sulit dibandingkan. Saat melihat “performa per watt lebih baik,” perhatikan:
Klaim paling kredibel mengaitkan watt ke beban kerja spesifik yang dapat direproduksi dan menunjukkan apa yang berubah pada level server atau rak—bukan hanya lembar spesifikasi.
Penyedia cloud berbagi mesin fisik yang sama di antara banyak pelanggan, jadi keamanan tidak bisa “ditambahkan nanti.” Banyak di antaranya ditegakkan sampai tingkat chip—di dalam smart NIC/DPU, chip jaringan cloud, switching Ethernet, dan pengendali penyimpanan—di mana offload perangkat keras dapat menerapkan perlindungan pada laju garis.
Sebagian besar silikon infrastruktur menyertakan hardware root of trust: logika kecil dan kunci yang tak berubah yang dapat memverifikasi firmware sebelum apapun mulai berjalan. Dengan secure boot, chip memeriksa tanda tangan kriptografis pada firmwarenya (dan kadang pada komponen boot host), menolak menjalankan kode yang dimodifikasi atau tidak dikenal.
Itu penting karena DPU atau pengendali penyimpanan yang terkompromi bisa berada “di antara” server Anda dan fabric jaringan/penyimpanan. Secure boot mengurangi risiko persistensi tersembunyi di lapisan itu.
Enkripsi sering dipercepat langsung di silikon sehingga tidak mencuri waktu CPU:
Karena inline, keamanan tidak harus berarti penyimpanan jaringan menjadi lebih lambat.
Cloud multi‑tenant bergantung pada pemisahan ketat. Chip infrastruktur dapat membantu menegakkan isolasi dengan antrean perangkat keras, proteksi memori, fungsi virtual, dan penegakan kebijakan—sehingga trafik atau permintaan penyimpanan satu tenant tidak bisa mengintip tenant lain. Ini sangat penting ketika DPU menangani jaringan virtual dan saat perangkat PCIe dibagi antar beban kerja.
Keandalan bukan hanya “tanpa kegagalan”—melainkan deteksi dan pemulihan lebih cepat. Banyak desain silikon infrastruktur menyertakan counter telemetri, pelaporan error, hooks tracing paket, dan metrik kesehatan yang dapat diumpankan ke sistem monitoring. Saat ada masalah (drop, lonjakan laten, error link, retry storm), sinyal bawaan ini membantu menentukan apakah isu ada pada switching Ethernet, DPU, atau pengendali penyimpanan—memperpendek waktu pemecahan masalah dan meningkatkan uptime infrastruktur cloud.
Bayangkan tindakan sederhana: Anda membuka aplikasi belanja dan mengetuk “Lihat riwayat pesanan.” Permintaan itu melintasi banyak sistem—dan setiap langkah adalah kesempatan terjadinya penundaan.
Permintaan Anda sampai di tepi cloud dan load balancer. Paket diarahkan ke server aplikasi yang sehat.
Mencapai host aplikasi. Secara tradisional, CPU host menangani banyak “pipa”: enkripsi, aturan firewall, jaringan virtual, dan manajemen antrean.
Aplikasi meminta database. Query itu harus melewati jaringan pusat data ke klaster database, lalu mengambil data dari penyimpanan.
Respons kembali dengan jalur yang sama. Hasil dikemas, dienkripsi, dan dikirim kembali ke ponsel Anda.
Smart NIC/DPU dan silikon infrastruktur khusus (termasuk solusi dari vendor seperti Marvell) memindahkan pekerjaan berulang dari CPU umum:
Operator cloud tidak memilih chip infrastruktur karena “lebih cepat” secara abstrak—mereka memilihnya ketika pekerjaan itu besar, berulang, dan layak dijadikan perangkat keras khusus. Silikon khusus paling bernilai pada skala (juta‑juta request serupa), ketika kebutuhan performa dapat diprediksi (pola trafik stabil, protokol yang diketahui), dan ketika keuntungan efisiensi kecil bertambah menjadi penghematan nyata di seluruh armada.
Tim biasanya memetakan bottleneck terbesar ke fungsi spesifik: pemrosesan paket dan keamanan di jalur jaringan, terjemahan penyimpanan dan proteksi data di jalur I/O, atau kompresi/kripto/primitif AI di blok akselerasi. Pertanyaan kunci adalah apakah pekerjaan itu dapat di‑offload tanpa merusak model perangkat lunak. Jika platform Anda bergantung pada fitur Linux tertentu, perilaku virtual switching, atau semantik penyimpanan, chip harus sesuai asumsi tersebut.
Minta kejelasan tentang:
Benchmark penting, tetapi hanya berguna jika mencerminkan produksi: campuran paket nyata, kedalaman antrean penyimpanan nyata, dan isolasi tenant yang realistis. Daya dievaluasi sebagai “kerja per watt,” bukan throughput puncak—terutama saat rak dibatasi daya.
Upaya integrasi sering menjadi faktor penentu. Chip yang 10% lebih baik di atas kertas bisa kalah dari yang lebih mudah disediakan, dimonitor, dan dipatch pada skala.
Tim cloud mengurangi risiko dengan mengutamakan standar (Ethernet, NVMe, PCIe/CXL), API yang terdokumentasi baik, dan tooling manajemen yang interoperable. Bahkan saat memakai fitur vendor (termasuk dari Marvell dan pesaing), mereka mencoba menjaga control plane tingkat tinggi portabel sehingga perangkat keras dapat berevolusi tanpa memaksa penulisan ulang platform penuh.
Prinsip yang sama berlaku di sisi perangkat lunak: saat membangun layanan yang pada akhirnya berjalan di infrastruktur ini, membantu menjaga arsitektur tetap portable. Platform seperti Koder.ai dapat mempercepat prototyping dan iterasi backend web (Go + PostgreSQL) dan frontend React melalui workflow berbasis chat, sambil tetap membiarkan tim mengekspor kode sumber dan melakukan deploy sesuai cloud dan persyaratan kepatuhan mereka.
Silikon infrastruktur cloud bergeser dari “akselerasi yang menyenangkan” menjadi pipa dasar. Seiring lebih banyak layanan menjadi sensitif laten (inferensi AI, analitik real‑time, inspeksi keamanan), chip yang menangani jaringan, penyimpanan, dan perpindahan data secara efisien akan sama pentingnya dengan CPU.
Jaringan bandwidth lebih tinggi bukan lagi tier khusus—itu ekspektasi. Itu mendorong switching Ethernet, pemrosesan paket, dan DPU/Smart NIC ke port lebih cepat, latenansi lebih rendah, dan kontrol kemacetan yang lebih baik. Vendor seperti Marvell akan terus bersaing pada seberapa banyak pekerjaan yang bisa di‑offload di perangkat keras (enkripsi, telemetri, virtual switching) tanpa menambah kompleksitas operasional.
Konektivitas PCIe dan CXL akan semakin memungkinkan disaggregasi: pooling memori dan akselerator sehingga rak dapat “disusun” sesuai beban kerja. Peluang silikon bukan hanya PHY CXL—melainkan pengendali, switching, dan firmware yang membuat sumber daya pooled dapat diprediksi, aman, dan terobservasi bagi tim cloud.
Penyedia besar ingin diferensiasi dan integrasi lebih ketat di seluruh chip jaringan cloud, pengendali penyimpanan pusat data, dan akselerasi kustom. Harapkan lebih banyak program semi‑kustom di mana blok bangunan standar (SerDes, switching Ethernet, NVMe) dipasangkan dengan fitur khusus platform, tooling deployment, dan jendela dukungan panjang.
Performa per watt akan menjadi metrik utama, terutama saat batas daya membatasi ekspansi. Fitur keamanan akan bergerak lebih dekat ke jalur data (enkripsi inline, secure boot, attestation). Akhirnya, jalur upgrade akan penting: bisakah Anda mengadopsi bandwidth baru, revisi CXL, atau fitur offload tanpa merancang ulang seluruh platform—atau memecah kompatibilitas dengan rak yang ada?
Marvell terutama menargetkan lapisan “jalur data” di pusat data cloud: jaringan (NIC/DPU, silikon switch), pengendali penyimpanan (NVMe dan fungsi terkait), dan blok akselerasi khusus (kripto, pemrosesan paket, kompresi, telemetri). Tujuannya adalah memindahkan, melindungi, dan mengelola data skala besar tanpa membebani core CPU utama.
Karena CPU umum fleksibel tetapi tidak efisien untuk pekerjaan infrastruktur yang repetitif dan bervolume tinggi seperti pemrosesan paket, enkripsi, dan penanganan protokol penyimpanan. Memindahkan tugas‑tugas ini ke silikon khusus meningkatkan:
Smart NIC adalah NIC dengan kemampuan komputasi tambahan untuk menjalankan fitur jaringan pada kartu itu sendiri. DPU melangkah lebih jauh: berfungsi seperti “komputer infrastruktur” terdedikasi dengan beberapa core CPU plus akselerator perangkat keras dan fitur isolasi.
Offload umum meliputi:
Ini mengurangi beban CPU dan membantu menstabilkan latenansi saat beban tinggi.
Sebagian besar lalu lintas bersifat “timur–barat” di dalam pusat data: panggilan antar layanan, replikasi penyimpanan, trafik database/cache, dan beban kerja AI terdistribusi. Lalu lintas internal ini membutuhkan latenansi yang dapat diprediksi dan throughput tinggi, sehingga lebih banyak pemrosesan dipindahkan ke NIC/DPU dan silikon switch untuk menjaga performa pada skala besar.
Kebanyakan pusat data hyperscale menggunakan topologi leaf‑spine (ToR + spine):
Silikon switch harus meneruskan paket, menahan lonjakan, menegakkan QoS, dan menyediakan telemetri—pada laju garis.
Pengendali penyimpanan berdiri di antara flash dan sistem lainnya, menangani pekerjaan yang membuat penyimpanan cepat dan andal:
Banyak pengendali juga mempercepat enkripsi, , dan bantuan parity/erasure‑coding agar penyimpanan tidak mendominasi CPU host.
NVMe dirancang untuk flash dengan overhead rendah dan paralelisme tinggi (banyak antrean dan operasi bersamaan). Di lingkungan cloud, keuntungan utamanya adalah latenansi rendah yang konsisten di bawah beban, bukan hanya throughput puncak—terutama saat ribuan operasi I/O kecil mengakses penyimpanan bersama pada saat yang sama.
PCIe adalah antar‑koneksi internal berkecepatan tinggi untuk NIC, DPU, SSD, GPU, dan akselerator. CXL menggunakan lapisan fisik PCIe yang sama tetapi menambahkan cara lebih efisien untuk berbagi sumber daya seperti memori.
Secara praktis, PCIe/CXL memungkinkan:
Minta bukti yang terkait dengan beban kerja dan kebutuhan operasional nyata:
Upaya integrasi seringkali menentukan pilihan lebih dari performa mentah.