Lees hoe Marvell’s datainfrastructuur-silicium cloudnetwerken, opslag en custom acceleratie ondersteunt — en zo sneller, efficiëntere datacenters achter de schermen mogelijk maakt.

De meeste mensen denken bij “cloud” aan servers. In werkelijkheid is een clouddatacenter een groot systeem om data snel te verplaatsen, op te slaan en te beschermen. Datainfrastructuur-silicium zijn gespecialiseerde chips die die data-intensieve taken uitvoeren zodat de hoofd-CPU’s het niet hoeven te doen.
Marvell richt zich op die tussenlaag: de chips die compute verbinden met netwerken en opslag, veelvoorkomende datacenter-taken versnellen en alles voorspelbaar houden onder hoge belasting.
Als je een cloudrack van boven naar beneden voorstelt, bevinden Marvell-apparaten zich vaak:
Dit zijn geen “apps” en ook geen “servers” in de gebruikelijke zin — het zijn de hardwarebouwstenen die duizenden servers laten fungeren als één samenhangende dienst.
Als infrastructuur-silicium zijn werk doet, merk je het niet. Pagina’s laden sneller, video buffert minder en backups klaar zijn op tijd — maar de gebruiker ziet zelden de netwerk-offload-engine, de opslagcontroller of het switching-fabric dat dit mogelijk maakt. Deze chips verlagen latentie, geven CPU-cycli terug en maken prestaties consistenter.
De rol van Marvell is het makkelijkst in drie buckets te plaatsen:
Dat is het “stille” silicium dat cloudservices aan de oppervlakte eenvoudig laat aanvoelen.
Cloud-apps voelen “software-defined” aan, maar het fysieke werk gebeurt nog steeds in racks vol servers, switches en opslag. Naarmate de vraag groeit, kunnen clouds niet alle taken op algemene CPU’s blijven laten draaien zonder harde grenzen te bereiken in kosten en efficiëntie.
AI-training en inference verplaatsen enorme datasets door het datacenter. Videostreams, backups, analytics en SaaS-platforms voegen constante achtergrondbelasting toe. Zelfs als compute beschikbaar is, verschuift de bottleneck vaak naar het snel genoeg verplaatsen, filteren, versleutelen en opslaan van data.
Het meeste cloudverkeer raakt nooit het publieke internet. Het reist “east–west” tussen services: microservice-naar-microservice oproepen, database-reads, cache-updates, opslagreplicatie en gedistribueerde AI-workloads. Dat interne verkeer heeft voorspelbare latency en hoge doorvoer nodig, wat meer verwerking dicht bij het datapad vereist.
Vermogen en ruimte zijn beperkt. Als een cloudprovider taken zoals packetverwerking, encryptie, compressie of opslagchecksums kan offloaden naar speciale siliconen, besteedt de CPU minder tijd aan overhead. Dat verbetert:
In plaats van te schalen door meer algemene cores toe te voegen, gebruiken cloudplatforms steeds vaker doelgerichte chips — Smart NICs/DPUs, switching-silicium, opslagcontrollers en accelerators — om repetitieve, hoge-volume infrastructuurtaken af te handelen. Het resultaat is een cloud die sneller en goedkoper te runnen is, zelfs als workloads data-intensiever worden.
Cloudservers besteden verrassend veel tijd aan “infrastructuurwerk” in plaats van aan jouw applicatie. Elk pakket moet worden verplaatst, geïnspecteerd, gelogd en soms versleuteld — vaak door de hoofd-CPU. Networking offload verschuift die klusjes naar gespecialiseerde hardware; daar komen Smart NICs en DPUs in veel moderne datacenters in beeld (ook in systemen met Marvell-silicium).
Een Smart NIC is een netwerkinterfacekaart die meer doet dan basis zenden/ontvangen. Naast de gebruikelijke Ethernet-poorten bevat hij extra verwerking (vaak Arm-cores en/of programmeerbare logica) om netwerkfeatures op de kaart zelf uit te voeren.
Een DPU (Data Processing Unit) gaat een stap verder: hij is ontworpen om als een toegewijde “infrastructuurcomputer” in de server te fungeren. Een DPU combineert doorgaans hoogperformante netwerkfunctionaliteit, meerdere CPU-cores, hardware-accelerators (crypto, packet processing) en sterke isolatiefuncties, zodat hij databeweging en beveiliging kan beheren zonder op de host-CPU te steunen.
Een praktisch mentaal model:
Offload richt zich op herhaalbaar, hoog-volume werk dat anders CPU-cycli van applicaties zou stelen. Veelvoorkomende voorbeelden zijn:
Als de CPU het netwerk moet “babysitten”, kunnen applicatieprestaties schommelen door traffic spikes, noisy neighbors of pieken in beveiligingswerk. Offload helpt door:
Fysiek verschijnen DPU’s meestal als een PCIe add-in kaart of een OCP NIC-module. Ze verbinden met:
Conceptueel wordt de DPU een “verkeersagent” tussen netwerk en server — beleid, encryptie en switching afhandelend zodat het host-OS en de CPU’s zich op applicaties kunnen concentreren.
Wanneer je een app opent of data naar de cloud verplaatst, reist je verzoek doorgaans niet naar “een server” — het reist door een netwerk van Ethernet-switches die duizenden servers verbinden alsof ze één grote machine zijn.
De meeste clouddatacenters gebruiken een “leaf-spine”-ontwerp:
Dit ontwerp houdt paden kort en consistent, wat essentieel is voor prestaties op schaal.
Twee cijfers bepalen gebruikerservaring en kosten:
Cloudoperators streven ernaar latency stabiel te houden, ook als links druk zijn, terwijl ze toch enorme hoeveelheden verkeer verwerken.
Een Ethernet-switchchip doet meer dan alleen “pakketten doorsturen.” Hij moet:
Vendors zoals Marvell bouwen silicium dat is geoptimaliseerd om deze taken voorspelbaar op zeer hoge snelheden uit te voeren.
Overschakelen van 25/100G naar 200/400/800G-verbindingen is meer dan cijfers. Hogere snelheden kunnen betekenen:
Het resultaat is een datacenternetwerk dat minder aanvoelt als losse “draden” en meer als gedeelde infrastructuur voor elke workload erop.
Wanneer mensen het over cloudprestaties hebben, denken ze vaak aan CPU’s en GPU’s. Maar veel van de “snelheid” (en betrouwbaarheid) wordt bepaald door het opslag-silicium tussen flashschijven en de rest van de server. Die laag is meestal een opslagcontroller — doelgerichte chips die regelen hoe data wordt geschreven, gelezen, gecontroleerd en hersteld.
Een opslagcontroller is de verkeersleider voor persistente data. Hij deelt binnenkomende writes op in beheersbare blokken, plant reads zodat hot data snel terugkomt en voert constant integriteitscontroles uit zodat corrupte bits niet ongemerkt tot beschadigde bestanden leiden.
Hij regelt ook het onopvallende administratiewerk dat opslag voorspelbaar maakt op schaal: het mappen van logische blokken naar fysieke flashlocaties, wear leveling zodat schijven langer meegaan, en het constant houden van latency wanneer veel applicaties dezelfde opslagpool raken.
NVMe (Non-Volatile Memory Express) is een protocol dat is ontworpen voor snelle flashopslag. Het werd algemeen omdat het overhead vermindert en parallelle “queues” van verzoeken ondersteunt — veel operaties tegelijkertijd in vlucht laten zijn past bij cloudworkloads waarin duizenden kleine reads/writes gelijktijdig gebeuren.
Voor cloudproviders gaat NVMe niet alleen om piekdoorvoer; het gaat om consistent lage latency onder belasting, wat applicaties responsief houdt.
Moderne controllers bevatten vaak hardwarefuncties die anders CPU-cycli zouden kosten:
Opslag is geen geïsoleerd subsystem — het bepaalt hoe applicaties zich gedragen:
Kortom: opslag-silicium verandert ruwe flash in betrouwbare, hoge-doorvoerinfrastructuur voor de cloud.
Als cloudproviders servers upgraden, wisselen ze niet alleen CPU’s. Ze hebben ook de “bindweefsel” nodig dat CPU’s laat praten met netwerkkaarten, opslag en accelerators zonder een volledige herontwerp te forceren. Daarom zijn standaarden zoals PCIe en CXL belangrijk: ze houden onderdelen interoperabel, maken upgrades minder riskant en helpen datacenters op voorspelbare wijze op te schalen.
PCIe (Peripheral Component Interconnect Express) is de belangrijkste interne link om componenten te verbinden zoals:
Een nuttig beeld: PCIe is als het toevoegen van rijstroken aan een snelweg. Nieuwere PCIe-generaties verhogen de snelheid per rijstrook, en bredere links (x8, x16, etc.) voegen meer totale capaciteit toe. Voor cloudoperators beïnvloedt dit direct hoe snel data tussen compute en voedende apparaten kan bewegen.
Marvell’s infrastructuur-silicium zit vaak aan één kant van zulke PCIe-verbindingen — in een NIC, DPU, opslagcontroller of switch-verwant component — dus PCIe-capaciteit kan praktisch gezien een beperkende of toelatende factor voor prestatie-upgrades zijn.
CXL (Compute Express Link) bouwt voort op de PCIe-fysieke verbinding maar voegt nieuwe manieren toe waarop apparaten geheugenachtige resources met lagere overhead kunnen delen. Simpel gezegd helpt CXL servers bepaalde externe resources (zoals geheugenuitbreiding of gepoold geheugen) meer als lokaal geheugen te behandelen in plaats van als een ver apparaat.
Het resultaat is niet alleen “sneller.” PCIe en CXL maken mogelijk:
Connectiviteitsstandaarden krijgen zelden koppen, maar zij bepalen sterk hoe snel clouds betere netwerk-, opslag- en acceleratieopties kunnen adopteren.
“Custom acceleration” in cloudinfrastructuur betekent niet altijd een gigantische GPU. Vaak betekent het het toevoegen van kleine, gespecialiseerde computeblokken die één herhaalde taak versnellen — zodat CPU’s zich op applicaties kunnen richten.
Cloudworkloads variëren sterk: een opslagintensieve database-node heeft andere knelpunten dan een video-streaming edgebox of een firewall-appliance. Doelgericht silicium pakt die knelpunten direct aan — vaak door een functie naar hardware te verplaatsen zodat die sneller, consistenter en met minder CPU-overhead draait.
Een paar praktische categorieën komen vaak terug in datacenters:
Grote cloudteams beginnen doorgaans met profilering: waar blijven verzoeken hangen en welke taken herhalen zich miljoenen keren per seconde? Daarna kiezen ze of ze willen versnellen via een programmeerbare engine (meer aanpasbaar) of vaste-functieblokken (hoogste efficiëntie). Vendors zoals Marvell leveren vaak bouwstenen — netwerk, beveiliging, opslaginterfaces — zodat het “aangepaste” deel zich op specifieke hot paths kan richten.
Fixed-function acceleratie wint vaak op prestaties per watt en determinisme, maar is lastiger te hergebruiken als de workload verandert. Programmeerbare opties zijn makkelijker te evolueren, maar verbruiken mogelijk meer stroom en laten wat prestatie liggen. De beste ontwerpen combineren beide: flexibele controlplanes met hardware fast paths waar het telt.
Vermogen is vaak het echte plafond in een datacenter — niet hoeveel servers je kunt kopen, maar hoeveel elektriciteit je kunt leveren en afvoeren als warmte. Als een faciliteit zijn power-envelope bereikt, is de enige manier om te groeien meer nuttig werk uit elke watt te halen.
Algemene CPU’s zijn flexibel, maar niet altijd efficiënt voor repetitieve infrastructuurklusjes zoals packetafhandeling, encryptie, opslagprotocolverwerking of telemetry. Doelgericht infrastructuur-silicium (bijv. smart NICs/DPUs, switches en opslagcontrollers) kan die taken uitvoeren met minder cycli en minder verspild werk.
De energiewinst is vaak indirect: als offload CPU-gebruik vermindert, kun je dezelfde workload draaien met minder actieve CPU-cores, lagere klokfrequenties of minder servers. Dat reduceert ook geheugenbelasting en PCIe-verkeer, wat het vermogen verder trimt.
Elke watt wordt warmte. Meer warmte betekent snellere ventilatoren, hogere koelcapaciteit en striktere rackplanning. Hogere-dichtheid racks zijn aantrekkelijk, maar alleen als je ze consistent kunt koelen. Daarom doen chipkeuzes er toe buiten ruwe doorvoer: een component die minder vermogen trekt (of efficiënt blijft bij hoge belasting) laat operators meer capaciteit in hetzelfde voetafdruk plaatsen zonder hotspots te creëren.
Efficiëntiecijfers zijn makkelijk te marketen en moeilijk te vergelijken. Als je “betere prestaties per watt” ziet, let dan op:
De meest geloofwaardige claims koppelen watts aan een specifieke, herhaalbare workload en tonen wat er op server- of rackniveau veranderde — niet alleen een specificatieblad.
Cloudproviders delen fysieke machines tussen vele klanten, dus beveiliging kan niet "erbij komen". Een groot deel ervan wordt afgedwongen op chipniveau — in smart NICs/DPUs, cloudnetwerkchips, Ethernet-switching-silicium en datacenter-opslagcontrollers — waar hardware-offload bescherming op lijntempo kan toepassen.
De meeste infrastructuurchips bevatten een hardware root of trust: een kleine, onveranderlijke set logica en sleutels die firmware kan verifiëren voordat er iets anders start. Met secure boot controleert de chip cryptografische handtekeningen op de firmware (en soms op host-bootcomponenten) en weigert gewijzigde of onbekende code uit te voeren.
Dat is belangrijk omdat een gecompromitteerde DPU of opslagcontroller “tussen” je servers en het netwerk/opslag fabric kan zitten. Secure boot vermindert het risico op verborgen persistentie op dat niveau.
Encryptie wordt vaak rechtstreeks in silicium versneld zodat het de CPU geen tijd kost:
Omdat het inline is, hoeft beveiliging niet traagheid te betekenen voor opslagnetwerken.
Multi-tenant clouds vertrouwen op strikte scheiding. Infrastructuurchips helpen isolatie afdwingen met hardware-queues, geheugenbescherming, virtuele functies en beleidsafhandeling — zodat het verkeer of de opslagverzoeken van de ene tenant niet in die van een andere kunnen gluren. Dit is vooral belangrijk wanneer DPUs virtuele netwerken behandelen en PCIe-apparaten tussen workloads gedeeld worden.
Betrouwbaarheid is niet alleen “geen fouten” — het is sneller detecteren en herstellen. Veel datainfrastructuur-siliciumontwerpen bevatten telemetry-counters, foutmeldingen, packet tracing hooks en health-metrics die cloudteams in monitoring kunnen voeden. Wanneer er iets misgaat (drops, latencypieken, linkfouten, retry-storms) helpen deze ingebouwde signalen te achterhalen of het probleem in Ethernet-switching, de DPU of de opslagcontroller zit — waardoor MTTR daalt en de uptime van de cloud verbetert.
Stel je een eenvoudige actie voor: je opent een winkelapp en tikt op “Bestelgeschiedenis bekijken.” Dat ene verzoek reist door meerdere systemen — en elk stap is een kans op vertraging.
Je verzoek komt binnen bij de cloudedge en load balancer. Het pakket wordt naar een gezonde applicatieserver geleid.
Het bereikt de applicatiehost. Traditioneel behandelt de host-CPU veel van de “leidingwerk”: encryptie, firewallregels, virtueel netwerken en wachtrijbeheer.
De app vraagt de database. Die query moet door het datacenter netwerk naar een databasecluster reizen en data uit opslag ophalen.
Het antwoord keert op dezelfde manier terug. Resultaten worden geformatteerd, versleuteld en teruggestuurd naar je telefoon.
Smart NICs/DPUs en gespecialiseerd infrastructuur-silicium (inclusief oplossingen van vendors zoals Marvell) verplaatsen herhaalbaar werk van algemene CPU’s:
Cloudoperators kiezen infrastructuurchips niet omdat ze “sneller” zijn in het abstract — ze kiezen ze wanneer het werk groot, herhaalbaar en de moeite waard is om in toegewijd hardware om te zetten. Gespecialiseerd silicium is het meest waardevol op schaal (miljoenen gelijkaardige verzoeken), wanneer prestaties voorspelbaar zijn (stabiel verkeer, bekende protocollen) en wanneer kleine efficiëntiewinst zich over fleets opstapelt tot echte besparingen.
Teams brengen meestal hun grootste knelpunten in kaart naar specifieke functies: packet processing en beveiliging in het netwerkpad, opslagvertaling en dataprotectie in het I/O-pad, of compressie/crypto/AI-primitieven in acceleratieblokken. Een sleutelvraag is of de taak kan worden offloaded zonder het softwaremodel te breken. Als je platform afhankelijk is van bepaalde Linux-features, virtuele switching-gedrag of opslagsemantiek, moet de chip bij die aannames passen.
Vraag duidelijkheid over:
Benchmarks zijn belangrijk, maar alleen als ze productie nabootsen: echte packetmixen, realistische queue-dieptes en reële tenantisolatie. Vermogen wordt beoordeeld als “werk per watt”, niet als piekdoorvoer — vooral wanneer racks power-beperkt zijn.
Integratieinspanning is vaak de doorslaggevende factor. Een chip die 10% beter op papier is, kan verliezen van een chip die makkelijker te provisionen, monitoren en patchen is op schaal.
Cloudteams verkleinen risico door te kiezen voor standaarden (Ethernet, NVMe, PCIe/CXL), goed gedocumenteerde API’s en interoperabele managementtools. Zelfs bij gebruik van vendorfeatures (inclusief die van Marvell en peers) proberen ze hogere controlplanes draagbaar te houden zodat hardware kan evolueren zonder een volledige platformherschrijving.
Hetzelfde principe geldt voor de softwarekant: als je services bouwt die uiteindelijk op deze infrastructuur draaien, helpt het om architecturen draagbaar te houden. Platforms zoals Koder.ai kunnen prototyping en iteratie van webbackends (Go + PostgreSQL) en React-frontends versnellen via een chatgestuurde workflow, terwijl teams nog steeds broncode kunnen exporteren en inzetten op hun eigen cloud en compliance-vereisten.
Datainfrastructuur-silicium schuift op van “nice-to-have acceleratie” naar basisplumbing. Naarmate meer services latency-gevoelig worden (AI-inference, real-time analytics, beveiligingsinspectie), zullen chips die netwerk, opslag en databeweging efficiënt verwerken net zo belangrijk worden als CPU’s.
Hogere bandbreedten zijn niet langer een speciale laag — ze worden verwacht. Dat duwt Ethernet-switching, packet processing en DPUs/Smart NICs naar snellere poorten, lagere latency en betere congestieregeling. Vendors zoals Marvell concurreren erop hoeveel werk in hardware kan worden offloaded (encryptie, telemetry, virtual switching) zonder operationele complexiteit toe te voegen.
PCIe- en CXL-connectiviteit zullen disaggregatie meer mogelijk maken: geheugen en accelerators poolen zodat racks per workload “gecomposeerd” kunnen worden. De siliciumkans is niet alleen de CXL PHY — het zijn de controllers, switching en firmware die gepoolde resources voorspelbaar, veilig en observeerbaar maken voor cloudteams.
Grote providers willen differentiatie en dichte integratie over netwerkchips, datacenter-opslagcontrollers en aangepaste acceleratie. Verwacht meer semi-custom programma’s waarbij een standaardbouwsteen (SerDes, Ethernet-switching, NVMe) wordt gekoppeld aan platform-specifieke features, deployment tooling en lange supportvensters.
Prestaties per watt zullen de kopregel zijn, vooral nu power limits groei remmen. Beveiligingsfeatures verschuiven dichter naar het datapad (inline-encryptie, secure boot, attestation). Tot slot zullen upgradepaden belangrijk zijn: kun je nieuwe bandbreedte, CXL-revisies of offload-features adopteren zonder het hele platform te herontwerpen — of bestaande racks compatibiliteit te laten verliezen?
Marvell richt zich vooral op de “data path”-laag in clouddatacenters: netwerken (NICs/DPUs, switch-silicium), opslagcontrollers (NVMe en aanverwante functies) en gespecialiseerde acceleratieblokken (crypto, packet processing, compressie, telemetry). Het doel is data op schaal te verplaatsen, te beschermen en te beheren zonder de hoofd-CPU’s te belasten.
Omdat algemene CPU’s flexibel zijn, maar inefficiënt voor repetitieve, volumineuze infrastructuurtaken zoals packetverwerking, encryptie en opslagprotocolafhandeling. Het offloaden van deze taken naar toegewijd silicium verbetert:
Een Smart NIC is een netwerkkaart die meer doet dan alleen zenden/ontvangen: hij heeft extra rekenkracht om netwerkfuncties op de kaart zelf uit te voeren. Een DPU gaat verder en fungeert als een toegewijde "infrastructuurcomputer" in de server: meerdere cores, hardware-accelerators en isolatiefuncties om databeweging en beveiliging te beheren zonder op de host-CPU te steunen.
Veelvoorkomende offloads zijn:
Dit vermindert CPU-overhead en helpt latency onder belasting te stabiliseren.
Het meeste verkeer is “east–west” binnen het datacenter: service-naar-service oproepen, opslagreplicatie, database/cache-verkeer en gedistribueerde AI-workloads. Dat interne verkeer heeft voorspelbare latency en hoge doorvoer nodig, waardoor meer verwerking in NICs/DPUs en switch-silicium wordt geplaatst om consistente prestaties op schaal te behouden.
De meeste hyperscale-datacenters gebruiken een leaf-spine (ToR + spine) topologie:
Switch-silicium moet pakketten doorsturen, bursts bufferen, QoS afdwingen en telemetry leveren—op lijnsnelheid.
Een opslagcontroller zit tussen flash en de rest van het systeem en regelt het werk dat opslag snel en betrouwbaar maakt:
Veel controllers versnellen ook , en zodat opslag de host-CPU niet monopoliseert.
NVMe is ontworpen voor flash: lage overhead en hoge paralleliteit (meerdere queues en veel gelijktijdige operaties). In cloudomgevingen gaat het vaak om consistente lage latency onder belasting, niet alleen piekdurchvoer—vooral wanneer duizenden kleine I/O’s tegelijk op gedeelde opslag landen.
PCIe is de interne hoge-snelheidsverbinding voor NICs, DPUs, SSDs, GPU’s en accelerators. CXL gebruikt dezelfde fysieke laag maar voegt efficiëntere manieren toe om geheugenachtige resources te delen.
In de praktijk maken PCIe/CXL mogelijk:
Vraag om bewijzen die aan reële workloads en operationele vereisten zijn gekoppeld:
Integratie-inspanning is vaak net zo doorslaggevend als ruwe prestaties.