Lär dig hur Marvells datainfrastruktur-kisel stöder molnnätverk, lagring och specialacceleration—och driver snabbare, mer effektiva datacenter i det tysta.

De flesta tänker att “molnet” bara är servrar. I verkligheten är ett molndatacenter ett gigantiskt system för att flytta, lagra och skydda data i hög hastighet. Datainfrastruktur-kisel är den uppsättning specialiserade chip som hanterar dessa dataintensiva jobb så att huvud-CPU:erna inte behöver göra det.
Marvell fokuserar på detta "mellanlager": chipen som kopplar ihop beräkning med nätverk och lagring, accelera vanliga datacenteruppgifter och håller allt flytande förutsägbart under belastning.
Om du föreställer dig en moln-rack uppifrån och ned sitter Marvell-enheter ofta:
Det här är varken "appar" eller vanliga "servrar"—det är hårdvarubitarna som låter tusentals servrar bete sig som en samlad tjänst.
När infrastrukturen gör sitt jobb märker du det inte direkt. Sidor laddas snabbare, video buffrar mindre och backuper blir klara i tid—men användaren ser aldrig nätverks-offload-motorn, lagringskontrollern eller switch-fabriken som möjliggör det. Dessa chip minskar tyst latens, frigör CPU-cykler och gör prestandan mer konsekvent.
Marvells roll är lättast att gruppera i tre fack:
Det är den "tysta" kiseln som får molntjänster att kännas enkla i ytan.
Molnappar känns "software-defined", men det fysiska arbetet sker fortfarande i rack fulla av servrar, switchar och lagring. När efterfrågan växer kan moln inte lita på allmänna CPU:er för varje uppgift utan att stöta på hårda gränser i kostnad och effektivitet.
AI-träning och inferens flyttar enorma dataset runt i datacentret. Videoströmmar, backuper, analys och SaaS-plattformar lägger konstant bakgrundsbelastning. Även när beräkning finns tillgänglig, flyttas flaskhalsen ofta till att flytta, filtrera, kryptera och lagra data tillräckligt snabbt.
Det mesta av molntrafiken rör aldrig det publika internet. Den färdas "east–west" mellan tjänster: microservice-anrop, databasläst, cache-uppdateringar, lagringsreplikering och distribuerade AI-jobb. Den interna trafiken behöver förutsägbar latens och hög genomströmning, vilket pressar nätverks- och lagringshårdvara att göra mer bearbetning nära dataplanet.
Kraft och utrymme är inte obegränsade. Om en molnleverantör kan offloada arbete som paketbearbetning, kryptering, kompression eller lagringschecksummor till dedikerad kisel, spenderar CPU mindre tid på overhead. Det förbättrar:
Istället för att skala genom att lägga till fler allmänna kärnor använder molnplattformar alltmer specialbyggda chip—Smart NICs/DPUs, switch-kisel, lagringskontroller och acceleratorer—för att hantera upprepade, volymintensiva infrastrukturoppgifter. Resultatet blir ett moln som är snabbare och billigare att driva, även när arbetslaster blir mer datahungriga.
Molnservrar spenderar oväntat mycket tid på "infrastrukturarbete" istället för att köra din applikation. Varje paket måste flyttas, inspekteras, loggas och ibland krypteras—ofta av huvud-CPU:n. Nätverks-offload flyttar dessa sysslor till specialiserad hårdvara, där Smart NICs och DPUs dyker upp i många moderna datacenter (inklusive system byggda med Marvell-kisel).
En Smart NIC är ett nätverkskort som gör mer än grundläggande skicka/motta. Förutom vanliga Ethernet-portar innehåller det extra bearbetning (ofta Arm-kärnor och/eller programmerbar logik) för att köra nätverksfunktioner på kortet.
En DPU (Data Processing Unit) tar ett steg längre: den är utformad för att fungera som en dedikerad "infrastruktur-dator" inne i servern. En DPU kombinerar vanligen högpresterande nätverk, flera CPU-kärnor, hårdvaruacceleratorer (krypto, paketbearbetning) och starka isoleringsfunktioner så att den kan hantera dataförflyttning och säkerhet utan att luta sig på värd-CPU:n.
En praktisk mental modell:
Offload riktar sig mot repetitivt, högvolymarbete som annars skulle ta CPU-cykler från applikationer. Vanliga exempel inkluderar:
När CPU:n måste "vakta" nätverk kan applikationsprestanda svänga beroende på trafiktoppar, bullriga grannar eller säkerhetsbelastning. Offload hjälper genom att:
Fysiskt kommer DPUs oftast som ett PCIe add-in-kort eller en OCP NIC-modul. De ansluts till:
Konceptuellt blir DPU:n en "trafikpolis" mellan nätverket och servern—hanterar policy, kryptering och switching så värdens OS och CPU:er kan fokusera på att köra applikationer.
När du öppnar en app eller flyttar data till molnet, färdas din förfrågan vanligtvis genom ett nät av Ethernet-switchar som kopplar ihop tusentals servrar som om de vore en enda stor maskin.
De flesta molndatacenter använder en "leaf-spine"-design:
Denna design håller vägarna korta och konsekventa, vilket är avgörande för prestanda i stor skala.
Två siffror formar användarupplevelse och kostnad:
Molnoperatörer försöker hålla latensen stabil även när länkar är upptagna, samtidigt som de trycker igenom stora mängder trafik.
En Ethernet-switch-chip gör mer än att bara "skicka paket." Den måste:
Leverantörer som Marvell bygger kisel som fokuserar på att göra dessa uppgifter förutsägbart i mycket höga hastigheter.
Att gå från 25/100G till 200/400/800G är inte bara en siffra. Högre hastigheter kan innebära:
Resultatet är ett datacenternätverk som känns mindre som "kablar" och mer som delad infrastruktur för varje arbetsbelastning ovanpå.
När folk pratar om molnprestanda föreställer de sig ofta CPU:er och GPU:er. Men en stor del av "hastigheten" (och tillförlitligheten) avgörs av lagringskiseln som sitter mellan flash-enheter och resten av servern. Det lagret är typiskt en lagringskontroller—specialbyggda chip som styr hur data skrivs, läses, kontrolleras och återställs.
En lagringskontroller är trafikdirigenten för persistent data. Den delar upp inkommande skrivningar i hanterbara bitar, schemalägger läsningar så varm data returneras snabbt och kör ständiga integritetskontroller så korrupta bitar inte tyst blir till korrupta filer.
Den hanterar också det oansenliga bokföringsarbetet som gör lagring förutsägbar i skala: mappar logiska block till fysiska flash-platser, balanserar wear så diskarna håller längre och håller latensen jämn när många applikationer rör vid samma lagringspool.
NVMe (Non-Volatile Memory Express) är ett protokoll designat för snabb flashlagring. Det blev vanligt eftersom det minskar overhead och stöder parallella "kösystem"—vilket betyder att många operationer kan vara igång samtidigt, vilket passar molnarbetslaster där tusentals små läs/skriv händer samtidigt.
För molnleverantörer handlar NVMe inte bara om maximal genomströmning; det handlar om konsekvent låg latens under belastning, vilket håller applikationer responsiva.
Moderna kontrollers innehåller ofta hårdvarufunktioner som annars skulle belasta CPU:n:
Lagring är inte en isolerad del—den formar hur applikationer beter sig:
Kort sagt, lagringskisel förvandlar rå flash till pålitlig, höggenomströmningsinfrastruktur.
När molnleverantörer uppgraderar servrar byter de inte bara CPU:er. De behöver också det "bindemedel" som låter CPU:er prata med nätverkskort, lagring och acceleratorer utan att kräva en komplett redesign. Därför spelar standarder som PCIe och CXL roll: de håller delar kompatibla, gör uppgraderingar mindre riskfyllda och hjälper datacenter att skala på ett förutsägbart sätt.
PCIe (Peripheral Component Interconnect Express) är huvudlänken som används för att ansluta komponenter som:
En enkel modell: PCIe är som att lägga till fler körfält på en motorväg. Nyare PCIe-generationer ökar hastigheten per körfält, och bredare länkar (x8, x16 osv.) ger mer total kapacitet. För molnoperatörer påverkar detta direkt hur snabbt data kan röra sig mellan beräkning och de enheter som matar den.
Marvells infrastruktur-kisel sitter ofta i ena änden av dessa PCIe-anslutningar—inne i ett NIC, DPU, lagringskontroller eller switch-nära komponent—så PCIe-kapacitet kan vara en praktisk begränsare (eller möjliggörare) för prestandauppgraderingar.
CXL (Compute Express Link) bygger på PCIe:s fysiska anslutning men lägger till nya sätt för enheter att dela minnesliknande resurser med lägre overhead. Enkelt uttryckt hjälper CXL servrar att behandla vissa externa resurser (som minnesexpansion eller poolat minne) mer som en lokal förlängning än en avlägsen enhet.
Vinsten är inte bara "snabbare." PCIe och CXL möjliggör:
Anslutningsstandarder får inga stora rubriker, men de påverkar starkt hur snabbt moln kan anta bättre nätverk, lagring och acceleration.
"Specialanpassad acceleration" i molninfrastruktur betyder inte alltid en stor, generell GPU. Oftare innebär det att lägga till små, specialiserade beräkningsblock som snabbar upp en upprepad uppgift—så CPU:erna kan fokusera på att köra applikationer.
Molnarbetslaster varierar mycket: en lagringstung databasserver har andra flaskhalsar än en videostreaming-edge eller en brandväggsbox. Syftesbyggd kisel riktar in sig direkt på dessa flaskhalsar—ofta genom att flytta en funktion till hårdvara så den kör snabbare, mer konsekvent och med mindre CPU-overhead.
Några praktiska kategorier återkommer:
Stora molnteam börjar ofta med profilering: var stannar förfrågningar, och vilka uppgifter upprepas miljoner gånger per sekund? Sedan väljer de om de ska accelerera via ett programmerbart motor (mer anpassningsbart) eller fixed-function-blocks (högst effektivitet). Leverantörer som Marvell tillhandahåller ofta byggstenar—nätverk, säkerhet, lagringsgränssnitt—så den "specialanpassade" delen kan fokusera på plattformens specifika heta vägar.
Fixed-function-acceleration vinner ofta på prestanda per watt och determinism, men är svårare att återanvända om arbetslaster förändras. Mer programmerbara alternativ är enklare att vidareutveckla, men kan kosta mer kraft och lämna viss prestanda outnyttjad. De bästa designerna blandar båda: flexibla kontrollplaner med hårdvaru-snabba vägar där det räknas.
Ström är ofta den verkliga gränsen i ett datacenter—inte hur många servrar du kan köpa, utan hur mycket elektricitet du kan leverera och bli av med som värme. När en anläggning når sin effektgräns är det enda sättet att växa att få mer nyttigt arbete ur varje watt.
Allmänna CPU:er är flexibla men inte alltid effektiva på repetitiva infrastrukturoppgifter som pakethantering, kryptering, lagringsprotokollbehandling eller telemetri. Syftesbyggd infrastrukturskisel (t.ex. Smart NICs/DPUs, switchar och lagringskontrollers) kan utföra dessa uppgifter med färre cykler och mindre förlorat arbete.
Energivinsten är ofta indirekt: om offload minskar CPU-användningen kan du köra samma arbetsbelastning med färre CPU-kärnor aktiva, lägre klockfrekvenser eller färre servrar. Det kan också minska minnes- och PCIe-tryck, vilket ytterligare skär ner effektförbrukningen.
Varje watt blir värme. Mer värme betyder snabbare fläktar, högre kylflöde och striktare rack-planering. Högre densitets-rack kan vara attraktiva, men bara om du kan kyla dem konsekvent. Därför spelar chip-val roll bortom rå genomströmning: en komponent som drar mindre effekt (eller förblir effektiv vid hög belastning) låter operatörer packa mer kapacitet i samma fotavtryck utan att skapa hotspots.
Effekt-siffror är lätta att marknadsföra och svåra att jämföra. När du ser "bättre prestanda per watt", titta på:
De mest trovärdiga påståendena kopplar watt till en specifik, reproducerbar arbetsbelastning och visar vad som förändrades på server- eller racknivå—inte bara ett datablad.
Molnleverantörer delar samma fysiska maskiner mellan många kunder, så säkerhet kan inte läggas på i efterhand. Mycket av den hanteras ner på chip-nivå—i smart NICs/DPUs, molnnätverkschip, Ethernet-switch-kisel och datacenter-lagringskontrollers—där hårdvaru-offload kan tillämpa skydd i full linjehastighet.
De flesta infrastrukturchip inkluderar en hårdvarurot: en liten, oföränderlig logikdel och nycklar som kan verifiera firmware innan något annat startar. Med secure boot kontrollerar chippet kryptografiska signaturer på sin firmware (och ibland på värdens boot-komponenter), och vägrar köra modifierad eller okänd kod.
Detta är viktigt eftersom en komprometterad DPU eller lagringskontroller kan ligga "mellan" dina servrar och nätverk-/lagringsfabricen. Secure boot minskar risken för dold persistens på det lagret.
Kryptering accelereras ofta direkt i kisel så den inte stjäl CPU-tid:
Eftersom det är inline behöver säkerhet inte betyda långsammare lagringsnätverk.
Multitenant-moln förlitar sig på strikt separation. Infrastrukturchip kan hjälpa till att upprätthålla isolation med hårdvaruköer, minnesskydd, virtuella funktioner och policygenomförande—så en hyresgästs trafik eller lagringsförfrågningar inte kan snoka i en annans. Detta är särskilt viktigt när DPUs hanterar virtuellt nätverk och när PCIe-enheter delas över arbetslaster.
Tillförlitlighet är inte bara "inga fel"—det är snabbare upptäckt och återställning. Många data-infrastruktur-kiseldesigner inkluderar telemetri-räknare, felrapportering, paketspårningskrokar och hälso-metriker som molnteam kan mata in i övervakningssystem. När något går fel (drops, latensspikar, link-fel, retry-stormar) hjälper dessa inbyggda signaler att bedöma om problemet ligger i Ethernet-switching, DPU:n eller lagringskontrollern—vilket kortar tid till åtgärd och förbättrar drifttid.
Föreställ dig en enkel handling: du öppnar en shoppingapp och trycker på "Visa orderhistorik." Den förfrågan färdas genom flera system—och varje steg är en möjlighet till fördröjning.
Din förfrågan når molnkanten och load balancern. Paketet routas till en frisk applikationsserver.
Det når applikationshosten. Traditionellt hanterar värd-CPU mycket av "plumbing": kryptering, brandväggsregler, virtuellt nätverk och köhantering.
Appen frågar en databas. Den förfrågan måste färdas över datacenternätverket till en databaskluster och sedan hämta data från lagring.
Svaret återvänder på samma sätt. Resultaten paketeras, krypteras och skickas tillbaka till din telefon.
Smart NICs/DPUs och specialiserad infrastrukturskisel (inklusive lösningar från leverantörer som Marvell) flyttar upprepade uppgifter bort från allmänna CPU:er:
Molnoperatörer väljer inte infrastrukturchip för att de är "snabbare" i abstrakt mening—de väljer dem när arbetet är stort, upprepat och värt att flytta in i dedikerad hårdvara. Specialiserad kisel är mest värdefull i stor skala (miljontals liknande förfrågningar), när prestandabehoven är förutsägbara (stabila trafikmönster, kända protokoll) och när små effektvinster blir betydande besparingar över hela flottan.
Team brukar kartlägga sina största flaskhalsar till specifika funktioner: paketbearbetning och säkerhet i nätvägen, lagringstranslation och dataskydd i I/O-vägen, eller kompression/krypto/AI-primitiver i acceleratorblock. En nyckelfråga är om jobbet kan offloadas utan att bryta mjukvarumodellen. Om plattformen förlitar sig på viss Linux-funktionalitet, virtuella switchbeteenden eller lagringssemantik måste chippet passa dessa antaganden.
Be om klarhet i:
Benchmarks betyder något, men bara om de speglar produktion: verkliga paketmixar, verkliga lagringskö-djup och realistisk tenant-isolering. Effekt utvärderas som "arbete per watt", inte toppgenomströmning—särskilt när rack har effektbegränsningar.
Integrationsinsatsen är ofta avgörande. Ett chipp som är 10% bättre i specifikation kan förlora mot ett som är enklare att provisionera, övervaka och patcha i stor skala.
Molnteam minskar risk genom att föredra standarder (Ethernet, NVMe, PCIe/CXL), väldokumenterade API:er och interoperabelt management-verktyg. Även när de använder leverantörsfunktioner (inklusive de från Marvell och konkurrenter) försöker de hålla högre nivåns kontrollplan portabel så hårdvara kan bytas utan att kräva en full plattformsomskrivning.
Samma princip gäller på mjukvarusidan: när du bygger tjänster som så småningom ska köras på denna infrastruktur, hjälp till att hålla arkitekturer portabla. Plattformar som Koder.ai kan snabba upp prototypande och iteration av webb-backends (Go + PostgreSQL) och React-frontends via en chattdriven arbetsflöde, samtidigt som team kan exportera källkod och distribuera enligt sina egna moln- och efterlevnadskrav.
Molninfrastrukturskisel går från "trevligt att ha" acceleration till grundläggande rörledningar. När fler tjänster blir latenskänsliga (AI-inferens, realtidsanalys, säkerhetsinspektion) kommer chip som hanterar nätverk, lagring och dataförflyttning effektivt att bli lika viktiga som CPU:er.
Högre bandbreddsnätverk är inte längre en specialnivå—de förväntas. Det driver Ethernet-switching, paketbearbetning och DPUs/Smart NICs mot snabbare portar, lägre latens och bättre congestion control. Leverantörer som Marvell kommer fortsätta konkurrera om hur mycket arbete som kan offloadas i hårdvara (kryptering, telemetri, virtuell switching) utan att öka driftkomplexiteten.
PCIe och CXL-anslutning kommer i högre grad möjliggöra disaggregation: poola minne och acceleratorer så rack kan "komponeras" per arbetsbelastning. Kiselmöjligheten är inte bara CXL-PHY:t—det är kontrollers, switching och firmware som gör poolade resurser förutsägbara, säkra och observerbara för molnteam.
Stora leverantörer vill ha differentiering och tightare integration över molnnätverkschip, datacenter-lagringskontrollers och specialacceleration. Förvänta fler semi-anpassade program där en standard byggsten (SerDes, Ethernet-switching, NVMe) paras med plattformspecifika funktioner, distributionsverktyg och långa supportfönster.
Prestanda per watt blir huvudmåttet, särskilt när effektbegränsningar sätter stopp för expansion. Säkerhetsfunktioner flyttas närmare dataplanet (inline-kryptering, secure boot, attestation). Slutligen kommer uppgraderingsvägar vara viktiga: kan du anta ny bandbredd, CXL-revisioner eller offload-funktioner utan att redesigna hela plattformen—eller bryta kompatibiliteten med befintliga rack?
Marvell riktar sig huvudsakligen mot "dataflödes"-lagret i molndatacenter: nätverk (NICs/DPUs, switch-kisel), lagringskontroller (NVMe och relaterade funktioner) och specialiserade accelerationsblock (krypto, paketbehandling, kompression, telemetri). Målet är att flytta, skydda och hantera data i stor skala utan att belasta huvudprocessorerna.
Allmänna CPU:er är flexibla men ineffektiva för upprepade, högvolymsinfrastrukturområden som paketbearbetning, kryptering och lagringsprotokoll. Att offloada dessa uppgifter till dedikerad kisel förbättrar:
En Smart NIC är ett nätverkskort som har extra beräkningskraft för att köra nätverksfunktioner på kortet. En DPU tar det längre: den fungerar som en dedikerad "infrastruktur-dator" i servern med flera kärnor, hårdvaruacceleratorer och isolation så den kan hantera dataförflyttning och säkerhet utan att belasta värd-CPU:n.
Vanliga offloads inkluderar:
Detta minskar CPU-belastningen och hjälper till att stabilisera latens under belastning.
Det mesta trafiken är "east–west" inom datacentret: tjänst-till-tjänst-anrop, lagringsreplikering, databas-/cache-trafik och distribuerade AI-arbeten. Den här interna trafiken behöver förutsägbar latens och hög genomströmning, vilket gör att mer bearbetning flyttas till NICs/DPUs och switch-kisel för att hålla prestandan konsekvent i stor skala.
De flesta hyperskaliga datacenter använder en leaf-spine (ToR + spine)-topologi:
Switch-kisel måste vidarebefordra paket, buffra för att hantera toppar, upprätthålla QoS och ge telemetri—i linjehastighet.
En lagringskontroller sitter mellan flashen och resten av systemet och hanterar det arbete som gör lagring snabb och pålitlig:
Många accelererar även , och så att lagring inte tar över värd-CPU:n.
NVMe är utformat för flash med låg overhead och hög parallellism (flera köer och många samtidiga operationer). I molnmiljöer handlar vinsten ofta om konsekvent låg latens under belastning, inte bara maximal genomströmning—särskilt när tusentals små I/O-operationer träffar delad lagring samtidigt.
PCIe är den interna högprestandabussen för NICs, DPUs, SSD:er, GPUs och acceleratorer. CXL använder samma fysiska lager men lägger till effektivare sätt att dela minnesliknande resurser.
I praktiken möjliggör PCIe/CXL:
Be om bevis kopplade till realistiska arbetslaster och driftkrav:
Integrationsinsatsen avgör ofta mer än rå prestanda.
Bildar en förenklad kedja: din förfrågan når kanten och load balancern, routas till en applikationsserver, host-CPU:n brukar hantera mycket "plumbing" (kryptering, virtuellt nätverk, köhantering), appen frågar databasen, lagring levererar data och svaret skickas tillbaka.
Offload och acceleration tar bort flaskhalsar:
Specialiserat kisel är mest värdefullt i stor skala—när arbetet är stort, upprepat och värt att lägga i hårdvara. Nyckelprinciper:
Standarder (Ethernet, NVMe, PCIe/CXL) och väldokumenterade API:er hjälper undvika inlåsning.
Resultatet är lägre tail-latens, högre genomströmning per server och jämnare prestanda.