了解 Marvell 的数据基础设施硅如何支持云网络、存储与定制加速——在幕后为更快速、更高效的数据中心提供动力。

大多数人认为“云”只是服务器。实际上,云数据中心是一个巨大的系统,用来以高速移动、存储和保护数据。数据基础设施硅是处理这些数据密集型任务的一组专用芯片,让主 CPU 无需处理这些工作。
Marvell 专注于这层“中间”部分:连接计算与网络与存储的芯片,加速常见的数据中心任务,并在负载下保持数据流动的可预测性。
如果你从上到下想象一个云机架,Marvell 的设备通常位于:
这些既不是通常意义上的“应用”,也不是“服务器”本身——它们是硬件构件,使成千上万台服务器能像一个一致的服务那样协同工作。
当基础设施硅完成它的工作时,你感觉不到它的存在。页面加载更快、视频缓冲更少、备份按时完成——但用户看不到网络卸载引擎、存储控制器或交换结构在背后发挥作用。这些芯片默默地降低延迟、释放 CPU 周期,并使性能在负载下更稳定。
Marvell 的角色可大致分为三类:
这就是让云服务在表面上看起来简单的“静默”硅。
云应用看起来是“软件定义”的,但物理工作仍旧在满是服务器、交换机和存储的机架中完成。随着需求增长,云不能在所有任务上依赖通用 CPU,否则在成本和效率上会遇到硬性上限。
AI 训练与推理在数据中心内部移动巨量数据。视频流、备份、分析和 SaaS 平台持续产生后台负载。即使计算资源可用,瓶颈往往转为以足够快地移动、过滤、加密和存储数据。
大多数云流量从未触及公网。它在服务间“东西向”流动:微服务互调、数据库读取、缓存更新、存储复制和分布式 AI 工作负载。这类内部流量需要可预测的延迟和高吞吐,促使网络与存储硬件在数据路径附近做更多处理。
电力与空间并非无限。如果云提供商能将包处理、加密、压缩或存储校验等工作卸载到专用硅上,CPU 就能减少处理开销。这会提升:
云平台越来越少通过增加通用内核来扩展,而是采用专用芯片——Smart NIC/DPU、交换硅、存储控制器和加速器——来处理重复且高频的基础设施任务。结果是即便工作负载更消耗数据,云也能更快、更便宜地运行。
云服务器在“基础设施工作”上花费了令人惊讶的时间,而不是运行你的应用。每个数据包都需要移动、检查、记录,有时还需要加密——这些通常由主 CPU 完成。网络卸载把这些杂务转移到专用硬件上,这正是智能网卡(Smart NIC)和 DPU 在现代数据中心(包括采用 Marvell 硅的系统)中出现的原因。
智能网卡(Smart NIC) 是一种不仅能进行基本发送/接收的网卡。除了常见的以太网端口外,它还包含额外的处理(通常是 Arm 内核和/或可编程逻辑),使得某些网络功能可以在卡上运行。
DPU(数据处理单元) 更进一步:它被设计成服务器内部的专用“基础设施计算机”。DPU 通常结合高性能网络、多核 CPU、硬件加速器(加密、包处理)和强隔离功能,从而能在不依赖主机 CPU 的情况下管理数据移动与安全。
一个实用的心智模型:
卸载目标是那些可重复、高流量且会抢占应用 CPU 周期的工作。常见示例包括:
当 CPU 需要“照看”网络时,应用性能会因流量激增、嘈杂邻居或安全任务突发而波动。卸载的好处包括:
在物理上,DPU 通常以 PCIe 插卡 或 OCP NIC 模块的形式出现。它们连接到:
从概念上讲,DPU 成为网络与服务器之间的“交通指挥”,处理策略、加密与交换,使主机 OS 和 CPU 能专注于运行应用。
当你打开一个应用或把数据移动到云端,请求通常不会直接到达“某台服务器”——它会通过一张以太网交换织网,连接数千台服务器,使它们像一个巨大的机器一样协同工作。
多数云数据中心使用“leaf-spine”设计:
这种设计保持路径短且一致,对于规模化性能至关重要。
两个关键指标影响用户体验与成本:
云运营商的目标是在链路繁忙时仍保持延迟稳定,同时推动巨大流量。
以太网交换芯片不仅仅是“转发包”。它必须:
像 Marvell 这样的厂商构建的硅旨在以极高速度可预测地完成这些任务。
从 25/100G 升到 200/400/800G 不只是数字的堆叠。更高速度意味着:
结果是数据中心网络更像是为所有工作负载提供的共享基础设施,而不是“连线”的集合。
当人们谈论云性能时,往往想到 CPU 和 GPU。但大量的“速度”和可靠性取决于位于闪存与系统其余部分之间的存储硅。这一层通常是存储控制器——管理数据如何写入、读取、校验与恢复的专用芯片。
存储控制器是持久化数据的流量指挥:它将传入写请求拆成可管理的块,调度读取以便热点数据快速返回,并持续执行完整性检查,避免损坏的位悄然变成损坏的文件。
它还处理那些让存储在规模下可预测运行的簿记工作:将逻辑块映射到物理闪存位置、平衡磨损以延长驱动寿命,以及在许多应用同时访问同一存储池时保持延迟稳定。
NVMe(Non-Volatile Memory Express)是为快速闪存设计的协议。它普及的原因在于减少开销并支持并行队列——这意味着大量操作可以同时挂起,适合那些成千上万次小读写同时发生的云工作负载。
对于云提供商来说,NVMe 不仅仅是峰值吞吐,更重要的是在负载下持续的低延迟,这让应用保持响应性。
现代控制器通常包含本会消耗 CPU 周期的硬件功能:
存储并不是孤立的子系统——它塑造了应用的行为:
简言之,存储硅将原始闪存变成可靠且高吞吐的云基础设施。
当云提供商升级服务器时,他们不仅仅更换 CPU,还需要那些让 CPU 与网络卡、存储和加速器高效通信的“连接组织”。这就是 PCIe 与 CXL 的重要性:它们保持部件互通,降低升级风险,并帮助数据中心以可预测的方式扩展。
PCIe(Peripheral Component Interconnect Express)是连接以下组件的主要内部链路:
一个有用的比喻:PCIe 就像为高速公路增加车道。更新的 PCIe 世代提升每条车道的速度,更宽的连接(x8、x16)则增加总体容量。对于云运营商,这直接影响计算与为其提供数据的设备之间数据移动的速度。
Marvell 的基础设施硅常位于这些 PCIe 连接的一端——在网卡、DPU、存储控制器或交换的邻近组件中,因此 PCIe 能力常常成为性能升级的实际限制或推动力。
CXL(Compute Express Link)建立在 PCIe 的物理连接之上,但增加了设备更高效共享类内存资源的方式。通俗地说,CXL 让服务器把某些外部资源(如内存扩展或池化内存)当作本地扩展来使用,而不是远端设备。
回报不仅仅是“更快”。PCIe 与 CXL 促成:
连接标准虽不吸引头条,但它们强烈影响云多快能采用更好网络、存储与加速方案。
“定制加速”并不总是意味着在服务器上绑上巨大的通用 GPU。更常见的是增加小型、专用的计算单元来加速某个重复任务——从而让 CPU 专注于运行应用。
云工作负载差异巨大:以存储为主的数据库节点与流媒体边缘盒或防火墙设备的瓶颈不同。面向用途的硅直接针对这些瓶颈——通常通过把功能迁移到硬件执行,使其更快、更稳定且占用更少 CPU 开销。
一些在数据中心中常见的类别:
大型云团队通常从分析入手:请求在哪卡住,哪些任务每秒重复数百万次?然后决定采用可编程引擎(更易适应)还是定制功能块(效率更高)。像 Marvell 这样的供应商通常提供网络、安全与存储接口等构建模块,使得“定制”部分能集中于平台特定的热点路径。
定制功能通常在每瓦性能与确定性上占优,但若工作负载变化则难以重用。更可编程的选项易于演进,但可能更耗电且留有性能空间。最佳设计混合两者:灵活的控制面与关键处的硬件快速路径。
在数据中心,电力往往是真正的天花板——不是你能买到多少服务器,而是你能供应与散热多少电力。当机房到达功率上限时,唯一的扩展方式就是从每瓦中挖掘出更多有用工作量。
通用 CPU 灵活,但在包处理、加密、存储协议处理或遥测等重复基础设施任务上并不高效。面向基础设施的专用硅(如智能网卡/DPU、交换与存储控制器)能用更少的周期与更少的浪费完成这些工作。
能量上的胜利通常是间接的:如果卸载降低了 CPU 利用率,你可以用更少的内核、更低的频率或更少的服务器运行同样工作。这还能降低内存压力与 PCIe 流量,进一步削减功耗。
每瓦都会变成热。更多热意味着更快的风扇、更高的冷却流量和更严格的机架级规划。更高密度的机架很有吸引力,但前提是你能一致地冷却它们。这就是为什么芯片选择不仅关乎原始吞吐:一个在高负载下能更节能的组件,能让运营者在相同占地内塞入更多容量而不产生热点。
效率数据容易被市场化,但难以比较。看到“更好的每瓦性能”时,请关注:
最可信的声明将瓦数与具体、可重复的工作负载绑定,并展示服务器或机架级别发生了什么变化,而不仅仅是规格表上的数字。
云提供商在同一物理机器上共享多个客户,因此安全不能“事后添加”。很多安全性是在芯片级别强制执行的——在智能网卡/DPU、云网络芯片、以太网交换硅和数据中心存储控制器中——在那里硬件卸载可以以线速应用保护措施。
大多数基础设施硅包含一个硬件根信任:一段小而不可变的逻辑与密钥,用来在其他任何东西启动前验证固件。通过安全启动,芯片会校验其固件(有时还包括主机的启动组件)的加密签名,拒绝运行被篡改或未知的代码。
这很重要,因为被攻破的 DPU 或存储控制器可以位于服务器与网络/存储织网之间。安全启动降低了该层隐藏性持久化的风险。
加密常在硅中直接加速,以免占用大量 CPU:
因为是在线的,安全性并不必然意味着更慢的存储网络。
多租户云依赖严格隔离。基础设施芯片可通过硬件队列、内存保护、虚拟功能与策略执行来帮助强制隔离——使得一个租户的流量或存储请求无法窥视另一个租户的内容。这在 DPU 处理虚拟网络或在 PCIe 设备跨工作负载共享时尤其重要。
可靠性不仅仅是“无故障”——还包括更快的检测与恢复。许多数据基础设施硅设计包含遥测计数器、错误报告、包追踪钩子与健康指标,云团队可以将这些数据喂入监控系统。当出现丢包、延迟突增、链路错误或重试风暴时,这些内建信号有助于快速定位问题是在以太网交换、DPU 还是存储控制器上,从而缩短故障排查时间并提升整体可用性。
想象一个简单动作:你打开购物应用并点击“查看订单历史”。这个请求穿过多个系统——每一步都是潜在延迟点。
智能网卡/DPU 与专用基础设施硅(包括像 Marvell 的方案)将可重复的工作从通用 CPU 转走:
云运营者不会仅仅因为某块芯片“更快”就选它——他们在工作量巨大、可重复且值得做成专用硬件时才选用专用硅。专用硅在大规模(数百万次相似请求)、性能需求可预测(稳定流量、已知协议)且小幅度效率提升能在整车队带来实际节省时最有价值。
团队通常将最大瓶颈映射到具体功能:网络路径的包处理与安全、I/O 路径的存储转换与数据保护,或加速块中的压缩/加密/AI 原语。关键问题是该任务能否卸载而不破坏现有软件模型。如果平台依赖特定 Linux 特性、虚拟交换行为或存储语义,芯片必须契合这些假设。
询问清楚:
基准重要,但只有当它们镜像生产时才有意义:真实的包混合、真实的存储队列深度与现实的租户隔离。功耗应以“每瓦工作量”来评估,而非峰值吞吐——尤其在机架受功率限制时。
集成工作量常常是决定因素。一块纸面上好 10% 的芯片,若更难部署、监控与补丁,会输给更容易管理的方案。
云团队通过偏好标准(以太网、NVMe、PCIe/CXL)、文档完备的 API 与互操作的管理工具来降低风险。即便使用供应商特性(包括 Marvell 与同行),他们也尽量让上层控制平面可移植,从而在不迫使完整平台重写的情况下更换硬件。
同样的原则适用于软件层面:当你构建将运行于这些基础设施上的服务时,保持架构可移植有助于未来迁移。像 Koder.ai 这样的工具可以通过聊天驱动的工作流加速 Web 后端(Go + PostgreSQL)与 React 前端的原型制作,同时允许团队导出源代码并以符合自身云与合规需求的方式部署。
云基础设施硅正从“可选的加速”向“基础管线”转变。随着更多服务变得延迟敏感(AI 推理、实时分析、安全检查),用于高效处理网络、存储与数据移动的芯片将和 CPU 一样重要。
更高带宽的网络不再是特殊层级——而是预期。这推动以太网交换、分组处理、DPU 与智能网卡向更快端口、更低延迟与更好拥塞控制演进。像 Marvell 这样的厂商会继续在硬件中卸载更多工作(加密、遥测、虚拟交换),同时尽量不增加运维复杂性。
PCIe 与 CXL 将越来越多地实现解耦:池化内存与加速器,使机架可以按工作负载“组合”。硅的机会不仅在于 CXL 物理层(PHY)——还在于控制器、交换与固件,使池化资源对于云团队可预测、安全且可观测。
大型供应商寻求差异化与更紧密的集成,跨云网络芯片、数据中心存储控制器与定制加速会出现更多半定制项目。预期是将标准构建模块(SerDes、以太网交换、NVMe)与平台特定功能、部署工具与长期支持相结合。
每瓦性能将成为头条指标,尤其当功率限制制约扩展时。安全特性将更贴近数据路径(在线加密、安全启动、认证)。最后,升级路径很关键:你能否在不重设计整个平台或破坏现有机架兼容性的前提下,采用更高带宽、更新的 CXL 规范或新的卸载特性?
Marvell 主要瞄准云数据中心的“数据路径”层:网络(NIC/DPUs、交换芯片)、存储控制器(NVMe 及相关功能),以及专用加速模块(加密、分组处理、压缩、遥测)。目标是在不占用主 CPU 周期的情况下,大规模地移动、保护和管理数据。
因为通用 CPU 在重复且高流量的基础设施工作(如分组处理、加密和存储协议处理)上效率不高。将这些任务卸载到专用硅上能带来:
智能网卡(Smart NIC)是在网卡上增加额外计算能力以运行网络功能的设备。DPU(数据处理单元)更进一步:它像服务器内的专用“基础设施计算机”,通常包含多核 CPU、硬件加速器(加密、分组处理)和强隔离特性。
常见被卸载的任务包括:
这些卸载能减少 CPU 负担并帮助在负载下稳定延迟。
大多数流量在数据中心内部以“东西向”流动:服务间调用、存储复制、数据库/缓存流量和分布式 AI 工作负载。这类内部流量需要可预测的延迟和高吞吐,促使更多处理发生在 NIC/DPU 和交换芯片上以维持规模化性能一致性。
大规模数据中心通常采用 leaf-spine(ToR + spine) 拓扑:
交换芯片需要在线速下转发包、缓冲突发、执行 QoS 并提供遥测,这些都会直接影响云性能。
存储控制器位于闪存与系统其余部分之间,负责使存储既快速又可靠:
许多控制器还在硬件中加速加密、压缩和奇偶校验/纠删码辅助,以免主机 CPU 被存储任务耗尽。
NVMe 为闪存设计,开销低且支持高并行(多队列与大量并发操作)。在云环境中,NVMe 的优势不仅是峰值吞吐,而是在负载下保持一致的低延迟——这在成千上万小型 I/O 并发发生时尤其关键。
PCIe 是连接 NIC、DPU、SSD、GPU 与加速卡的机内高速互连。CXL 建立在 PCIe 的物理层之上,但增加了更高效的内存共享方式。
实际上,PCIe/CXL 带来的好处包括:
应要求以现实工作负载和运维需求为依据证明效果:
集成工作量往往比纸面性能更能决定最终选择。