Marvellのデータインフラ向けシリコンがクラウドのネットワーク、ストレージ、アクセラレーションをどのように支え、データセンターをより高速かつ効率的にしているかを解説します。

多くの人は「クラウド=サーバー」だと考えがちですが、実際にはクラウドデータセンターはデータを高速に移動・保存・保護するための巨大なシステムです。データインフラ向けシリコンとは、そうしたデータ量の多い作業を処理してメインCPUの負担を減らすための専用チップ群のことです。
Marvellはこの「中間層」に注力しています:コンピュートとネットワーク/ストレージを接続し、共通のデータセンター処理を高速化し、負荷下でも予測可能に流れを保つチップです。
ラックを上から下へ見たとき、Marvellのデバイスはしばしば次のような場所にあります:
これらは一般的な「アプリ」や「サーバー」とは違い、何千台ものサーバーを一つの整合したサービスとして動作させるハードウェアの構成要素です。
インフラシリコンが正しく機能している時、ユーザーはそれに気づきません。ページの読み込みが速くなり、動画のバッファが減り、バックアップが時間通りに終わる──しかしユーザーはネットワークオフロードエンジンやストレージコントローラ、スイッチングファブリックがそれを実現していることを見ません。これらのチップは静かにレイテンシを下げ、CPUサイクルを解放し、性能をより一貫させます。
Marvellの役割は大きく三つに分けると分かりやすいです:
これが、表面上はシンプルに見えるクラウドサービスを支える“静かな”シリコンです。
クラウドアプリは「ソフトウェア定義」であるように見えますが、実際の作業はラックに詰まったサーバー、スイッチ、ストレージの物理層で行われます。需要が増えるにつれ、すべてを汎用CPUに頼っていてはコストや効率の面で限界に達します。
AIトレーニングや推論はデータセンター内で大量のデータを移動します。動画配信、バックアップ、アナリティクス、SaaSは常時負荷を加えます。計算資源があっても、ボトルネックはしばしばデータの移動、フィルタ、暗号化、保存を十分な速度で行うことに移ります。
多くのクラウドトラフィックはパブリックインターネットに出ません。サービス間の呼び出しやデータベースの読み出し、キャッシュ更新、ストレージの複製、分散AIワークロードなどが「東西」に流れます。内部トラフィックは予測可能なレイテンシと高スループットが必要であり、ネットワーキングやストレージのハードウェアによりデータパス近傍での処理を求めます。
電力とスペースは無限ではありません。パケット処理、暗号化、圧縮、ストレージチェックサムなどの作業を専用シリコンにオフロードできれば、CPUはオーバーヘッドに使われる時間が減り、次の点が改善します:
汎用コアを増やすのではなく、Smart NIC/DPU、スイッチシリコン、ストレージコントローラ、アクセラレータなどの目的特化型チップを使って反復的で大量のインフラ作業を処理する傾向が強まっています。結果として、ワークロードがよりデータ集約になってもクラウドは速く、安く運用できます。
クラウドサーバーは意外と多くの時間を「インフラ作業」に費やしています。各パケットは移動され、検査され、ログされ、時には暗号化されます—これらはしばしばメインCPUが担当します。ネットワークオフロードはその作業を専用ハードウェアに移し、Smart NICやDPUが現代の多くのデータセンターで重要な役割を果たします(Marvellのシリコンを使うシステムを含む)。
Smart NIC は送受信以上のことをするネットワークインターフェースカードです。通常のEthernetポートに加え、カード上でネットワーク機能を動かすための追加処理(しばしばArmコアやプログラム可能ロジック)を備えます。
DPU(Data Processing Unit) は一歩進み、サーバー内部の専用「インフラコンピュータ」として設計されています。DPUは通常、高性能ネットワーキング、複数コア、ハードウェアアクセラレータ(暗号、パケット処理)、強力な分離機能を組み合わせ、ホストCPUに頼らずデータ移動とセキュリティを管理できます。
実用的なイメージ:
オフロード対象は反復的で大量の仕事で、アプリケーションのCPU時間を奪うものです。一般的な例:
CPUがネットワーキングを“見張る”必要があると、トラフィックの急増やノイジーネイバー、セキュリティ作業のバーストでアプリ性能が変動します。オフロードにより:
物理的にはDPUは通常PCIeのアドインカードまたはOCP NICモジュールとして実装されます。接続先は:
概念的には、DPUはネットワークとサーバーの間の「交通整理役」となり、ポリシーや暗号、スイッチングを処理してホストOSとCPUはアプリ実行に専念できます。
アプリを開いたりクラウドへデータを移したりするとき、リクエストは単に「サーバーへ行く」のではなく、何千ものサーバーを一つの巨大な機械のようにつなぐイーサネットスイッチのファブリックを通ります。
多くのクラウドデータセンターは「リーフ-スパイン」設計を採用しています:
この設計は経路を短く一貫させ、スケール時のパフォーマンスに重要です。
2つの指標がユーザー体験とコストを決めます:
運用者はリンクが混雑してもレイテンシを安定させつつ大量のトラフィックを流すことを目指します。
イーサネットスイッチチップは単に「パケットを転送する」以上のことをします。次を行う必要があります:
Marvellのようなベンダーは、これらのタスクを非常に高速かつ予測可能に行うシリコンを作ります。
25/100Gから200/400/800Gへの移行は単なる数値競争ではありません。より高速なリンクは次を可能にします:
結果としてデータセンターネットワークは単なる"配線"ではなく、上で動くすべてのワークロードの共有インフラのように振る舞います。
クラウド性能を語るとき、多くの人はCPUやGPUを思い浮かべますが、実際にはフラッシュドライブとシステムの間にあるストレージシリコンが速度(と信頼性)を大きく左右します。この層は通常ストレージコントローラで、データの書込み・読み出し・検査・復旧の管理を行います。
ストレージコントローラは永続データの交通整理役です。受け取った書き込みを扱いやすいチャンクに分割し、ホットデータの読み出しを優先し、多数のアプリケーションが同じストレージプールにアクセスしてもレイテンシが安定するよう常に整合性チェックを行います。
また、論理ブロックから物理フラッシュへのマッピング、ウェアバランス、複数アプリの同時アクセス時のレイテンシ維持といった地味だが重要な帳尻合わせも担当します。
NVMe(Non-Volatile Memory Express)はフラッシュ向けに設計されたプロトコルで、オーバーヘッドを減らし並列のキューをサポートします。クラウドではNVMeはピークスループットだけでなく、負荷下での一貫した低レイテンシを実現する点で特に価値があります。
現代のコントローラはCPUサイクルを消費する代わりにハードウェアで次を提供します:
ストレージは孤立したサブシステムではなく、アプリケーションの振る舞いを形作ります:
要するに、ストレージシリコンが生のフラッシュを信頼できる高スループットインフラに変えます。
クラウドプロバイダがサーバーをアップグレードする際、CPUだけを交換するわけではありません。ネットワークカード、ストレージ、アクセラレータとCPUが再設計なしに通信できる「結合組織」が必要です。だからこそPCIeやCXLのような規格が重要で、部品の相互運用性を保ち、アップグレードのリスクを下げ、データセンターの拡張を予測可能にします。
PCIe(Peripheral Component Interconnect Express)は次のようなコンポーネント接続に使われる主要な内部リンクです:
助けになる比喩:PCIeは車線を増やすようなものです。新しい世代は1車線あたりの速度を上げ、x8やx16のような幅で総容量を増やします。クラウド運用者にとって、これが計算とそれを支えるデバイス間のデータ移動速度に直結します。
MarvellのインフラシリコンはしばしばこれらのPCIe接続の一端に位置しており、PCIeの能力が性能アップグレードの実行可能性を左右することがあります。
CXL(Compute Express Link)はPCIeの物理接続を利用しつつ、デバイスがメモリ類似リソースを低オーバーヘッドで共有するための仕組みを追加します。平たく言えば、CXLは外部リソース(メモリ拡張やプールされたメモリ)をローカルの延長のように扱いやすくします。
速くなるだけでなく、PCIeとCXLは次を可能にします:
接続規格は見出しを飾りませんが、クラウドがより良いネットワーキングやストレージ、アクセラレーションを採用する速度を強く左右します。
クラウドインフラにおける「カスタムアクセラレーション」は必ずしも巨大な汎用GPUを意味しません。多くは一つの反復タスクを高速化する小さな専用計算ブロックを追加することを指し、CPUはアプリケーションに専念できます。
クラウドのワークロードは多様です:ストレージ重視のデータベースノードと動画配信エッジボックス、ファイアウォールアプライアンスではボトルネックが異なります。目的特化シリコンはそうしたボトルネックを直接狙い、機能をハードに移すことでより速く、より一貫して、CPU負荷を小さくします。
データセンターで繰り返し見られるカテゴリ:
大規模なクラウドチームは通常、プロファイリングから始めます:どこでリクエストが詰まり、どのタスクが毎秒何百万回も発生しているかを特定します。次に、プログラム可能エンジン(柔軟)か固定機能ブロック(最高効率)かを選びます。Marvellのようなベンダーはネットワーキングやセキュリティ、ストレージインタフェースというビルディングブロックを提供し、「カスタム」部分はプラットフォーム固有のホットパスに集中できます。
固定機能はワット当たりの性能と決定性で有利ですが、ワークロードが変わると使い回しが難しい。プログラム可能な選択肢は進化しやすいが消費電力が高く、性能の一部を犠牲にする可能性があります。最良の設計は両者を混在させ、制御面は柔軟に、ホットパスはハードで高速化します。
電力はデータセンターの実際の天井であることが多く、買えるサーバー数よりむしろ供給・除熱可能な電力量が制約になります。施設が電力上限に達すると、成長はワット当たりの有用仕事を増やすことでしか実現できません。
汎用CPUは柔軟ですが、パケット処理、暗号化、ストレージプロトコル処理、テレメトリといった反復的な作業には効率が悪いです。Smart NIC/DPU、スイッチ、ストレージコントローラのような目的設計シリコンは、これらのタスクを少ないサイクルと無駄の少ない方法で実行できます。
エネルギーの勝ちはしばしば間接的です:オフロードでCPU利用が下がれば、同じワークロードをより少ないコアや低いクロック、あるいは少ないサーバーで回せます。これによりメモリ負荷やPCIeトラフィックも下がり、さらなる電力削減が期待できます。
消費ワットはすべて熱になります。より多くの熱はファンの回転増加、冷却流量の増加、ラックレベルの設計制約を意味します。高密度ラックは魅力的ですが、均一に冷却できないと意味がありません。したがって、チップは純粋なスループットだけでなく、高負荷時でも効率を維持するかどうかが重要です。
「ワット当たり性能が良い」という主張は比較が難しいことが多いです。見るべき点:
もっとも信頼できる主張は、ワットと特定の再現可能なワークロードを紐付け、サーバやラックレベルで何が変わったかを示すものです。
クラウドプロバイダは多数の顧客で物理マシンを共有するため、セキュリティは「後付け」では済みません。多くはチップレベルで強制されます—Smart NIC/DPU、クラウドネットワーキングチップ、イーサネットスイッチングシリコン、ストレージコントローラの中で、ハードウェアオフロードによりフルラインレートでの保護が可能になります。
多くのインフラシリコンはハードウェアルートオブトラストを備えています:不変のロジックと鍵のセットで、ファームウェアを起動前に検証します。セキュアブートではチップがファームウェアの暗号的署名をチェックし、改変されたコードや未知のコードの実行を拒否します。
これは重要です。DPUやストレージコントローラがホストとネットワークの「間」に位置する場合、それらが侵害されると持続的な侵入を許す恐れがあります。セキュアブートはそのリスクを下げます。
暗号化はしばしばシリコン内で加速され、CPU時間を奪いません:
インラインであるため、セキュリティは必ずしもストレージネットワーキングの性能低下を意味しません。
マルチテナントクラウドでは厳格な分離が必要です。インフラチップはハードウェアキュー、メモリ保護、仮想機能、ポリシー適用を通じて隔離を助けます。これにより一方のテナントのトラフィックやストレージ要求が他方を覗き見たり干渉したりするリスクを下げられます。DPUが仮想ネットワーキングを扱う場合やPCIeデバイスを共有する場合は特に重要です。
信頼性とは単に「故障がない」ことではなく、検出と回復が速いことです。多くのデータインフラシリコンはテレメトリカウンタ、エラーレポート、パケットトレースのフック、ヘルスメトリクスを組み込み、クラウドチームが監視システムに取り込めるようにしています。ドロップやレイテンシスパイク、リンクエラー、再試行の嵐が起きたとき、これらの信号は問題がイーサネットスイッチングかDPUかストレージコントローラのどこにあるかを特定するのに役立ち、復旧時間を短縮します。
買い物アプリで「注文履歴を見る」をタップした状況を想像してください。その単一リクエストは複数のシステムを横断し、各段階で遅延の可能性があります。
Smart NIC/DPUや専用インフラシリコン(Marvellなどのソリューションを含む)は反復的作業を汎用CPUから移します:
クラウド運用者は抽象的に「速い」からチップを選ぶのではなく、仕事が大きく反復的で専用化の投資に見合うかを基準に選びます。専用シリコンは数百万件単位の類似リクエストや予測可能なプロトコル、そして小さな効率改善がフリート全体で大きな節約になる状況で最も価値を発揮します。
チームは通常、自分たちの最大ボトルネックを特定し、それを具体的な機能にマッピングします:ネットワーク経路のパケット処理とセキュリティ、I/O経路のストレージ変換とデータ保護、あるいは圧縮/暗号/AIプリミティブのようなアクセラレーションです。重要な問いは、その仕事をオフロードしてもソフトウェアモデルが壊れないかどうかです。プラットフォームが特定のLinux機能や仮想スイッチの動作、ストレージのセマンティクスに依存するなら、チップはそれらの仮定に合致しなければなりません。
明確にすべき点:
ベンチマークは重要ですが、本番に近いものでなければ意味がありません:実際のパケットミックス、実際のキュー深度、現実的なテナント隔離状態で。電力はピークではなく「ワット当たりの仕事量」として評価します。特にラックが電力制限されている場合はそうです。
統合の手間がしばしば決定打になります。紙面上で10%優れるチップが、運用・プロビジョニング・パッチ管理の面で扱いにくければ負けることがあります。
クラウドチームはリスクを下げるため、Ethernet、NVMe、PCIe/CXLなどの標準、よく文書化されたAPI、相互運用可能な管理ツールを好みます。Marvellなどのベンダーの機能を使う場合でも、上位のコントロールプレーンを移植可能に保ち、ハードウェアの進化がプラットフォーム全体の書き換えを強いることがないようにします。
ソフトウェア側でも同じ原則が当てはまります。サービスをこのインフラ上で動かす際はアーキテクチャを可搬にしておくと良いです。プラットフォーム例として、Koder.aiのようなツールは(Go + PostgreSQL)バックエンドやReactフロントエンドのプロトタイピングと反復をチャット駆動で加速しつつ、ソースコードのエクスポートやクラウド・コンプライアンス要件に合わせたデプロイを可能にします。
Marvellは主にクラウドデータセンターの「データパス」層をターゲットにしています:ネットワーキング(NIC/DPU、スイッチシリコン)、ストレージコントローラ(NVMeなど)、および暗号化、パケット処理、圧縮、テレメトリなどの専用アクセラレーションブロックです。目的は、メインCPUを消費せずにデータを大規模に移動・保護・管理することです。
汎用CPUは柔軟ですが、パケット処理、暗号化、ストレージプロトコル処理といった反復的で大量のインフラ作業には効率が悪いからです。これらを専用シリコンにオフロードすると、次のような利点があります:
Smart NICはカード上でネットワーキング機能を動かすための追加計算機能を持ったNICです。DPUはさらに進んで、複数コアやハードウェアアクセラレータ、分離機能を組み合わせた“インフラ用の専用コンピュータ”として振る舞います。
一般的なオフロード例は次の通りです:
これによりCPU負荷が減り、負荷時のレイテンシが安定します。
データセンター内の大半のトラフィックは外部インターネットを経由せず「東西(east–west)」に流れます:サービス間コール、ストレージの複製、データベース/キャッシュトラフィック、分散AIワークロードなど。内部トラフィックは予測可能なレイテンシと高いスループットを必要とするため、NIC/DPUやスイッチシリコンにより多くの処理が押し付けられます。
多くのハイパースケールデータセンターは**リーフ-スパイン(ToR + spine)**トポロジを使います:
スイッチシリコンはパケット転送、バーストのバッファ、QoS適用、テレメトリ提供などをラインレートで行う必要があります。
ストレージコントローラはフラッシュとシステムの間に位置し、ストレージを高速かつ信頼できるものにするための作業を担います:
多くは暗号化、圧縮、パリティ/消失符号化支援をハードで行い、ホストCPUを占有しないようにします。
NVMeはフラッシュ向けに設計されたプロトコルで、オーバーヘッドが少なく並列性(複数のキュー)をサポートします。クラウド環境では、利点は単純なピークスループットよりむしろ負荷下での一貫した低レイテンシにあります。多数の小さなI/Oが同時に発生するケースで特に有効です。
PCIeはNIC、DPU、SSD、GPU、アクセラレータなどを接続するサーバ内部の高速インターコネクトです。CXLは同じ物理レイヤーを使いながら、メモリ類似リソースをより効率的に共有できる仕組みを追加します。
実務的にはPCIe/CXLにより:
「カスタムアクセラレーション」は必ずしも巨大なGPUを意味しません。多くは反復的な処理をハードウェアに移すことで、CPUがアプリケーションに注力できるようにするための小さな専用演算ブロックです。
よくある例:
電力はデータセンターでの真の制限要因になりがちです。消費電力の上限に達すると、成長は1ワットあたりの有用仕事量を増やすことでしか達成できません。
オフロードによる省エネ効果はしばしば間接的です:オフロードでCPU利用が減れば、同じワークロードをより少ないコア数、低いクロック、あるいはより少ないサーバーで回せます。これによりメモリ負荷やPCIeトラフィックも減り、総合的な電力削減につながります。
また、発熱は冷却コストに直結するため、より効率的なコンポーネントは高密度ラック運用を現実的にします。
多くのインフラシリコンはハードウェアルートオブトラストやセキュアブートを備え、ファームウェアや起動コンポーネントを暗号的に検証して、改ざんされたコードが実行されるリスクを下げます。DPUやストレージコントローラがホストとネットワークの間に入ることを考えると、これは非常に重要です。
さらに、暗号化や分離(ハードウェアキューやメモリ保護)、インライン暗号化のような機能をシリコンに組み込むことで、セキュリティを性能を犠牲にすることなく提供できます。組み込みのテレメトリやエラーレポートは障害検出と復旧の高速化にも寄与します。
リクエストがアプリケーションサーバーに届き、データベースを照会して応答が返るまで、多くのステップで遅延が生じ得ます。オフロードとアクセラレーションにより、次の改善が期待できます:
結果として、テールレイテンシが下がり、サーバー当たりのスループットが上がり、パフォーマンスがより一貫します。
専用シリコンは抽象的に「速いから良い」ではなく、仕事が大規模で反復性が高く、専用化の投資に見合う場合に選ばれます。数百万件単位の同様のリクエストや予測可能なプロトコル、そして小さな効率改善がフリート全体で大きな節約につながる場面で特に有効です。
評価にあたっては実ワークロードに近いベンチマーク、ワット当たりの仕事量としての電力測定、ソフトウェア適合性(ドライバやハイパーバイザ、Kubernetes統合)、供給とライフサイクルの確認が重要です。統合コストは紙面上の性能差を覆すことがよくあります。
データインフラシリコンは「アクセラレーションでおまけを付ける存在」から基礎的な配管へと変わりつつあります。AIインファレンスやリアルタイム分析、セキュリティ検査のような低レイテンシを要求するサービスが増える中、ネットワーキング、ストレージ、データ移動を効率的に扱うチップはCPUと同等に重要になります。
注目点:
次世代部品の評価では、ワット当たり性能、データパス近くのセキュリティ、既存ラックとの互換性や移行経路に注目してください。
固定機能はワット当たり性能と決定性で勝る一方、柔軟性は劣ります。良い設計は可変性ある制御面とハードウェアのファストパスを組み合わせます。