जानिए कैसे Marvell का डेटा इन्फ्रास्ट्रक्चर सिलिकॉन क्लाउड नेटवर्किंग, स्टोरेज और कस्टम एक्सेलेरेशन को सपोर्ट करता है—और कैसे यह बैकग्राउंड में तेज़, अधिक कुशल डेटा सेंटर्स को संभव बनाता है।

ज़्यादातर लोग “क्लाउड” को सिर्फ़ सर्वरों के रूप में समझते हैं। वास्तविकता में, एक क्लाउड डेटा सेंटर एक विशाल सिस्टम है जो तेज़ी से डेटा को मूव, स्टोर और सुरक्षित करता है। डेटा इन्फ्रास्ट्रक्चर सिलिकॉन उन स्पेशलाइज़्ड चिप्स का सेट है जो वो डेटा-भारी काम संभालते हैं ताकि मुख्य CPUs को यह सब न करना पड़े।
Marvell इस “बीच” लेयर पर फोकस करता है: वे चिप्स जो कंप्यूट को नेटवर्क्स और स्टोरेज से जोड़ते हैं, आम डेटा-सेंटर कार्यों को तेज़ करते हैं, और लोड के तहत सब कुछ प्रेडिक्टेबल बनाए रखते हैं।
यदि आप एक क्लाउड रैक की कल्पना ऊपर से नीचे करें, तो Marvell उपकरण अक्सर बैठते हैं:
ये “ऐप” नहीं हैं और सामान्य अर्थ में “सर्वर” भी नहीं—ये हार्डवेयर के बिल्डिंग ब्लॉक्स हैं जो हजारों सर्वरों को एक सुसंगत सेवा की तरह व्यवहार करने देते हैं।
जब इन्फ्रास्ट्रक्चर सिलिकॉन अपना काम कर रहा होता है, तो आप इसे नहीं देखते। पेज तेज़ खुलते हैं, वीडियो कम बफ़र होता है, और बैकअप समय पर होते हैं—लेकिन उपयोगकर्ता कभी नेटवर्किंग ऑफलोड इंजन, स्टोरेज कंट्रोलर, या स्विचिंग फैब्रिक को नहीं देखता जो इसे संभव बनाते हैं। ये चिप्स चुपचाप लेटेंसी घटाते हैं, CPU साइकिल्स मुक्त करते हैं, और प्रदर्शन को अधिक सुसंगत बनाते हैं।
Marvell की भूमिका को तीन बकेट में समझना आसान है:
यही “शांत” सिलिकॉन है जो क्लाउड सर्विसेज़ को सतह पर सरल महसूस कराता है।
क्लाउड ऐप्स “सॉफ़्टवेयर-परिभाषित” लगते हैं, पर भौतिक काम अभी भी रैक्स से भरे सर्वरों, स्विचों और स्टोरेज में होता है। मांग बढ़ने पर, क्लाउड हर काम के लिए जनरल-पर्पज़ CPU पर निर्भर नहीं रह सकते बिना लागत और दक्षता की सीमाएँ पार किए।
AI ट्रेनिंग और इन्फरेंस डेटा सेट्स को डेटा सेंटर में बड़े पैमाने पर घुमाते हैं। वीडियो स्ट्रीम्स, बैकअप, एनालिटिक्स और SaaS प्लेटफॉर्म लगातार बैकग्राउंड लोड जोड़ते हैं। यहां तक कि जब कंप्यूट उपलब्ध है, तो बॉटलनेक अक्सर डेटा को पर्याप्त तेज़ी से मूव, फ़िल्टर, एन्क्रिप्ट और स्टोर करने की तरफ शिफ्ट हो जाता है।
अधिकांश क्लाउड ट्रैफ़िक सार्वजनिक इंटरनेट को नहीं छूता। यह सेवाओं के बीच “ईस्ट–वेस्ट” यात्रा करता है: माइक्रोसर्विस-टू-माइक्रोसर्विस कॉल्स, डेटाबेस रीड्स, कैश अपडेट्स, स्टोरेज रेप्लिकेशन, और वितरित AI वर्कलोड। यह आंतरिक ट्रैफ़िक प्रेडिक्टेबल लेटेंसी और उच्च थ्रूपुट चाहता है, जो नेटवर्किंग और स्टोरेज हार्डवेयर को डेटा पाथ के पास अधिक प्रोसेसिंग करने के लिए मजबूर करता है।
पावर और स्पेस अपरिमित नहीं हैं। यदि क्लाउड प्रदाता पैकेट प्रोसेसिंग, एन्क्रिप्शन, कम्प्रेशन या स्टोरेज चेकसम जैसी चीज़ों को समर्पित सिलिकॉन पर ऑफलोड कर सकते हैं, तो CPU कम ओवरहेड में अधिक एप्लिकेशन-केंद्रित कार्य कर सकता है। इससे बेहतर होता है:
सामान्य-उद्देश्य कोर जोड़कर स्केल करने की बजाय, क्लाउड प्लेटफ़ॉर्म अब उद्देश्य-निर्मित चिप्स—Smart NICs/DPUs, स्विचिंग सिलिकॉन, स्टोरेज कंट्रोलर, और एक्सेलेरेटर्स—का उपयोग कर रहे हैं ताकि बार-बार होने वाले, उच्च-वॉल्यूम इंफ्रास्ट्रक्चर कार्यों को संभाला जा सके। नतीजा: एक तेज़ और सस्ता क्लाउड, भले ही वर्कलोड अधिक डेटा-भूखा हो।
क्लाउड सर्वर अप्रत्याशित रूप से अधिक समय “इन्फ्रास्ट्रक्चर कार्य” में बिताते हैं बजाय आपके एप्लिकेशन को रन कराने के। हर पैकेट को मूव, इंस्पेक्ट, लॉग और कभी-कभी एन्क्रिप्ट करना पड़ता है—अक्सर मुख्य CPU द्वारा। नेटवर्किंग ऑफलोड इन कामों को स्पेशलाइज़्ड हार्डवेयर को सौंप देता है, और यहीं स्मार्ट NICs और DPUs आधुनिक डेटा सेंटरों में (Marvell सिलिकॉन सहित) दिखाई देते हैं।
एक स्मार्ट NIC वो नेटवर्क इंटरफ़ेस कार्ड है जो बेसिक भेजने/प्राप्त करने से ज़्यादा कर जाता है। सामान्य ईथरनेट पोर्ट्स के साथ, इसमें अतिरिक्त प्रोसेसिंग (अक्सर Arm कोर या प्रोग्रामेबल लॉजिक) होती है ताकि नेटवर्किंग फ़ीचर कार्ड पर ही चल सकें।
एक DPU (डेटा प्रोसेसिंग यूनिट) एक कदम आगे है: यह सर्वर के अंदर एक समर्पित “इन्फ्रास्ट्रक्चर कंप्यूटर” की तरह काम करने के लिए डिज़ाइन किया गया है। DPU में आमतौर पर हाई-परफॉर्मेंस नेटवर्किंग, कई CPU कोर, हार्डवेयर एक्सेलेरेटर्स (क्रिप्टो, पैकेट प्रोसेसिंग), और मजबूत आइसोलेशन फीचर्स होते हैं ताकि यह होस्ट CPU पर निर्भर हुए बिना डेटा मूवमेंट और सिक्योरिटी संभाल सके।
एक व्यावहारिक मानसिक मॉडल:
ऑफलोड उन कार्यों को लक्षित करता है जो दोहराने योग्य और उच्च मात्रा में होते हैं और जो वरना एप्लिकेशन CPU से चुरा लेते:
जब CPU को नेटवर्किंग की देखभाल करनी पड़ती है, तो एप्लिकेशन प्रदर्शन ट्रैफ़िक स्पाइक्स, noisy neighbors, या सिक्योरिटी वर्क के बर्स्ट के कारण बदल सकता है। ऑफलोड मदद करता है:
फिजिकली, DPUs आमतौर पर PCIe ऐड-इन कार्ड या OCP NIC मॉड्यूल के रूप में आते हैं। वे जुड़ते हैं:
सैद्धांतिक रूप से, DPU नेटवर्क और सर्वर के बीच “ट्रैफ़िक कॉप” बन जाता है—पॉलिसी, एन्क्रिप्शन, और स्विचिंग संभालते हुए ताकि होस्ट OS और CPU एप्लिकेशन चलाने पर ध्यान दे सकें।
जब आप कोई ऐप खोलते हैं या क्लाउड पर डेटा मूव करते हैं, आपकी रिक्वेस्ट आम तौर पर किसी एक सर्वर तक नहीं जाती—यह हजारों सर्वरों के फ़ैब्रिक से होकर गुजरती है जो उन्हें एक विशाल मशीन की तरह जोड़ता है।
अधिकांश क्लाउड डेटा सेंटर “लीफ़–स्पाइन” डिज़ाइन उपयोग करते हैं:
यह डिज़ाइन पाथ्स को छोटा और सुसंगत रखता है, जो बड़े पैमाने पर प्रदर्शन के लिए अहम है।
दो संख्याएँ उपयोगकर्ता अनुभव और लागत को आकार देती हैं:
क्लाउड ऑपरेटर्स का लक्ष्य लेटेंसी को स्थिर रखना है भले ही लिंक व्यस्त हों, जबकि बहुत बड़े ट्रैफ़िक वॉल्यूम को भी प्रोसेस करना।
एक ईथरनेट स्विच चिप केवल "पैकेट फ़ॉरवर्ड" नहीं करता। उसे करना होता है:
वेंडर्स जैसे Marvell ऐसे सिलिकॉन बनाते हैं जो इन कार्यों को बहुत उच्च स्पीड पर प्रेडिक्टेबल तरीके से करने पर केंद्रित होते हैं।
25/100G से 200/400/800G लिंक तक जाना सिर्फ़ नंबर नहीं है। उच्च स्पीड का मतलब हो सकता है:
नतीजा एक ऐसा डेटा सेंटर नेटवर्क है जो “वायर” से ज़्यादा साझा इन्फ्रास्ट्रक्चर की तरह महसूस होता है।
जब लोग क्लाउड प्रदर्शन के बारे में बात करते हैं, वे अक्सर CPU और GPU की कल्पना करते हैं। पर बहुत सारा “स्पीड” (और विश्वसनीयता) स्टोरेज सिलिकॉन से तय होता है जो फ्लैश ड्राइव्स और सिस्टम के बाकी हिस्सों के बीच बैठता है। वह लेयर आम तौर पर एक स्टोरेज कंट्रोलर होता है—उद्देश्य-निर्मित चिप्स जो यह प्रबंधित करते हैं कि डेटा कैसे लिखा, पढ़ा, जांचा और रिकवर किया जाए।
एक स्टोरेज कंट्रोलर स्थायी डेटा के लिए ट्रैफ़िक डायरेक्टर है। यह इनकमिंग राइट्स को मैनेजेबल चंक्स में तोड़ता है, रीड्स को शेड्यूल करता है ताकि हॉट डेटा जल्दी लौटे, और लगातार इंटीग्रिटी चेक चलाता है ताकि करप्ट बिट्स चुपचाप करप्ट फ़ाइलों में न बदलें।
यह स्टोरेज को पैमाने पर प्रेडिक्टेबल बनाए रखने वाली बहीखाता-करीता भी संभालता है: लॉजिकल ब्लॉक्स को फिज़िकल फ्लैश लोकेशंस से मैप करना, वियर बैलेंस करना ताकि ड्राइव्स लंबे चलें, और जब कई एप्लिकेशन एक ही स्टोरेज पूल को हिट करें तो लेटेंसी को स्थिर रखना।
NVMe फ्लैश स्टोरेज के लिए डिज़ाइन किया गया प्रोटोकॉल है। यह सामान्य हुआ क्योंकि यह ओवरहेड घटाता है और पैररेल "क्यूज़" का समर्थन करता है—जिसका मतलब है कि बहुत सारे ऑपरेशंस एक साथ इन-फ्लाइट हो सकते हैं, जो क्लाउड वर्कलोड्स के अनुरूप है जहाँ हजारों छोटी रीड/राइट्स एक साथ होती हैं।
क्लाउड प्रदाताओं के लिए, NVMe सिर्फ़ पीक थ्रूपुट का मामला नहीं है; यह लोड के दौरान लगातार कम लेटेंसी के बारे में है, जो ऐप्स को रिस्पॉन्सिव रखता है।
आधुनिक कंट्रोलर अक्सर हार्डवेयर फीचर्स शामिल करते हैं जो वरना CPU साइकिल्स खर्च कर देते:
स्टोरेज एक पृथक सबसिस्टम नहीं है—यह तय करता है कि एप्लिकेशन कैसे व्यवहार करेंगे:
संक्षेप में, स्टोरेज सिलिकॉन कच्चे फ्लैश को भरोसेमंद, हाई-थ्रूपुट क्लाउड इन्फ्रास्ट्रक्चर में बदल देता है।
जब क्लाउड प्रदाता सर्वरों को अपग्रेड करते हैं, तो वे सिर्फ CPU बदलते नहीं—उन्हें वह "कनेक्टिव टिश्यू" भी चाहिए जो CPU को नेटवर्क कार्ड, स्टोरेज, और एक्सेलेरेटर्स से बिना पूरी redesign के बात करने दे। इसलिए PCIe और CXL जैसे स्टैंडर्ड मायने रखते हैं: ये पार्ट्स को इंटरऑपरेबल रखते हैं, अपग्रेड्स को कम रिस्की बनाते हैं, और डेटा सेंटर को प्रेडिक्टेबल तरीके से स्केल करने में मदद करते हैं।
PCIe (Peripheral Component Interconnect Express) वह मुख्य आंतरिक लिंक है जिसका उपयोग इन कमपोनेंट्स को जोड़ने के लिए होता है:
एक सहायक मानसिक मॉडल: PCIe हाईवे में और लेन जोड़ने जैसा है। नए PCIe जेनरेशन्स प्रति-लेन स्पीड बढ़ाते हैं, और चौड़ा लिंक (x8, x16) कुल क्षमता जोड़ता है। क्लाउड ऑपरेटर्स के लिए यह सीधे प्रभावित करता है कि कंप्यूट और उसे फ़ीड करने वाले डिवाइसेज़ के बीच डेटा कितनी तेज़ी से जा सकता है।
Marvell का इन्फ्रास्ट्रक्चर सिलिकॉन अक्सर इन PCIe कनेक्शनों के एक सिरे पर बैठता है—NIC, DPU, स्टोरेज कंट्रोलर, या स्विच-नज़दीकी कंपोनेंट के अंदर—इसलिए PCIe कैपेबिलिटी परफॉरमेंस अपग्रेड्स के लिए एक व्यावहारिक सीमा (या सुविधा) हो सकती है।
CXL (Compute Express Link) PCIe के फिज़िकल कनेक्शन पर बनता है पर नए तरीके जोड़ता है जिससे डिवाइसेज़ मेमोरी-समान संसाधनों को कम ओवरहेड के साथ शेयर कर सकें। सीधे शब्दों में, CXL सर्वरों को कुछ बाहरी संसाधनों (जैसे मेमोरी विस्तार या पूल की गई मेमोरी) को स्थानीय एक्सटेंशन की तरह ट्रीट करने मदद करता है, न कि दूर-दराज का डिवाइस।
मुनाफ़ा सिर्फ़ “तेज़” नहीं है। PCIe और CXL सक्षम करते हैं:
कनेक्टिविटी स्टैंडर्ड्स हेडलाइंस हासिल नहीं करते, पर वे यह तय करते हैं कि क्लाउड कितनी तेज़ी से बेहतर नेटवर्किंग, स्टोरेज और एक्सेलेरेशन अपना सकता है।
क्लाउड इन्फ्रास्ट्रक्चर में “कस्टम एक्सेलेरेशन” का अर्थ हमेशा बड़ा GPU नहीं होता। अक्सर इसका मतलब होता है छोटे, स्पेशलाइज़्ड compute यूनिट जोड़ना जो एक बार-बार आने वाले कार्य को तेज़ कर देते हैं—ताकि CPUs एप्लिकेशन चलाने पर ध्यान दे सकें।
क्लाउड वर्कलोड्स बहुत विविध होते हैं: एक स्टोरेज-हेवी डेटाबेस नोड की बाधाएँ किसी वीडियो स्ट्रीमिंग एज बॉक्स या फ़ायरवॉल अप्लायंस से अलग होंगी। उद्देश्य-निर्मित सिलिकॉन सीधे उन बाधाओं को लक्षित करता है—अक्सर किसी फ़ंक्शन को हार्डवेयर में शिफ्ट करके ताकि वह तेज़, अधिक सुसंगत और कम CPU ओवरहेड के साथ चले।
कई प्रायोगिक श्रेणियाँ अक्सर डेटा सेंटरों में दिखाई देती हैं:
बड़े क्लाउड टीमें आम तौर पर प्रोफाइलिंग से शुरू करती हैं: रिक्वेस्ट कहाँ रुक रहे हैं, और कौन से टास्क प्रति सेकंड करोड़ों बार दोहराते हैं? फिर वे चुनते हैं कि क्या प्रोग्रामेबल इंजन (ज़्यादा अनुकूलनीय) या फिक्स्ड-फंक्शन ब्लॉक्स (ऊच्चतम दक्षता) के माध्यम से एक्सेलेरेट किया जाए। वेंडर्स जैसे Marvell अक्सर नेटवर्किंग, सिक्योरिटी, स्टोरेज इंटरफेसेज़ के बिल्डिंग ब्लॉक्स देते हैं—ताकि “कस्टम” हिस्सा क्लाउड के विशेष हॉट पाथ्स पर केंद्रित रह सके।
फिक्स्ड-फंक्शन एक्सेलेरेशन सामान्यतः वाट पर प्रदर्शन और निश्चितता में जीतता है, पर अगर वर्कलोड बदल जाए तो उसे फिर से उपयोग करना कठिन होता है। ज़्यादा प्रोग्रामेबल विकल्प बदलने में आसान होते हैं, पर वे ज्यादा पावर खा सकते हैं और कुछ प्रदर्शन छोड़ सकते हैं। सबसे अच्छे डिज़ाइन्स दोनों का मिक्स करते हैं: जहां ज़रूरी हो हार्डवेयर फास्ट पाथ, और कंट्रोल प्लेन में लचीलापन।
पावर अक्सर डेटा सेंटर की असली सीमा होती है—यह नहीं कि आप कितने सर्वर खरीद सकते हैं, बल्कि कितनी बिजली आप दे और हटाकर कूल कर सकते हैं। जब किसी सुविधा अपनी पावर एंवेलप तक पहुँचती है, तो बढ़ने का एकमात्र तरीका है कि हर वॉट से अधिक उपयोगी काम निकाला जाए।
जनरल-पर्पज़ CPU लचीले होते हैं, पर वे बार-बार आने वाले इंफ्रास्ट्रक्चर कार्यों (पैकेट हैंडलिंग, एन्क्रिप्शन, स्टोरेज प्रोटोकॉल प्रोसेसिंग, या टेलीमेट्री) में हमेशा कुशल नहीं होते। उद्देश्य-निर्मित इन्फ्रास्ट्रक्चर सिलिकॉन (जैसे स्मार्ट NICs/DPUs, स्विचेस, और स्टोरेज कंट्रोलर्स) इन कार्यों को कम साइकिल्स और कम बेकार काम के साथ कर सकता है।
ऊर्जा जीत अक्सर अप्रत्यक्ष होती है: अगर ऑफलोड CPU उपयोग घटाता है, तो आप hetzelfde वर्क कम CPU कोर, कम क्लॉक स्पीड, या कम सर्वर के साथ चला सकते हैं। इससे मेमोरी प्रेशर और PCIe ट्रैफ़िक भी घटते हैं, जो और बचत देता है।
हर वॉट ही हीट बनता है। अधिक हीट मतलब तेज़ पंखे, उच्च कूलेंट फ्लो, और कड़े रैक-स्तर प्लानिंग। उच्च-डेंसिटी रैक्स आकर्षक हो सकते हैं, पर केवल तभी जब आप उन्हें लगातार कूल कर सकें। इसलिए चिप चयन केवल कच्चे थ्रूपुट से आगे मायने रखता है: एक घटक जो कम पावर खाता है (या उच्च लोड पर भी कुशल रहता है) ऑपरेटरों को बिना हॉट स्पॉट बनाए उसी फूटप्रिंट में और क्षमता पैक करने दे सकता है।
दक्षता संख्याएँ मार्केटिंग में आसान और तुलना के लिए कठिन होती हैं। जब आप “बेहतर परफॉर्मेंस पर वॉट” देखते हैं, तो देखें:
सबसे विश्वसनीय दावे वॉट्स को किसी विशिष्ट, दोहराने योग्य वर्कलोड के साथ जोड़ते हैं और दिखाते हैं कि सर्वर या रैक स्तर पर क्या बदला—केवल स्पेक शीट पर नहीं।
क्लाउड प्रदाता समान भौतिक मशीनों को कई ग्राहकों के साथ साझा करते हैं, इसलिए सिक्योरिटी बाद में “जोड़ी जाने वाली” चीज़ नहीं हो सकती। बहुत सारी सुरक्षा चिप-स्तर पर लागू होती है—स्मार्ट NICs/DPUs, क्लाउड नेटवर्किंग चिप्स, ईथरनेट स्विचिंग सिलिकॉन, और डेटा सेंटर स्टोरेज कंट्रोलर्स के अंदर—जहाँ हार्डवेयर ऑफलोड पूरी लाइन-रेट पर सुरक्षा लागू कर सकता है।
अधिकांश इन्फ्रास्ट्रक्चर सिलिकॉन में एक हॉर्डवेयर रूट ऑफ ट्रस्ट होता है: एक छोटा, अपरिवर्तनीय लॉजिक और कीज़ का सेट जो फ़र्मवेयर की सत्यापन कर सकता है। सिक्योर बूट के साथ, चिप फ़र्मवेयर पर क्रिप्टोग्राफ़िक सिग्नेचर्स जांचती है और संशोधित या अज्ञात कोड को चलाने से इंकार कर देती है।
यह इसलिए महत्वपूर्ण है क्योंकि एक समझौता किया गया DPU या स्टोरेज कंट्रोलर आपके सर्वरों और नेटवर्क/स्टोरेज फैब्रिक के बीच "बीच" में बैठ सकता है। सिक्योर बूट उस स्तर पर छिपी हुई परसिस्टेंस के जोखिम को घटाता है।
एन्क्रिप्शन अक्सर सीधे सिलिकॉन में एक्सेलेरेट किया जाता है ताकि यह CPU समय न चुरा ले:
क्योंकि यह इनलाइन है, सिक्योरिटी का मतलब धीमी स्टोरेज नेटवर्किंग नहीं होना चाहिए।
मल्टी-टेनेंट क्लाउड्स कड़े पृथक्करण पर निर्भर करते हैं। इन्फ्रास्ट्रक्चर चिप्स हार्डवेयर क्यूज़, मेमोरी प्रोटेक्शन, वर्चुअल फ़ंक्शंस, और पॉलिसी एनफोर्समेंट के साथ आइसोलेशन लागू कर सकते हैं—ताकि एक टेनेंट के ट्रैफिक या स्टोरेज रिक्वेस्ट दूसरे के डेटा को न देख सकें। यह खासकर महत्वपूर्ण है जब DPUs वर्चुअल नेटवर्किंग संभालते हैं और PCIe डिवाइसेज़ वर्कलोड्स में शेयर होते हैं।
रिलायबिलिटी सिर्फ "फेल्यर न होना" नहीं है—यह जल्दी डिटेक्शन और रिकवरी भी है। कई डेटा इन्फ्रास्ट्रक्चर सिलिकॉन डिज़ाइन्स टेलीमेट्री काउंटर, एरर रिपोर्टिंग, पैकेट ट्रेसिंग हुक्स, और हेल्थ मैट्रिक्स शामिल करते हैं जिन्हें क्लाउड टीमें मॉनिटरिंग में फीड कर सकती हैं। जब कुछ गलत होता है (ड्रॉप्स, लेटेंसी स्पाइक्स, लिंक एरर्स), ये बिल्ट-इन संकेत बताने में मदद करते हैं कि मुद्दा ईथरनेट स्विचिंग, DPU, या स्टोरेज कंट्रोलर में है—जिससे रिसॉल्यूशन टाइम कटता है और कुल अपटाइम बेहतर होता है।
कल्पना कीजिए: आप एक शॉपिंग ऐप खोलते हैं और "View order history" टैप करते हैं। उस एक रिक्वेस्ट को कई सिस्टम्स से गुजरना पड़ता है—और हर कदम पर देरी का मौका होता है।
आपकी रिक्वेस्ट क्लाउड एज और लोड बैलेंसर तक पहुँचती है। पैकेट एक हेल्दी एप्लिकेशन सर्वर तक रूट किया जाता है।
यह एप्लिकेशन होस्ट तक पहुँचती है। पारंपरिक तरीक़े से, होस्ट CPU बहुत सारा “प्लम्बिंग” संभालता है: एन्क्रिप्शन, फ़ायरवॉल नियम, वर्चुअल नेटवर्किंग, और क्यू प्रबंधन।
अप्प डेटाबेस से क्वेरी करता है। वह क्वेरी डेटा सेंटर नेटवर्क के माध्यम से डेटाबेस क्लस्टर तक जाती है, फिर स्टोरेज से डेटा फ़ेच होता है।
रिस्पॉन्स वापस उसी रास्ते आता है। परिणाम पैक किए जाते हैं, एन्क्रिप्ट होते हैं, और आपके फोन पर भेज दिए जाते हैं।
स्मार्ट NICs/DPUs और स्पेशलाइज़्ड इन्फ्रास्ट्रक्चर सिलिकॉन (Marvell जैसे वेंडर्स के समाधान सहित) दोहराए जाने वाले कार्यों को जनरल-पर्पज़ CPUs से हटाते हैं:
क्लाउड ऑपरेटर्स सिर्फ़ इसलिए चिप्स नहीं चुनते कि वे "कागज़ पर तेज़" हैं—वे उन्हें तब चुनते हैं जब काम बड़ा, दोहराने योग्य और समर्पित हार्डवेयर में बदलने योग्य हो। विशेष सिलिकॉन सबसे ज़्यादा मूल्यवान होता है जब यह मिलियनों समान रिक्वेस्ट पर स्केल करता है, प्रदर्शन अपेक्ष्यनीय हो, और छोटी दक्षता सुधार बड़े बेड़े में असली बचत में बदल जाए।
टीमें आमतौर पर अपने सबसे बड़े बॉटलनेक्स को विशिष्ट फ़ंक्शंस से मैप करती हैं: नेटवर्क पाथ में पैकेट प्रोसेसिंग और सिक्योरिटी, I/O पाथ में स्टोरेज ट्रैन्सलेशन और डेटा प्रोटेक्शन, या एक्सेलेरेशन ब्लॉक्स में कम्प्रेशन/क्रिप्टो/AI प्रिमिटिव्स। एक प्रमुख सवाल यह है कि क्या काम को ऑफलोड किया जा सकता है बिना सॉफ़्टवेयर मॉडल तोड़े। अगर आपका प्लेटफ़ॉर्म कुछ Linux फीचर्स, वर्चुअल स्विचिंग व्यवहार, या स्टोरेज सेमांटिक्स पर निर्भर है, तो चिप को उन मान्यताओं में फिट होना चाहिए।
बेंचमार्क महत्वपूर्ण हैं, पर तब ही उपयोगी होते हैं जब वे प्रोडक्शन को प्रतिबिंबित करें: वास्तविक पैकेट मिक्स, वास्तविक स्टोरेज क्यू गहराई, और यथार्थपरक टेनेंट आइसोलेशन। पॉवर को "वाट पर काम" के रूप में मापा जाता है, न कि सिर्फ़ पीक थ्रूपुट—खासकर जब रैक्स पावर-कैप्ड हों।
इंटीग्रेशन प्रयास अक्सर निर्णायक कारक होते हैं। कागज़ पर 10% बेहतर चिप वह हार सकती है जो बड़े पैमाने पर प्रोविजन, मॉनिटर और पैच करने में आसान है।
क्लाउड टीमें रिस्क घटाने के लिए स्टैंडर्ड्स (ईथरनेट, NVMe, PCIe/CXL), अच्छी तरह दस्तावेज़ित APIs, और इंटरऑपरेबल मैनेजमेंट टूलिंग को प्राथमिकता देती हैं। यहाँ तक कि जब वे वेंडर फीचर्स (Marvell और समकक्षों सहित) का उपयोग करते हैं, वे उच्च-स्तर के कंट्रोल प्लेन्स को पोर्टेबल रखने की कोशिश करते हैं ताकि हार्डवेयर बदलने पर प्लेटफ़ॉर्म को पूरी तरह से री-राइट न करना पड़े।
सॉफ़्टवेयर पक्ष पर यही सिद्धांत लागू होता है: जब आप ऐसे सर्विसेज़ बना रहे हैं जो अंततः इस इन्फ्रास्ट्रक्चर पर चलेंगी, तो आर्किटेक्चर को पोर्टेबल रखना मददगार होता है। प्लेटफ़ॉर्म जैसे Koder.ai वेब बैकेंड (Go + PostgreSQL) और React फ्रंटएंड को चैट-ड्रिवन वर्कफ़्लो के जरिए प्रोटोटाइप तथा इंटीग्रेट करने में तेजी ला सकते हैं, जबकि टीमें सोर्स कोड एक्सपोर्ट और अपनी क्लाउड/कम्प्लायंस ज़रूरतों के अनुरूप डिप्लॉय कर सकती हैं।
क्लाउड इन्फ्रास्ट्रक्चर सिलिकॉन "नाइस-टू-हैव एक्सेलेरेशन" से बेसलाइन प्लंबिंग की ओर बदल रहा है। जैसे-जैसे और सेवाएँ लेटेंसी-सेंसिटिव बनती हैं (AI इन्फरेंस, रीयल-टाइम एनालिटिक्स, सिक्योरिटी इंस्पेक्शन), नेटवर्किंग, स्टोरेज और डेटा मूवमेंट को कुशलता से संभालने वाले चिप्स CPUs जितने ही महत्वपूर्ण होंगे।
उच्च बैंडविड्थ नेटवर्क अब विशेष स्तर नहीं रहे—यह अपेक्षा बन रही है। यह ईथरनेट स्विचिंग, पैकेट प्रोसेसिंग, और DPUs/स्मार्ट NICs को तेज़ पोर्ट्स, कम लेटेंसी, और बेहतर कंजेशन कंट्रोल की ओर धकेलेगा। वेंडर्स जैसे Marvell उस प्रतिस्पर्धा में रहेंगे कि कितना काम हार्डवेयर में ऑफलोड किया जा सकता है (एन्क्रिप्शन, टेलीमेट्री, वर्चुअल स्विचिंग) बिना ऑपरेशनल जटिलता बढ़ाए।
PCIe और CXL कनेक्टिविटी बढ़कर डिसअैग्रेगेशन को सक्षम करेगी: मेमोरी और एक्सेलेरेटर्स को पूल करना ताकि रैक्स वर्कलोड के अनुसार "कम्पोज" किए जा सकें। सिलिकॉन का अवसर सिर्फ़ CXL PHY नहीं है—बल्कि वे कंट्रोलर्स, स्विचिंग, और फ़र्मवेयर हैं जो पूल किए गए संसाधनों को क्लाउड टीमों के लिए प्रेडिक्टेबल, सिक्योर और ऑब्ज़र्वेबल बनाते हैं।
बड़े प्रदाता भेदभाव और टाइट इंटीग्रेशन चाहते हैं—नेटवर्किंग चिप्स, डेटा सेंटर स्टोरेज कंट्रोलर्स, और कस्टम एक्सेलेरेशन में। अपेक्षा करें कि और सेमी-कस्टम प्रोग्राम होंगे जहाँ एक स्टैण्डर्ड बिल्डिंग ब्लॉक (SerDes, ईथरनेट स्विचिंग, NVMe) प्लेटफ़ॉर्म-विशेष फीचर्स, डिप्लॉयमेंट टूलिंग और लंबी सपोर्ट विंडो के साथ जोड़ा जाएगा।
परफॉर्मेंस पर वॉट हेडलाइन मीट्रिक होगा, खासकर जब पावर कैप विस्तार को constrain करे। सिक्योरिटी फीचर डाटा पाथ के और करीब आएँगे (इनलाइन एन्क्रिप्शन, सिक्योर बूट, एटेस्टेशन)। अंत में, अपग्रेड पाथ मायने रखेगा: क्या आप नई बैंडविड्थ, CXL रिवीजन, या ऑफलोड फीचर्स को अपनाए बिना पूरे प्लेटफ़ॉर्म को री-डिज़ाइन किए बिना ला सकते हैं—या क्या यह मौजूदा रैक्स के साथ कम्पैटिबिलिटी तोड़ देगा?
Marvell मुख्य रूप से क्लाउड डेटा सेंटर के “डेटा पाथ” लेयर को लक्षित करता है: नेटवर्किंग (NICs/DPUs, स्विच सिलिकॉन), स्टोरेज कंट्रोलर (NVMe और संबंधित कार्य), और विशेषत: एक्सेलेरेशन ब्लॉक्स (क्रिप्टो, पैकेट प्रोसेसिंग, कम्प्रेशन, टेलीमेट्री)। उद्देश्य यह है कि बड़े पैमाने पर डेटा को स्थानांतरित, संरक्षित और प्रबंधित किया जाए बिना मुख्य CPU साइकिल्स जला दिए।
क्योंकि जनरल-पर्पज़ CPU भारी मात्रा में दोहराए जाने वाले इंफ्रास्ट्रक्चर कार्यों (जैसे पैकेट प्रोसेसिंग, एन्क्रिप्शन, स्टोरेज प्रोटोकॉल हैंडलिंग) के लिए लचीले होने के बावजूद कुशल नहीं होते। इन कार्यों को समर्पित सिलिकॉन पर ऑफलोड करने से निम्न सुधार होते हैं:
एक स्मार्ट NIC एक ऐसा नेटवर्क इंटरफ़ेस कार्ड है जो केवल भेजने/प्राप्त करने से ज़्यादा कर सकता है। इसमें आमतौर पर अतिरिक्त प्रोसेसिंग (अक्सर Arm कोर या प्रोग्रामेबल लॉजिक) होती है ताकि नेटवर्किंग फ़ीचर कार्ड पर ही रन हो सकें।
एक DPU (डेटा प्रोसेसिंग यूनिट) एक कदम आगे जाता है: यह सर्वर के अंदर एक समर्पित “इन्फ्रास्ट्रक्चर कंप्यूटर” की तरह काम करने के लिए डिज़ाइन किया गया है। सामान्यतः DPU में हाई-प्रदर्शन नेटवर्किंग, कई CPU कोर, हार्डवेयर एक्सेलेरेटर्स (क्रिप्टो, पैकेट प्रोसेसिंग) और मजबूत आइसोलेशन फीचर्स होते हैं ताकि यह होस्ट CPU पर निर्भर हुए बिना डेटा मूवमेंट और सिक्योरिटी संभाल सके।
एक प्रैक्टिकल मानसिक मॉडल:
सामान्य तौर पर ऑफलोड में वे कार्य शामिल हैं जो बार-बार और उच्च मात्रा में होते हैं और जो वरना एप्लिकेशन CPU साइकिल्स खा लेते:
इससे CPU ओवरहेड घटता है और लोड के दौरान लेटेंसी अधिक स्थिर रहती है।
अधिकांश ट्रैफ़िक डेटा सेंटर के अंदर “ईस्ट–वेस्ट” होता है: सर्विस-टू-सर्विस कॉल्स, स्टोरेज रेप्लिकेशन, डेटाबेस/कैश ट्रैफ़िक और वितरित AI वर्कलोड। यह आंतरिक ट्रैफ़िक पूर्वानुमेय लेटेंसी और उच्च थ्रूपुट चाहता है, इसलिए प्रदर्शन स्थिर रखने के लिए अधिक प्रोसेसिंग NICs/DPUs और स्विच सिलिकॉन की तरफ शिफ्ट होती है।
अधिकांश हाइपरस्केल डेटा सेंटर लीफ़–स्पाइन (ToR + स्पाइन) टोपोलॉजी का उपयोग करते हैं:
स्विच सिलिकॉन को लाइन-रेट पर पैकेट फ़ॉरवर्ड करना, बर्स्ट को बफ़र और शेड्यूल करना, QoS लागू करना और टेलीमेट्री देना होता है—ये सब क्लाउड प्रदर्शन को प्रभावित करते हैं।
एक स्टोरेज कंट्रोलर फ्लैश और सिस्टम के बाकी हिस्सों के बीच ट्रैफ़िक डायरेक्टर की तरह काम करता है। इसके कामों में शामिल हैं:
आधुनिक कंट्रोलर अक्सर , , और भी करते हैं ताकि स्टोरेज होस्ट CPU समय को monopolize न करे।
NVMe (Non-Volatile Memory Express) फ्लैश के लिए डिजाइन किया गया प्रोटोकॉल है जो कम ओवरहेड और उच्च पैरेललिज़्म (कई क्यूज़) प्रदान करता है। क्लाउड में NVMe का बड़ा लाभ लोड के दौरान लगातार कम लेटेंसी है—जब हजारों छोटी I/O एक साथ होती हैं तो यह स्थिरता बनाए रखता है, न सिर्फ़ पीक थ्रूपुट।
PCIe सर्वर के अंदर NICs, DPUs, SSDs, GPUs और एक्सेलेरेटर्स को जोड़ने के लिए मुख्य हाई-स्पीड इंटरकनेक्ट है। CXL वही फिज़िकल लेयर इस्तेमाल करता है पर अतिरिक्त तरीके जोड़ता है जिससे डिवाइस स्मृति-समान संसाधनों को कम ओवरहेड के साथ शेयर कर सकें।
व्यवहारिक रूप से, PCIe/CXL से मिलता है:
कस्टम एक्सेलेरेशन ज़रूरी रूप से बड़ा GPU नहीं होता—अक्सर छोटे, स्पेशलाइज़्ड compute ब्लॉक्स होते हैं जो किसी बार-बार आने वाले कार्य को तेज़ करते हैं ताकि CPU एप्लिकेशन पर फोकस कर सके। सामान्य उदाहरण:
ऑफलोड से अक्सर अप्रत्यक्ष ऊर्जा बचत होती है: अगर CPU उपयोग घट जाए तो वही वर्क कम CPU कोर के साथ, कम क्लॉक स्पीड पर या कम सर्वरों में चल सकता है। इससे मेमोरी और PCIe ट्रैफ़िक भी घट सकता है, जो और बचत देता है।
चिप चुनते समय कूलिंग और स्पेस भी मायने रखते हैं—हर वॉट ही हीट बनता है, और वही कूलिंग डिज़ाइन और रैक-लेवल प्लानिंग को प्रभावित करता है।
अधिकांश इन्फ्रास्ट्रक्चर सिलिकॉन में हॉर्डवेयर रूट ऑफ ट्रस्ट और सिक्योर बूट शामिल होते हैं: एक छोटा, अपरिवर्तनीय लॉजिक/कुंजी सेट जो फ़र्मवेयर की क्रिप्टोग्राफ़िक सत्यापन करता है। इससे कस्टमर-लेवल डिवाइस पर अनाधिकारित कोड चलने का जोखिम घटता है।
इसके अलावा, DPU/स्मार्ट NIC में IPsec/TLS जैसी प्रोसेसिंग ऑफलोड करके डेटा इन-ट्रांज़िट और स्टोरेज सिलिकॉन में इनलाइन एन्क्रिप्शन करके डेटा एट-रेस्ट की सुरक्षा भी होती है।
इन्फ्रास्ट्रक्चर चिप्स से टेनेंट आइसोलेशन, हार्डवेयर क्यूज़, मेमोरी प्रोटेक्शन और पॉलिसी एनफोर्समेंट भी बेहतर होते हैं। अंततः, बिल्ट-इन टेलीमेट्री और एरर रिपोर्टिंग फेलियर डिटेक्शन और रिकवरी को तेज़ करते हैं।
जहाँ लेटेंसी जोड़ती है: नेटवर्क हॉप्स, पैकेट प्रोसेसिंग, स्टोरेज I/O, और CPU कंटेन्शन। स्मार्ट NICs/DPUs और विशेष सिलिकॉन इन बॉटलनेक्स को हटाकर—नेटवर्किंग/क्रिप्टो/स्टोरेज कार्यों को ऑफलोड करके—टेल लेटेंसी घटाते, थ्रूपुट बढ़ाते और प्रदर्शन को अधिक स्थिर बनाते हैं।
क्लाउड ऑपरेटर्स तब सिलिकॉन चुनते हैं जब काम बड़ा, बार-बार होने वाला और समर्पित हार्डवेयर के रूप में बदलने योग्य हो। विशेष सिलिकॉन तब सबसे उपयोगी होता है जब:
वेंडर्स से पहले PoC के लिए पूछने योग्य चीज़ें:
डिज़ाइन में अक्सर फिक्स्ड-फंक्शन ब्लॉक्स और प्रोग्रामेबल यूनिट्स का मिक्स सबसे अच्छा रहता है—जहाँ परफॉर्मेंस पर वॉट/परफॉर्मेंस कंस्ट्रेंट है वहाँ हार्डवेयर तेज़ होता है, और जहाँ बदलाव की ज़रूरत होती है वहाँ प्रोग्रामेबल अप्रोच चुनी जाती है।
इंटीग्रेशन मेहनत अक्सर कागज़ पर 10% बेहतर प्रदर्शन से अधिक मायने रखती है—असरशाली, मॉनिटरिंग और पैचिंग की सुगमता निर्णायक हो सकती है।