Google ने 22 अप्रैल को Cloud Next 2026 में दो AI चिप्स का अनावरण किया, जो पिछली पीढ़ी की तुलना में 2.8 गुना अधिक ट्रेनिंग प्रदर्शन देते हैं — और अब OpenAI भी Google TPU क्षमता खरीद रहा है।
384 मेगाबाइट ऑन-बोर्ड SRAM वाला एक चिप — जो अपने पूर्ववर्ती की मेमोरी से तीन गुना है — वैश्विक AI उद्योग के डिफ़ॉल्ट प्रोसेसर के रूप में Nvidia को हटाने की Google की नवीनतम कोशिश है।
Google ने 22 अप्रैल 2026 को लास वेगास में अपने Cloud Next सम्मेलन में दो नए टेन्सर प्रोसेसिंग यूनिट का अनावरण किया: TPU 8t, जो बड़े AI मॉडल ट्रेन करने के लिए डिज़ाइन किया गया है, और TPU 8i, जो इनफेरेंस कार्यों के लिए अनुकूलित है। साथ मिलकर, ये Nvidia की H100 और B200 लाइनों के लिए कंपनी की सबसे लक्षित प्रतिस्पर्धी चुनौती का प्रतिनिधित्व करते हैं। इस घोषणा में एक असामान्य व्यावसायिक संकेत था: OpenAI, जिसने अपनी स्थापना के बाद से लगभग विशेष रूप से Nvidia हार्डवेयर पर ट्रेनिंग की है, अब Google Cloud से TPU क्षमता खरीद रहा है।
Google Cloud · TPU 8 · artificial intelligence chips
प्रदर्शन के दावे महत्वपूर्ण हैं। Google का कहना है कि TPU 8t, नवंबर 2025 में घोषित सातवीं पीढ़ी के Ironwood चिप की तुलना में प्रति यूनिट समान कीमत पर 2.8 गुना अधिक ट्रेनिंग थ्रूपुट देता है। TPU 8i, Ironwood की तुलना में इनफेरेंस प्रदर्शन में 80% सुधार करता है। दोनों चिप्स में 384 MB SRAM है, जबकि Ironwood में 128 MB था — ऑन-चिप मेमोरी में तीन गुना वृद्धि जो मॉडलों द्वारा बाहरी मेमोरी एक्सेस की प्रतीक्षा में बिताए समय को कम करती है, जो बड़े पैमाने पर इनफेरेंस में प्राथमिक लेटेंसी बाधाओं में से एक है। व्यावसायिक उपलब्धता "2026 में बाद में" निर्धारित है, Google Cloud ने सम्मेलन में बिना कोई तिमाही निर्दिष्ट किए कहा।
Continue reading to see the full article
सैन फ्रांसिस्को स्थित AI सुरक्षा कंपनी और Claude मॉडल परिवार की निर्माता Anthropic ने एक साथ Google TPU क्षमता के "कई गीगावाट" खरीदने की प्रतिबद्धता जताई — एक आंकड़ा जो, यदि साकार हुआ, तो इसे दुनिया के सबसे बड़े कंप्यूट खरीदारों में शामिल कर देगा। Anthropic की घोषणा ने कंपनियों की मौजूदा साझेदारी को मजबूत किया और संकेत दिया कि कंप्यूट के लिए अग्रणी AI मांग किसी भी एकल विक्रेता की वर्तमान आपूर्ति से कहीं आगे है।
मुख्य बातें
→Google Cloud: Google says the TPU 8t delivers 2.
→TPU 8: Google says the TPU 8t delivers 2.
→artificial intelligence chips: Google says the TPU 8t delivers 2.
→Nvidia rivalry: Google says the TPU 8t delivers 2.
Google के लिए, TPU 8 पीढ़ी AI उद्योग की कंप्यूट की अतृप्त भूख को Cloud राजस्व में बदलने का अवसर है। Google Cloud का राजस्व Q1 2026 में साल-दर-साल 28% बढ़कर $12.4 बिलियन तक पहुंच गया, Alphabet की अप्रैल 2026 की आय रिपोर्ट के अनुसार — लेकिन क्लाउड इन्फ्रास्ट्रक्चर बाज़ार में इसकी हिस्सेदारी Amazon Web Services और Microsoft Azure दोनों से कम है। एक विश्वसनीय TPU जो अग्रणी लैब्स को Nvidia एक्सेलेरेटर से दूर आकर्षित करे, एक संरचनात्मक बदलाव है, न कि उत्पाद चक्र।
Nvidia की स्थिति अभी बड़े पैमाने पर खतरे में नहीं है। कंपनी ने जनवरी 2026 में समाप्त होने वाले वित्तीय वर्ष में अपनी स्वयं की रिपोर्टिंग के अनुसार लगभग $40 बिलियन के डेटा सेंटर GPU शिप किए, और इसका CUDA सॉफ्टवेयर इकोसिस्टम इसे एक स्विचिंग-कॉस्ट लाभ देता है जिसे कोई प्रतिस्पर्धी अभी तक पार नहीं कर पाया। AMD के MI350 चिप्स, जो मार्च 2026 में लॉन्च हुए, ने मामूली उद्यम रुचि आकर्षित की है लेकिन अग्रणी AI ट्रेनिंग में Nvidia की हिस्सेदारी को प्रभावित नहीं किया। Google की अपनी पिछली TPU पीढ़ियों ने आंतरिक रूप से महत्वपूर्ण अपनाव पाया लेकिन बड़े पैमाने पर तृतीय-पक्ष वर्कलोड आकर्षित करने में संघर्ष किया — बेंचमार्क प्रदर्शन और वास्तविक दुनिया के माइग्रेशन के बीच की खाई Google के रोडमैप के संकेत से अधिक चौड़ी रही है।
Advertisement
Google Cloud · TPU 8 · artificial intelligence chips
Google की घोषणा में छुपी चेतावनी सॉफ्टवेयर है। TPU पर ट्रेनिंग के लिए Nvidia GPU के लिए डिज़ाइन किए गए वर्कफ्लो को फिर से लिखना या पुनः संकलित करना आवश्यक है — एक प्रक्रिया जिसे प्रमुख लैब्स ने प्रति मॉडल आर्किटेक्चर तीन से छह महीने के इंजीनियरिंग समय पर अनुमानित किया है। Google ने 2024 के बाद से अपने JAX और XLA कंपाइलर टूलिंग में काफी सुधार किया है, और Anthropic की प्रतिबद्धता सुझाती है कि वे सुधार फल दे रहे हैं। लेकिन जिन लैब्स ने यह बदलाव नहीं किया है, उनके लिए स्विचिंग लागत वास्तविक बनी हुई है, और "2026 में बाद में" उपलब्धता का मतलब है कि प्रतिस्पर्धी परीक्षण अभी महीनों दूर है। यह सवाल कि OpenAI की TPU खरीद एक पायलट है या इसकी इन्फ्रास्ट्रक्चर रणनीति में एक संरचनात्मक बदलाव, वह कंपनी ने सार्वजनिक रूप से अभी तक नहीं बताया है।
अगला महत्वपूर्ण मोड़ Nvidia का GTC सम्मेलन है, जो अस्थायी रूप से सितंबर 2026 के लिए निर्धारित है, जहां कंपनी Blackwell Ultra B300 श्रृंखला के लिए मूल्य निर्धारण और उपलब्धता का खुलासा करने की उम्मीद है। यदि Google उस घोषणा से पहले अतिरिक्त अग्रणी लैब्स — विशेष रूप से xAI या Meta के शोध विभाग — को साइन कर सकता है, तो वह उस अंतर को भौतिक रूप से कम कर देगा जिसे Nvidia ने एक दशक में बनाया है।
Google का कहना है कि TPU 8t, नवंबर 2025 में घोषित सातवीं पीढ़ी के Ironwood TPU की तुलना में समान लागत पर 2.8 गुना अधिक ट्रेनिंग प्रदर्शन देता है। दोनों नए चिप्स में 384 MB SRAM है — जो Ironwood के 128 MB से तीन गुना अधिक है — जिससे बाहरी मेमोरी एक्सेस की लेटेंसी कम होती है।
क्या OpenAI Nvidia GPU के बजाय Google TPU का उपयोग कर रहा है?
अप्रैल 2026 तक, OpenAI Nvidia हार्डवेयर के साथ-साथ Google TPU क्षमता भी खरीद रहा है। OpenAI ने ऐतिहासिक रूप से अपने मॉडल लगभग विशेष रूप से Nvidia GPU पर ट्रेन किए हैं। Cloud Next की घोषणा पहला सार्वजनिक संकेत है जो यह पुष्टि करता है कि OpenAI अपने कंप्यूट आपूर्तिकर्ताओं में विविधता ला रहा है।
Google के TPU 8t और 8i कब व्यावसायिक रूप से उपलब्ध होंगे?
Google Cloud ने 22 अप्रैल 2026 को अपने Cloud Next सम्मेलन में कहा "2026 में बाद में," लेकिन कोई तिमाही निर्दिष्ट नहीं की। 26 अप्रैल 2026 तक चिप्स सामान्य रूप से उपलब्ध नहीं हैं।
AI वर्कलोड के लिए Google TPU और Nvidia GPU की तुलना कैसे होती है?
TPU गहरी शिक्षा में उपयोग किए जाने वाले मैट्रिक्स ऑपरेशन के लिए विशेष रूप से बनाए गए हैं, जबकि Nvidia GPU CUDA सॉफ्टवेयर इकोसिस्टम द्वारा समर्थित अधिक सामान्य-उद्देश्य वाले एक्सेलेरेटर हैं। Google का दावा है कि TPU 8 ट्रेनिंग और इनफेरेंस बेंचमार्क पर तुलनीय Nvidia हार्डवेयर से बेहतर प्रदर्शन करता है, लेकिन अधिकांश AI लैब्स सॉफ्टवेयर संगतता और स्थापित टूलिंग के कारण अभी भी Nvidia पर निर्भर हैं।