كشفت Google عن شريحتَي ذكاء اصطناعي جديدتين في مؤتمر Cloud Next 2026 بتاريخ 22 أبريل، تقدّمان أداءً في التدريب أعلى بـ2.8 مرة مقارنةً بالجيل السابق — وبات OpenAI يشتري الآن طاقةً من وحدات TPU الخاصة بـGoogle.
شريحة واحدة تحتوي على 384 ميغابايت من SRAM المدمجة — ثلاثة أضعاف ذاكرة سابقتها — هي أحدث رهان تضعه Google للإطاحة بـNvidia من عرشها بوصفها المعالج الافتراضي لصناعة الذكاء الاصطناعي العالمية.
كشفت Google عن وحدتَي معالجة تنسوري جديدتين في مؤتمر Cloud Next بمدينة لاس فيغاس بتاريخ 22 أبريل 2026: الـTPU 8t المصمَّمة لتدريب نماذج الذكاء الاصطناعي الكبيرة، والـTPU 8i المحسَّنة لمهام الاستنتاج. وتمثّل الشريحتان معاً أكثر تحدٍّ تنافسي مباشر تشنّه الشركة ضد سلسلتَي H100 وB200 من Nvidia. وحمل الإعلان إشارةً تجاريةً لافتة: إذ بات OpenAI، الذي اعتمد على أجهزة Nvidia بشكل شبه حصري منذ تأسيسه، يشتري الآن طاقة حوسبة من وحدات TPU عبر Google Cloud.
Google Cloud · TPU 8 · artificial intelligence chips
ادّعاءات الأداء جوهرية. تقول Google إن TPU 8t تقدّم إنتاجية تدريب تبلغ 2.8 ضعف تلك التي تحقّقها شريحة Ironwood من الجيل السابع، التي أُعلن عنها في نوفمبر 2025، بالسعر ذاته لكل وحدة. وتُحسّن TPU 8i أداء الاستنتاج بنسبة 80% مقارنةً بـIronwood. تحتوي كلتا الشريحتين على 384 ميغابايت من SRAM، مقارنةً بـ128 ميغابايت في Ironwood — أي ثلاثة أضعاف الذاكرة المدمجة، مما يقلّل الوقت الذي تقضيه النماذج في انتظار الوصول إلى الذاكرة الخارجية، وهو أحد أبرز عوامل التأخير في الاستنتاج واسع النطاق. وأعلنت Google Cloud في المؤتمر أن التوفر التجاري مقرّر "لاحقاً في عام 2026"، دون تحديد ربع زمني.
Continue reading to see the full article
“تقول Google إن TPU 8t تقدّم إنتاجية تدريب تبلغ 2.8 ضعف تلك التي تحقّقها شريحة Ironwood من الجيل السابع، التي أُعلن عنها في نوفمبر 2025، بالسعر ذاته لكل وحدة.”
في الوقت ذاته، التزمت Anthropic، شركة سلامة الذكاء الاصطناعي ومطوّرة عائلة نماذج Claude ومقرّها سان فرانسيسكو، بشراء ما وصفته بـ"عدة غيغاواتات" من طاقة وحدات TPU من Google — وهو رقم إن تحقّق، سيضعها في مصافّ أكبر مشتري الحوسبة في العالم. وعزّز إعلان Anthropic الشراكة القائمة بين الشركتين، وأشار إلى أن الطلب على الحوسبة من مختبرات الذكاء الاصطناعي الحدّية لا يزال يفوق العرض الحالي من أي مورد منفرد.
النقاط الرئيسية
→Google Cloud: Google says the TPU 8t delivers 2.
→TPU 8: Google says the TPU 8t delivers 2.
→artificial intelligence chips: Google says the TPU 8t delivers 2.
→Nvidia rivalry: Google says the TPU 8t delivers 2.
بالنسبة لـGoogle، يمثّل جيل TPU 8 فرصةً لتحويل الشهية المتخمة لصناعة الذكاء الاصطناعي على الحوسبة إلى إيرادات لـGoogle Cloud. نمت إيرادات Google Cloud بنسبة 28% على أساس سنوي في الربع الأول من 2026، لتبلغ 12.4 مليار دولار وفقاً لتقرير أرباح Alphabet لأبريل 2026 — غير أن حصتها في سوق البنية التحتية السحابية لا تزال دون Amazon Web Services وMicrosoft Azure. إن وحدة TPU موثوقة تجذب المختبرات الحدّية بعيداً عن مسرّعات Nvidia تمثّل تحوّلاً هيكلياً، لا مجرد دورة منتج عادية.
لم يتهدّد موقف Nvidia بعد على نطاق واسع. شحنت الشركة ما يقارب 40 مليار دولار من وحدات GPU لمراكز البيانات في السنة المالية المنتهية في يناير 2026 وفق تقاريرها الخاصة، ومنظومة برمجيات CUDA تمنحها ميزة تكاليف التحوّل التي لم يتمكّن أي منافس من التغلّب عليها. وقد استقطبت شرائح AMD MI350، التي أُطلقت في مارس 2026، اهتماماً مؤسسياً متواضعاً لكنها لم تُخفّض حصة Nvidia في تدريب الذكاء الاصطناعي الحدّي. كما أن أجيال TPU السابقة من Google وجدت اعتماداً واسعاً داخلياً، لكنها عجزت عن استقطاب أعباء العمل من أطراف ثالثة على نطاق كبير — إذ كانت الهوّة بين أداء المعايير والهجرة الفعلية أوسع مما أوحت به خرائط طريق Google.
Advertisement
Google Cloud · TPU 8 · artificial intelligence chips
التحفّظ المدفون في إعلان Google هو البرمجيات. يستلزم التدريب على وحدات TPU إعادة كتابة أو إعادة تجميع سير العمل المصمَّمة لوحدات GPU من Nvidia — وهي عملية قدّرت كبرى المختبرات أنها تستغرق من ثلاثة إلى ستة أشهر من وقت الهندسة لكل بنية نموذج. حسّنت Google أدوات تجميع JAX وXLA بشكل ملحوظ منذ 2024، والتزام Anthropic يوحي بأن هذه التحسينات تؤتي ثمارها. لكن بالنسبة للمختبرات التي لم تُجرِ هذا الانتقال بعد، تظلّ تكلفة التحوّل حقيقية، وتوافر "لاحقاً في 2026" يعني أن الاختبار التنافسي لا يزال يفصله أشهر. وسؤال ما إذا كان شراء OpenAI لوحدات TPU تجربةً استطلاعية أم تحوّلاً هيكلياً في استراتيجية بنيتها التحتية هو سؤال لم تُجِب عنه الشركة علناً بعد.
نقطة التحوّل التالية هي مؤتمر GTC من Nvidia، المقرّر مبدئياً في سبتمبر 2026، حيث من المتوقع أن تكشف الشركة عن أسعار وتوافر سلسلة Blackwell Ultra B300. إذا تمكّنت Google من التعاقد مع مختبرات حدّية إضافية — ولا سيما xAI أو قسم البحوث في Meta — قبل ذلك الإعلان، فإنها ستكون قد ضيّقت فعلياً الفجوة التي أمضت Nvidia عقداً في بنائها.
تقول Google إن TPU 8t تقدّم أداءً في التدريب يبلغ 2.8 ضعف أداء شريحة Ironwood من الجيل السابع التي أُعلن عنها في نوفمبر 2025، وذلك بالتكلفة ذاتها. تحتوي كلتا الشريحتين الجديدتين على 384 ميغابايت من SRAM — ثلاثة أضعاف الـ128 ميغابايت التي تملكها Ironwood — مما يقلّل زمن الاستجابة الناجم عن الوصول إلى الذاكرة الخارجية.
هل يستخدم OpenAI وحدات TPU من Google بدلاً من وحدات GPU من Nvidia؟
اعتباراً من أبريل 2026، بات OpenAI يشتري طاقة حوسبة من وحدات TPU الخاصة بـGoogle إلى جانب استمراره في استخدام أجهزة Nvidia. كان OpenAI يعتمد تاريخياً على وحدات GPU من Nvidia بشكل شبه حصري لتدريب نماذجه. ويُعدّ إعلان Cloud Next أول إشارة عامة مؤكدة على أن OpenAI يسعى إلى تنويع موردي الحوسبة لديه.
متى ستتوفر Google TPU 8t و8i تجارياً؟
قالت Google Cloud "لاحقاً في عام 2026" خلال مؤتمر Cloud Next بتاريخ 22 أبريل 2026، دون تحديد الربع الزمني. الشريحتان ليستا متاحتين بشكل عام حتى 26 أبريل 2026.
كيف تتنافس وحدات TPU من Google مع وحدات GPU من Nvidia في أعباء عمل الذكاء الاصطناعي؟
صُمِّمت وحدات TPU خصيصاً لعمليات المصفوفات المستخدمة في التعلم العميق، في حين تُعدّ وحدات GPU من Nvidia مسرِّعات أكثر عمومية تستند إلى منظومة برمجيات CUDA. تدّعي Google أن TPU 8 تتفوق على الأجهزة المماثلة من Nvidia في معايير التدريب والاستنتاج، غير أن معظم مختبرات الذكاء الاصطناعي لا تزال تعتمد على Nvidia بسبب توافق البرمجيات والأدوات الراسخة.