Google meluncurkan dua chip AI di Cloud Next 2026 pada 22 April yang menghadirkan performa pelatihan 2,8× lebih tinggi dari generasi sebelumnya — dan kini OpenAI membeli kapasitas Google TPU.
Sebuah chip tunggal dengan 384 megabyte SRAM on-board — tiga kali lipat memori pendahulunya — merupakan tawaran terbaru Google untuk menggulingkan Nvidia sebagai prosesor default industri AI global.
Google meluncurkan dua unit pemrosesan tensor baru di konferensi Cloud Next di Las Vegas pada 22 April 2026: TPU 8t, yang dirancang untuk melatih model AI besar, dan TPU 8i, yang dioptimalkan untuk tugas inferensi. Bersama-sama, keduanya mewakili tantangan kompetitif paling terarah dari perusahaan ini terhadap lini H100 dan B200 Nvidia. Pengumuman tersebut membawa sinyal komersial yang tidak biasa: OpenAI, yang hampir secara eksklusif melatih model di atas perangkat keras Nvidia sejak didirikan, kini membeli kapasitas TPU dari Google Cloud.
Google Cloud · TPU 8 · artificial intelligence chips
Klaim performa yang diajukan cukup substansial. Google menyatakan TPU 8t menghadirkan throughput pelatihan 2,8 kali lipat dibanding chip Ironwood generasi ketujuhnya yang diumumkan November 2025, dengan harga per unit yang sama. TPU 8i meningkatkan performa inferensi sebesar 80% dibanding Ironwood. Kedua chip memiliki 384 MB SRAM, dibandingkan 128 MB milik Ironwood — pelipattigaan memori on-chip yang mengurangi waktu tunggu model pada akses memori eksternal, salah satu hambatan latensi utama dalam inferensi skala besar. Ketersediaan komersial dijadwalkan "akhir tahun 2026," kata Google Cloud di konferensi tersebut, tanpa menyebutkan kuartal tertentu.
“Klaim performa yang diajukan cukup substansial.”
Anthropic, perusahaan keamanan AI berbasis di San Francisco dan pembuat keluarga model Claude, secara bersamaan berkomitmen untuk membeli kapasitas Google TPU dalam jumlah yang disebut "beberapa gigawatt" — angka yang, jika terealisasi, akan menempatkannya di antara pembeli komputasi terbesar di dunia. Pengumuman Anthropic memperkuat kemitraan yang telah ada antara kedua perusahaan dan menandakan bahwa permintaan komputasi AI frontier masih jauh melampaui pasokan saat ini dari vendor mana pun.
Poin Utama
→Google Cloud: Google says the TPU 8t delivers 2.
→TPU 8: Google says the TPU 8t delivers 2.
→artificial intelligence chips: Google says the TPU 8t delivers 2.
→Nvidia rivalry: Google says the TPU 8t delivers 2.
Bagi Google, generasi TPU 8 adalah kesempatan untuk mengubah nafsu industri AI yang tak terpuaskan akan komputasi menjadi pendapatan Cloud. Pendapatan Google Cloud tumbuh 28% secara tahunan pada Q1 2026, mencapai 12,4 miliar dolar, menurut laporan laba Alphabet April 2026 — namun pangsa pasar infrastruktur cloudnya masih berada di bawah Amazon Web Services maupun Microsoft Azure. TPU yang kredibel yang mampu menarik lab-lab frontier menjauh dari akselerator Nvidia merupakan pergeseran struktural, bukan sekadar siklus produk.
Posisi Nvidia belum terancam secara skala besar. Perusahaan tersebut mengirimkan sekitar 40 miliar dolar GPU pusat data dalam tahun fiskal yang berakhir Januari 2026, menurut laporan mereka sendiri, dan ekosistem perangkat lunak CUDA-nya memberikan keunggulan biaya perpindahan yang belum mampu diatasi oleh pesaing mana pun. Chip AMD MI350, yang diluncurkan Maret 2026, menarik minat perusahaan yang cukup moderat namun belum mampu menggoyahkan pangsa Nvidia dalam pelatihan AI frontier. Generasi TPU Google sebelumnya mendapat adopsi signifikan secara internal namun kesulitan menarik beban kerja pihak ketiga dalam skala besar — kesenjangan antara performa tolok ukur dan migrasi dunia nyata lebih lebar dari yang diimplikasikan peta jalan Google.
Advertisement
Google Cloud · TPU 8 · artificial intelligence chips
Peringatan yang tersembunyi dalam pengumuman Google adalah perangkat lunak. Pelatihan di TPU memerlukan penulisan ulang atau kompilasi ulang alur kerja yang dirancang untuk GPU Nvidia — sebuah proses yang oleh lab-lab besar diperkirakan membutuhkan tiga hingga enam bulan waktu rekayasa per arsitektur model. Google telah meningkatkan perkakas kompiler JAX dan XLA-nya secara signifikan sejak 2024, dan komitmen Anthropic menunjukkan bahwa peningkatan tersebut mulai membuahkan hasil. Namun bagi lab-lab yang belum melakukan transisi, biaya perpindahan tetap nyata, dan ketersediaan "akhir tahun 2026" berarti ujian kompetitif masih berbulan-bulan lagi. Pertanyaan apakah pembelian TPU OpenAI merupakan proyek percontohan atau pergeseran struktural dalam strategi infrastrukturnya adalah sesuatu yang belum dijawab perusahaan tersebut secara publik.
Titik infleksi berikutnya adalah konferensi GTC Nvidia, yang dijadwalkan sementara pada September 2026, di mana perusahaan tersebut diperkirakan akan mengungkap harga dan ketersediaan seri Blackwell Ultra B300. Jika Google dapat menandatangani kontrak dengan lab-lab frontier tambahan — khususnya xAI atau divisi riset Meta — sebelum pengumuman tersebut, maka Google akan secara nyata mempersempit kesenjangan yang telah dibangun Nvidia selama satu dekade.
Seberapa jauh lebih cepat Google TPU 8t dibanding pendahulunya?
Google menyatakan TPU 8t memberikan performa pelatihan 2,8 kali lipat dibanding TPU generasi ketujuh Ironwood yang diumumkan November 2025, dengan harga yang sama. Kedua chip baru ini masing-masing memiliki 384 MB SRAM — tiga kali lipat dari 128 MB milik Ironwood — yang mengurangi latensi akibat akses memori eksternal.
Apakah OpenAI menggunakan Google TPU sebagai pengganti GPU Nvidia?
Per April 2026, OpenAI membeli kapasitas Google TPU bersamaan dengan penggunaan perangkat keras Nvidia yang terus berlanjut. OpenAI secara historis melatih modelnya hampir secara eksklusif menggunakan GPU Nvidia. Pengumuman di Cloud Next adalah sinyal publik pertama yang dikonfirmasi bahwa OpenAI tengah mendiversifikasi pemasok komputasinya.
Kapan TPU 8t dan 8i Google akan tersedia secara komersial?
Google Cloud menyebut "akhir tahun 2026" pada konferensi Cloud Next tanggal 22 April 2026, namun tidak menentukan kuartal spesifik. Chip-chip tersebut belum tersedia secara umum per 26 April 2026.
Bagaimana perbandingan Google TPU dengan GPU Nvidia untuk beban kerja AI?
TPU dirancang khusus untuk operasi matriks yang digunakan dalam deep learning, sementara GPU Nvidia adalah akselerator serbaguna yang didukung ekosistem perangkat lunak CUDA. Google mengklaim TPU 8 mengungguli perangkat keras Nvidia yang sebanding dalam tolok ukur pelatihan dan inferensi, namun sebagian besar lab AI masih membangun di atas Nvidia karena kompatibilitas perangkat lunak dan perkakas yang sudah mapan.