Googleは2026年4月22日のCloud Nextで2つのAIチップを発表し、前世代比2.8倍のトレーニング性能を実現した。さらにOpenAIがGoogle TPU容量を購入していることも明らかになった。
384メガバイトのオンボードSRAM(前世代の3倍のメモリ)を搭載した単一チップが、Googleがグローバルなるいに挑むNvidiaをデフォルトプロセッサの座から引き下ろすための最新の取り組みだ。
Googleは2026年4月22日、ラスベガスで開催したCloud Nextカンファレンスで2つの新しいテンソル処理ユニットを発表した。大規模AIモデルのトレーニング向けに設計されたTPU 8tと、推論タスクに最適化されたTPU 8iだ。両チップは合わせて、NvidiaのH100およびB200ラインに対する同社の最も標的を絞った競争上の挑戦を象徴している。この発表には異例の商業的シグナルが伴っていた。創設以来ほぼ専らNvidiaハードウェアでトレーニングを行ってきたOpenAIが、現在Google CloudからTPU容量を購入しているのだ。
Google Cloud · TPU 8 · artificial intelligence chips性能に関する主張は相当なものだ。GoogleはTPU 8tが、2025年11月に発表された第7世代Ironwoodチップと同価格で、トレーニングスループットが2.8倍になると述べている。TPU 8iはIronwoodに比べて推論性能が80%向上する。両チップはIronwoodの128MBに対し384MBのSRAMを搭載しており、オンチップメモリが3倍になったことで、大規模推論における主要なレイテンシのボトルネックの一つである外部メモリアクセスの待機時間が短縮される。商業的な提供時期についてGoogle Cloudはカンファレンスで「2026年後半」としたが、四半期は明示しなかった。
サンフランシスコを拠点とするAI安全性企業であり、Claudeモデルファミリーの開発元でもあるAnthropicは同時に、「数ギガワット」と表現するGoogle TPU容量の購入を約束した。これが実現すれば、世界最大のコンピューティング購入者の一つに位置づけられる数字だ。Anthropicの発表は両社の既存のパートナーシップを強化するとともに、フロンティアAIのコンピューティング需要が依然として単一ベンダーの現在の供給をはるかに上回っていることを示した。
Continue reading to see the full article