Google a dévoilé deux puces d'IA lors de Cloud Next 2026 le 22 avril, offrant 2,8× les performances d'entraînement de la génération précédente — et OpenAI achète désormais de la capacité TPU Google.
Une seule puce avec 384 mégaoctets de SRAM embarquée — le triple de la mémoire de son prédécesseur — est la dernière tentative de Google de détrôner Nvidia comme processeur de référence de l'industrie mondiale de l'IA.
Google a dévoilé deux nouvelles unités de traitement tensoriel lors de sa conférence Cloud Next à Las Vegas le 22 avril 2026 : le TPU 8t, conçu pour l'entraînement de grands modèles d'IA, et le TPU 8i, optimisé pour les tâches d'inférence. Ensemble, ils représentent le défi concurrentiel le plus ciblé de l'entreprise face aux gammes H100 et B200 de Nvidia. L'annonce comportait un signal commercial inhabituel : OpenAI, qui s'est entraîné presque exclusivement sur du matériel Nvidia depuis sa fondation, achète désormais de la capacité TPU auprès de Google Cloud.
Google Cloud · TPU 8 · artificial intelligence chips
Les affirmations de performance sont substantielles. Google indique que le TPU 8t offre 2,8 fois le débit d'entraînement de sa puce Ironwood de septième génération, annoncée en novembre 2025, au même prix unitaire. Le TPU 8i améliore les performances d'inférence de 80 % par rapport à Ironwood. Les deux puces contiennent 384 Mo de SRAM, contre 128 Mo pour Ironwood — un triplement de la mémoire embarquée qui réduit le temps que les modèles passent à attendre les accès à la mémoire externe, l'un des principaux goulots d'étranglement en matière de latence lors de l'inférence à grande échelle. La disponibilité commerciale est prévue pour « plus tard en 2026 », a déclaré Google Cloud lors de la conférence, sans préciser de trimestre.
“Les affirmations de performance sont substantielles.”
Anthropic, la société de sécurité de l'IA basée à San Francisco et créatrice de la famille de modèles Claude, s'est simultanément engagée à acheter ce qu'elle a décrit comme « plusieurs gigawatts » de capacité TPU Google — un chiffre qui, s'il se réalise, la placerait parmi les plus grands acheteurs de calcul au monde. L'annonce d'Anthropic a renforcé le partenariat existant entre les deux entreprises et signalé que la demande de calcul de l'IA de pointe reste bien supérieure à l'offre actuelle de n'importe quel fournisseur unique.
Points Clés
→Google Cloud: Google says the TPU 8t delivers 2.
→TPU 8: Google says the TPU 8t delivers 2.
→artificial intelligence chips: Google says the TPU 8t delivers 2.
→Nvidia rivalry: Google says the TPU 8t delivers 2.
Pour Google, la génération TPU 8 est une occasion de convertir l'appétit insatiable de l'industrie de l'IA pour le calcul en revenus Cloud. Le chiffre d'affaires de Google Cloud a augmenté de 28 % d'une année sur l'autre au premier trimestre 2026, atteignant 12,4 milliards de dollars, selon le rapport de résultats d'Alphabet d'avril 2026 — mais sa part du marché des infrastructures cloud reste inférieure à celle d'Amazon Web Services et de Microsoft Azure. Un TPU crédible qui attire les laboratoires de pointe loin des accélérateurs Nvidia représente un changement structurel, pas un simple cycle de produits.
La position de Nvidia n'est pas encore menacée à grande échelle. L'entreprise a expédié environ 40 milliards de dollars de GPU de centres de données au cours de l'exercice fiscal se terminant en janvier 2026, selon ses propres déclarations, et son écosystème logiciel CUDA lui confère un avantage en termes de coûts de transition qu'aucun concurrent n'a surmonté. Les puces MI350 d'AMD, lancées en mars 2026, ont suscité un intérêt modéré de la part des entreprises, mais n'ont pas entamé la part de Nvidia dans l'entraînement de l'IA de pointe. Les générations précédentes de TPU de Google ont trouvé une adoption significative en interne, mais ont eu du mal à attirer des charges de travail tierces à grande échelle — l'écart entre les performances mesurées sur banc d'essai et la migration réelle a été plus large que ce que les feuilles de route de Google laissaient entendre.
Advertisement
Google Cloud · TPU 8 · artificial intelligence chips
La mise en garde enfouie dans l'annonce de Google concerne les logiciels. L'entraînement sur TPU nécessite de réécrire ou de recompiler des flux de travail conçus pour les GPU Nvidia — un processus que les grands laboratoires ont estimé à trois à six mois de travail d'ingénierie par architecture de modèle. Google a considérablement amélioré ses outils de compilation JAX et XLA depuis 2024, et l'engagement d'Anthropic suggère que ces améliorations portent leurs fruits. Mais pour les laboratoires qui n'ont pas encore effectué cette transition, le coût de changement reste réel, et la disponibilité « plus tard en 2026 » signifie que le test concurrentiel est encore à des mois de distance. La question de savoir si l'achat de TPU par OpenAI est un pilote ou un changement structurel dans sa stratégie d'infrastructure est une question à laquelle l'entreprise n'a pas répondu publiquement.
Le prochain point d'inflexion est la conférence GTC de Nvidia, provisoirement prévue pour septembre 2026, où l'entreprise devrait dévoiler les prix et la disponibilité de la série Blackwell Ultra B300. Si Google parvient à signer des laboratoires de pointe supplémentaires — en particulier xAI ou la division de recherche de Meta — avant cette annonce, il aura considérablement réduit l'avance que Nvidia a mis une décennie à construire.
Dans quelle mesure le Google TPU 8t est-il plus rapide que son prédécesseur ?
Google affirme que le TPU 8t offre 2,8 fois les performances d'entraînement du TPU Ironwood de septième génération, annoncé en novembre 2025, au même coût. Les deux nouvelles puces contiennent 384 Mo de SRAM — le triple des 128 Mo d'Ironwood — ce qui réduit la latence liée aux accès à la mémoire externe.
OpenAI utilise-t-il les TPU de Google plutôt que les GPU Nvidia ?
Depuis avril 2026, OpenAI achète de la capacité TPU Google tout en continuant à utiliser le matériel Nvidia. OpenAI a historiquement entraîné ses modèles presque exclusivement sur des GPU Nvidia. L'annonce lors de Cloud Next est le premier signal public confirmé qu'OpenAI diversifie ses fournisseurs de calcul.
Quand les TPU 8t et 8i de Google seront-ils disponibles commercialement ?
Google Cloud a indiqué « plus tard en 2026 » lors de sa conférence Cloud Next le 22 avril 2026, sans préciser de trimestre. Les puces ne sont pas encore disponibles en accès général au 26 avril 2026.
Comment les TPU de Google se comparent-ils aux GPU Nvidia pour les charges de travail IA ?
Les TPU sont conçus spécifiquement pour les opérations matricielles utilisées en deep learning, tandis que les GPU Nvidia sont des accélérateurs plus polyvalents soutenus par l'écosystème logiciel CUDA. Google affirme que le TPU 8 surpasse le matériel Nvidia comparable sur les benchmarks d'entraînement et d'inférence, mais la plupart des laboratoires d'IA continuent de s'appuyer sur Nvidia en raison de la compatibilité logicielle et des outils établis.