Google stellte auf der Cloud Next 2026 am 22. April zwei KI-Chips vor, die die 2,8-fache Trainingsleistung der Vorgängergeneration bieten – und OpenAI kauft nun Google-TPU-Kapazitäten.
Ein einzelner Chip mit 384 Megabyte On-Board-SRAM – dreimal so viel Speicher wie sein Vorgänger – ist Googles jüngster Versuch, Nvidia als Standardprozessor der globalen KI-Industrie abzulösen.
Google stellte auf seiner Cloud-Next-Konferenz in Las Vegas am 22. April 2026 zwei neue Tensor Processing Units vor: den TPU 8t, konzipiert für das Training großer KI-Modelle, und den TPU 8i, optimiert für Inferenzaufgaben. Zusammen stellen sie die bisher gezielteste Wettbewerbsherausforderung des Unternehmens gegenüber Nvidias H100- und B200-Reihen dar. Die Ankündigung enthielt ein ungewöhnliches kommerzielles Signal: OpenAI, das seine Modelle seit seiner Gründung fast ausschließlich auf Nvidia-Hardware trainiert hat, kauft nun TPU-Kapazitäten von Google Cloud.
Google Cloud · TPU 8 · artificial intelligence chips
Die Leistungsversprechen sind erheblich. Google gibt an, dass der TPU 8t den 2,8-fachen Trainingsdurchsatz seines Ironwood-Chips der siebten Generation liefert, der im November 2025 angekündigt wurde – zum gleichen Preis pro Einheit. Der TPU 8i verbessert die Inferenzleistung gegenüber Ironwood um 80 %. Beide Chips enthalten 384 MB SRAM, verglichen mit Ironwoods 128 MB – eine Verdreifachung des On-Chip-Speichers, die die Zeit reduziert, die Modelle auf externen Speicherzugriff warten müssen, eines der wichtigsten Latenzprobleme bei der Inferenz in großem Maßstab. Die kommerzielle Verfügbarkeit ist für „später im Jahr 2026" geplant, teilte Google Cloud auf der Konferenz mit, ohne ein konkretes Quartal zu nennen.
Continue reading to see the full article
“Der TPU 8i verbessert die Inferenzleistung gegenüber Ironwood um 80 %.”
Anthropic, das in San Francisco ansässige KI-Sicherheitsunternehmen und Entwickler der Claude-Modellfamilie, verpflichtete sich gleichzeitig zum Kauf von Google-TPU-Kapazitäten in der Größenordnung von „mehreren Gigawatt" – eine Zahl, die das Unternehmen, falls realisiert, zu einem der weltgrößten Rechenleistungskäufer machen würde. Die Anthropic-Ankündigung stärkte die bestehende Partnerschaft der Unternehmen und signalisierte, dass die Nachfrage nach Rechenleistung für KI der Spitzenklasse weit vor dem aktuellen Angebot eines einzelnen Anbieters liegt.
Wichtige Erkenntnisse
→Google Cloud: Google says the TPU 8t delivers 2.
→TPU 8: Google says the TPU 8t delivers 2.
→artificial intelligence chips: Google says the TPU 8t delivers 2.
→Nvidia rivalry: Google says the TPU 8t delivers 2.
Für Google ist die TPU-8-Generation eine Chance, den unstillbaren Hunger der KI-Industrie nach Rechenleistung in Cloud-Umsätze umzuwandeln. Google Clouds Umsatz wuchs laut Alphabets Quartalsbericht vom April 2026 im ersten Quartal 2026 um 28 % im Jahresvergleich auf 12,4 Milliarden US-Dollar – doch sein Anteil am Cloud-Infrastrukturmarkt liegt weiterhin unter dem von Amazon Web Services und Microsoft Azure. Ein glaubwürdiger TPU, der Frontier-Labs von Nvidia-Beschleunigern weglockt, ist ein struktureller Wandel, kein Produktzyklus.
Nvidias Position ist noch nicht im großen Maßstab bedroht. Das Unternehmen lieferte im Geschäftsjahr bis Januar 2026 laut eigenen Angaben Rechenzentrums-GPUs im Wert von rund 40 Milliarden US-Dollar aus, und sein CUDA-Software-Ökosystem verleiht ihm einen Wechselkostenvorteil, den kein Wettbewerber bisher überwunden hat. AMDs MI350-Chips, die im März 2026 eingeführt wurden, haben mäßiges Unternehmensinteresse geweckt, konnten Nvidias Anteil am KI-Training der Spitzenklasse jedoch nicht schmälern. Googles frühere TPU-Generationen fanden intern erhebliche Verbreitung, hatten jedoch Schwierigkeiten, Drittanbieter-Workloads in großem Maßstab zu gewinnen – die Lücke zwischen Benchmark-Leistung und realer Migration war größer als Googles Roadmaps vermuten ließen.
Advertisement
Google Cloud · TPU 8 · artificial intelligence chips
Der in Googles Ankündigung verborgene Vorbehalt betrifft die Software. Das Training auf TPUs erfordert das Umschreiben oder Neukompilieren von Workflows, die für Nvidia-GPUs entwickelt wurden – ein Prozess, den große Labore auf drei bis sechs Monate Engineering-Zeit pro Modellarchitektur schätzen. Google hat seine JAX- und XLA-Compiler-Tools seit 2024 erheblich verbessert, und Anthropics Engagement deutet darauf hin, dass sich diese Verbesserungen auszahlen. Doch für Labore, die den Übergang noch nicht vollzogen haben, sind die Wechselkosten nach wie vor real, und die Verfügbarkeit „später im Jahr 2026" bedeutet, dass der Wettbewerbstest noch Monate entfernt ist. Die Frage, ob OpenAIs TPU-Kauf ein Pilotprojekt oder ein struktureller Wandel in seiner Infrastrukturstrategie ist, hat das Unternehmen öffentlich nicht beantwortet.
Der nächste Wendepunkt ist Nvidias GTC-Konferenz, die vorläufig für September 2026 geplant ist und auf der das Unternehmen voraussichtlich Preise und Verfügbarkeit der Blackwell-Ultra-B300-Serie bekannt geben wird. Wenn Google vor dieser Ankündigung weitere Frontier-Labs gewinnen kann – insbesondere xAI oder Metas Forschungsabteilung –, hätte es den Vorsprung, den Nvidia in einem Jahrzehnt aufgebaut hat, erheblich verringert.
Um wie viel schneller ist der Google TPU 8t im Vergleich zu seinem Vorgänger?
Google gibt an, dass der TPU 8t die 2,8-fache Trainingsleistung des TPU der siebten Generation, des Ironwood, liefert, der im November 2025 angekündigt wurde – zum gleichen Preis. Beide neuen Chips enthalten 384 MB SRAM – dreimal so viel wie Ironwoods 128 MB –, was die Latenz beim Zugriff auf externen Speicher reduziert.
Nutzt OpenAI Google-TPUs anstelle von Nvidia-GPUs?
Seit April 2026 kauft OpenAI Google-TPU-Kapazitäten, während es weiterhin Nvidia-Hardware einsetzt. OpenAI hat seine Modelle historisch gesehen fast ausschließlich auf Nvidia-GPUs trainiert. Die Ankündigung auf der Cloud Next ist das erste öffentlich bestätigte Signal dafür, dass OpenAI seine Rechenlieferanten diversifiziert.
Wann werden Googles TPU 8t und 8i kommerziell verfügbar sein?
Google Cloud sagte auf seiner Cloud-Next-Konferenz am 22. April 2026 „später im Jahr 2026", nannte jedoch kein konkretes Quartal. Die Chips sind Stand 26. April 2026 noch nicht allgemein verfügbar.
Wie schneiden Google-TPUs im Vergleich zu Nvidia-GPUs bei KI-Workloads ab?
TPUs sind speziell für Matrixoperationen im Deep Learning entwickelt, während Nvidia-GPUs universellere Beschleuniger sind, die vom CUDA-Software-Ökosystem gestützt werden. Google behauptet, dass TPU 8 vergleichbare Nvidia-Hardware bei Trainings- und Inferenz-Benchmarks übertrifft, doch die meisten KI-Labore setzen aufgrund der Softwarekompatibilität und etablierten Werkzeuge weiterhin auf Nvidia.