Google представила два AI-чіпи на Cloud Next 2026 22 квітня, що забезпечують продуктивність навчання у 2,8× вищу за попереднє покоління — і OpenAI вже купує потужності Google TPU.
Єдиний чіп із 384 мегабайтами вбудованої SRAM — утричі більше, ніж у попередника — це остання спроба Google змістити Nvidia з позиції основного процесора світової AI-індустрії.
Google представила два нові тензорні процесори на своїй конференції Cloud Next у Лас-Вегасі 22 квітня 2026 року: TPU 8t, розроблений для навчання великих AI-моделей, та TPU 8i, оптимізований для задач виведення результатів. Разом вони являють собою найбільш цілеспрямований конкурентний виклик лініям Nvidia H100 та B200 з боку компанії. Оголошення несло в собі незвичайний комерційний сигнал: OpenAI, яка з моменту свого заснування навчала моделі майже виключно на обладнанні Nvidia, тепер купує потужності TPU у Google Cloud.
Google Cloud · TPU 8 · artificial intelligence chips
Заявлені показники продуктивності є суттєвими. Google стверджує, що TPU 8t забезпечує продуктивність навчання у 2,8 рази вищу, ніж чіп сьомого покоління Ironwood, представлений у листопаді 2025 року, за тією ж ціною за одиницю. TPU 8i покращує продуктивність виведення результатів на 80% порівняно з Ironwood. Обидва чіпи містять 384 МБ SRAM проти 128 МБ у Ironwood — потроєння обсягу вбудованої пам'яті, що зменшує час, який моделі витрачають на очікування доступу до зовнішньої пам'яті, — один із основних вузьких місць затримки при великомасштабному виведенні результатів. Комерційна доступність запланована на «пізніше у 2026 році», заявила Google Cloud на конференції, не уточнюючи квартал.
Continue reading to see the full article
“Заявлені показники продуктивності є суттєвими.”
Anthropic, заснована у Сан-Франциско компанія з безпеки AI та розробник сімейства моделей Claude, одночасно взяла зобов'язання придбати те, що вона описала як «кілька гігаватів» потужностей Google TPU — показник, який, якщо буде реалізований, поставить її в один ряд з найбільшими у світі покупцями обчислювальних ресурсів. Оголошення Anthropic підкріпило вже існуюче партнерство компаній та засвідчило, що попит AI-лабораторій на обчислювальні ресурси значно перевищує поточні можливості постачання від будь-якого окремого постачальника.
Ключові висновки
→Google Cloud: Google says the TPU 8t delivers 2.
→TPU 8: Google says the TPU 8t delivers 2.
→artificial intelligence chips: Google says the TPU 8t delivers 2.
→Nvidia rivalry: Google says the TPU 8t delivers 2.
Для Google покоління TPU 8 є можливістю перетворити ненаситний апетит AI-індустрії до обчислювальних ресурсів на дохід від хмарних послуг. Дохід Google Cloud зріс на 28% у річному обчисленні в першому кварталі 2026 року, досягнувши $12,4 млрд, згідно зі звітом Alphabet про прибутки за квітень 2026 року, — проте її частка на ринку хмарної інфраструктури залишається нижчою за Amazon Web Services та Microsoft Azure. Надійний TPU, здатний залучити провідні лабораторії від прискорювачів Nvidia, — це структурний зсув, а не звичайний продуктовий цикл.
Позиції Nvidia поки що не перебувають під загрозою у масштабах. Компанія поставила приблизно $40 млрд GPU для центрів обробки даних у фінансовому році, що завершився у січні 2026 року, згідно з власною звітністю, а її програмна екосистема CUDA забезпечує перевагу витрат на переключення, яку жоден конкурент не подолав. Чіпи AMD MI350, випущені у березні 2026 року, викликали помірний інтерес серед корпоративних клієнтів, але не підірвали частку Nvidia у навчанні провідних AI-систем. Попередні покоління TPU від Google знайшли значне застосування всередині компанії, але з трудом залучали сторонні навантаження у масштабах — розрив між продуктивністю у бенчмарках та реальною міграцією виявився ширшим, ніж передбачали дорожні карти Google.
Advertisement
Google Cloud · TPU 8 · artificial intelligence chips
Застереження, приховане в оголошенні Google, стосується програмного забезпечення. Навчання на TPU вимагає переписання або перекомпіляції робочих процесів, розроблених для GPU Nvidia, — процес, який великі лабораторії оцінюють у три-шість місяців інженерного часу на архітектуру моделі. Google значно вдосконалила свій інструментарій компіляторів JAX та XLA з 2024 року, і зобов'язання Anthropic свідчать про те, що ці вдосконалення дають плоди. Але для лабораторій, які ще не здійснили перехід, витрати на переключення залишаються реальними, а доступність «пізніше у 2026 році» означає, що конкурентне випробування ще попереду на кілька місяців. Питання про те, чи є купівля TPU компанією OpenAI пілотним проектом, чи структурним зсувом в її інфраструктурній стратегії, залишається публічно без відповіді.
Наступною точкою перелому стане конференція Nvidia GTC, попередньо запланована на вересень 2026 року, де компанія, як очікується, оголосить ціни та доступність серії Blackwell Ultra B300. Якщо Google зможе укласти угоди з додатковими провідними лабораторіями — зокрема xAI або дослідницьким підрозділом Meta — до цього оголошення, вона суттєво скоротить розрив, який Nvidia будувала протягом десятиліття.
Наскільки швидший Google TPU 8t порівняно з попередником?
За словами Google, TPU 8t забезпечує продуктивність навчання у 2,8 рази вищу, ніж TPU сьомого покоління Ironwood, представлений у листопаді 2025 року, за тією ж ціною. Обидва нові чіпи містять 384 МБ SRAM — утричі більше, ніж 128 МБ у Ironwood — що зменшує затримку при зверненні до зовнішньої пам'яті.
Чи використовує OpenAI TPU від Google замість GPU від Nvidia?
Станом на квітень 2026 року OpenAI купує потужності Google TPU паралельно з продовженням використання обладнання Nvidia. Раніше OpenAI навчала свої моделі майже виключно на GPU Nvidia. Оголошення на Cloud Next є першим підтвердженим публічним сигналом того, що OpenAI диверсифікує своїх постачальників обчислювальних ресурсів.
Коли Google TPU 8t та 8i стануть комерційно доступними?
Google Cloud заявила «пізніше у 2026 році» на своїй конференції Cloud Next 22 квітня 2026 року, але не уточнила квартал. Станом на 26 квітня 2026 року чіпи ще не є загальнодоступними.
Як TPU від Google порівнюються з GPU від Nvidia для задач AI?
TPU спеціально розроблені для матричних операцій, що використовуються у глибокому навчанні, тоді як GPU Nvidia є більш універсальними прискорювачами, підкріпленими програмною екосистемою CUDA. Google стверджує, що TPU 8 перевершує порівнянне обладнання Nvidia у бенчмарках навчання та виведення результатів, проте більшість AI-лабораторій досі будують системи на основі Nvidia через сумісність програмного забезпечення та усталений інструментарій.