O Google apresentou dois chips de IA no Cloud Next 2026 em 22 de abril, entregando 2,8× o desempenho de treinamento da geração anterior — e a OpenAI agora está comprando capacidade de TPU do Google.
Um único chip com 384 megabytes de SRAM integrada — o triplo da memória de seu predecessor — é a mais recente aposta do Google para destronar a Nvidia como processador padrão da indústria global de IA.
O Google apresentou duas novas unidades de processamento tensorial em sua conferência Cloud Next em Las Vegas, em 22 de abril de 2026: o TPU 8t, projetado para o treinamento de grandes modelos de IA, e o TPU 8i, otimizado para tarefas de inferência. Juntos, representam o desafio competitivo mais direcionado da empresa às linhas H100 e B200 da Nvidia. O anúncio trouxe um sinal comercial incomum: a OpenAI, que treinou seus modelos quase exclusivamente em hardware da Nvidia desde sua fundação, agora está comprando capacidade de TPU do Google Cloud.
Google Cloud · TPU 8 · artificial intelligence chips
As afirmações de desempenho são substanciais. O Google diz que o TPU 8t entrega 2,8 vezes a taxa de transferência de treinamento do chip Ironwood de sétima geração, anunciado em novembro de 2025, pelo mesmo preço por unidade. O TPU 8i melhora o desempenho de inferência em 80% em relação ao Ironwood. Ambos os chips contêm 384 MB de SRAM, contra 128 MB do Ironwood — uma triplicação da memória no chip que reduz o tempo que os modelos passam aguardando o acesso à memória externa, um dos principais gargalos de latência em inferência em grande escala. A disponibilidade comercial está prevista para "mais tarde em 2026", disse o Google Cloud na conferência, sem especificar um trimestre.
Continue reading to see the full article
“As afirmações de desempenho são substanciais.”
A Anthropic, empresa de segurança em IA sediada em São Francisco e criadora da família de modelos Claude, comprometeu-se simultaneamente a adquirir o que descreveu como "múltiplos gigawatts" de capacidade de TPU do Google — um valor que, se concretizado, a colocaria entre os maiores compradores de computação do mundo. O anúncio da Anthropic reforçou a parceria existente entre as empresas e sinalizou que a demanda de IA de ponta por capacidade computacional segue muito à frente da oferta atual de qualquer fornecedor único.
Pontos Principais
→Google Cloud: Google says the TPU 8t delivers 2.
→TPU 8: Google says the TPU 8t delivers 2.
→artificial intelligence chips: Google says the TPU 8t delivers 2.
→Nvidia rivalry: Google says the TPU 8t delivers 2.
Para o Google, a geração TPU 8 é uma oportunidade de converter o apetite insaciável da indústria de IA por computação em receita de Cloud. A receita do Google Cloud cresceu 28% ano a ano no primeiro trimestre de 2026, atingindo US$ 12,4 bilhões, de acordo com o relatório de resultados da Alphabet de abril de 2026 — mas sua participação no mercado de infraestrutura em nuvem ainda está abaixo tanto da Amazon Web Services quanto da Microsoft Azure. Um TPU credível que atraia laboratórios de ponta para longe dos aceleradores da Nvidia representa uma mudança estrutural, não um ciclo de produto.
A posição da Nvidia ainda não está ameaçada em escala. A empresa entregou aproximadamente US$ 40 bilhões em GPUs para data centers no ano fiscal encerrado em janeiro de 2026, segundo seus próprios relatórios, e seu ecossistema de software CUDA confere uma vantagem de custo de mudança que nenhum concorrente superou. Os chips MI350 da AMD, lançados em março de 2026, atraíram interesse empresarial modesto, mas não abalaram a participação da Nvidia no treinamento de IA de ponta. As gerações anteriores de TPU do próprio Google encontraram adoção significativa internamente, mas tiveram dificuldades para atrair cargas de trabalho de terceiros em escala — a distância entre o desempenho em benchmarks e a migração no mundo real foi maior do que os roadmaps do Google sugeriam.
Advertisement
Google Cloud · TPU 8 · artificial intelligence chips
A ressalva enterrada no anúncio do Google é o software. Treinar em TPUs requer a reescrita ou recompilação de fluxos de trabalho desenvolvidos para GPUs da Nvidia — um processo que grandes laboratórios estimaram em três a seis meses de tempo de engenharia por arquitetura de modelo. O Google melhorou significativamente suas ferramentas de compilador JAX e XLA desde 2024, e o compromisso da Anthropic sugere que essas melhorias estão dando resultado. Mas para laboratórios que ainda não fizeram a transição, o custo de mudança é real, e a disponibilidade "mais tarde em 2026" significa que o teste competitivo ainda está a meses de distância. A questão de saber se a compra de TPUs pela OpenAI é um piloto ou uma mudança estrutural em sua estratégia de infraestrutura é algo que a empresa ainda não respondeu publicamente.
O próximo ponto de inflexão é a conferência GTC da Nvidia, prevista provisoriamente para setembro de 2026, onde a empresa deve revelar preços e disponibilidade para a série Blackwell Ultra B300. Se o Google conseguir firmar acordos com laboratórios de ponta adicionais — particularmente a xAI ou a divisão de pesquisa da Meta — antes desse anúncio, terá reduzido materialmente a vantagem que a Nvidia levou uma década construindo.
Quão mais rápido é o Google TPU 8t em relação ao seu predecessor?
O Google afirma que o TPU 8t entrega 2,8 vezes o desempenho de treinamento do TPU Ironwood de sétima geração, anunciado em novembro de 2025, pelo mesmo custo. Ambos os novos chips contêm 384 MB de SRAM — o triplo dos 128 MB do Ironwood — o que reduz a latência de acesso à memória externa.
A OpenAI está usando TPUs do Google em vez de GPUs da Nvidia?
A partir de abril de 2026, a OpenAI está comprando capacidade de TPU do Google paralelamente ao uso contínuo de hardware da Nvidia. Historicamente, a OpenAI treinou seus modelos quase exclusivamente em GPUs da Nvidia. O anúncio do Cloud Next é o primeiro sinal público confirmado de que a OpenAI está diversificando seus fornecedores de computação.
Quando os TPU 8t e 8i do Google estarão disponíveis comercialmente?
O Google Cloud disse "mais tarde em 2026" em sua conferência Cloud Next em 22 de abril de 2026, mas não especificou o trimestre. Os chips ainda não estão disponíveis ao público em geral em 26 de abril de 2026.
Como os TPUs do Google se comparam às GPUs da Nvidia para cargas de trabalho de IA?
Os TPUs são construídos especificamente para operações matriciais usadas em aprendizado profundo, enquanto as GPUs da Nvidia são aceleradoras de uso mais geral, respaldadas pelo ecossistema de software CUDA. O Google afirma que o TPU 8 supera o hardware comparável da Nvidia em benchmarks de treinamento e inferência, mas a maioria dos laboratórios de IA ainda usa a Nvidia devido à compatibilidade de software e às ferramentas consolidadas.