Google presentó dos chips de IA en Cloud Next 2026 el 22 de abril que ofrecen 2,8 veces el rendimiento de entrenamiento de la generación anterior, y OpenAI ya está comprando capacidad de TPU de Google.
Un solo chip con 384 megabytes de SRAM integrada —el triple de memoria que su predecesor— es la última apuesta de Google para desbancar a Nvidia como procesador predeterminado de la industria global de la IA.
Google presentó dos nuevas unidades de procesamiento tensorial en su conferencia Cloud Next en Las Vegas el 22 de abril de 2026: el TPU 8t, diseñado para entrenar grandes modelos de IA, y el TPU 8i, optimizado para tareas de inferencia. Juntos, representan el desafío competitivo más directo de la compañía frente a las líneas H100 y B200 de Nvidia. El anuncio llevaba consigo una señal comercial inusual: OpenAI, que ha entrenado casi exclusivamente sobre hardware de Nvidia desde su fundación, está ahora adquiriendo capacidad de TPU en Google Cloud.
Google Cloud · TPU 8 · artificial intelligence chips
Las afirmaciones de rendimiento son sustanciales. Google asegura que el TPU 8t ofrece 2,8 veces el rendimiento de entrenamiento de su chip Ironwood de séptima generación, anunciado en noviembre de 2025, al mismo precio por unidad. El TPU 8i mejora el rendimiento de inferencia en un 80% respecto a Ironwood. Ambos chips contienen 384 MB de SRAM, frente a los 128 MB de Ironwood —una triplicación de la memoria en chip que reduce el tiempo que los modelos pasan esperando al acceso a memoria externa, uno de los principales cuellos de botella de latencia en la inferencia a gran escala. La disponibilidad comercial está prevista para "más adelante en 2026", indicó Google Cloud en la conferencia, sin especificar un trimestre.
“Las afirmaciones de rendimiento son sustanciales.”
Anthropic, la empresa de seguridad de IA con sede en San Francisco y creadora de la familia de modelos Claude, se comprometió simultáneamente a adquirir lo que describió como "múltiples gigavatios" de capacidad de TPU de Google —una cifra que, de materializarse, la situaría entre los mayores compradores de cómputo del mundo. El anuncio de Anthropic reforzó la asociación existente entre las empresas y señaló que la demanda de cómputo de la IA de frontera sigue muy por delante de la oferta actual de cualquier proveedor individual.
Puntos Clave
→Google Cloud: Google says the TPU 8t delivers 2.
→TPU 8: Google says the TPU 8t delivers 2.
→artificial intelligence chips: Google says the TPU 8t delivers 2.
→Nvidia rivalry: Google says the TPU 8t delivers 2.
Para Google, la generación TPU 8 es una oportunidad para convertir el insaciable apetito de la industria de la IA por el cómputo en ingresos para Cloud. Los ingresos de Google Cloud crecieron un 28% interanual en el primer trimestre de 2026, alcanzando los 12.400 millones de dólares, según el informe de resultados de Alphabet de abril de 2026, aunque su cuota del mercado de infraestructura en la nube sigue por debajo de Amazon Web Services y Microsoft Azure. Un TPU creíble que atraiga a laboratorios de frontera alejándolos de los aceleradores de Nvidia supone un cambio estructural, no un simple ciclo de producto.
La posición de Nvidia aún no está amenazada a gran escala. La compañía envió aproximadamente 40.000 millones de dólares en GPU para centros de datos en el año fiscal que concluyó en enero de 2026, según sus propios informes, y su ecosistema de software CUDA le otorga una ventaja en costes de cambio que ningún competidor ha logrado superar. Los chips MI350 de AMD, lanzados en marzo de 2026, han generado cierto interés empresarial moderado, pero no han mermado la cuota de Nvidia en el entrenamiento de IA de frontera. Las generaciones anteriores de TPU de Google encontraron una adopción significativa internamente, pero tuvieron dificultades para atraer cargas de trabajo de terceros a escala —la brecha entre el rendimiento en pruebas de referencia y la migración real ha sido mayor de lo que los planes de ruta de Google sugerían.
Advertisement
Google Cloud · TPU 8 · artificial intelligence chips
La advertencia enterrada en el anuncio de Google es el software. Entrenar con TPU requiere reescribir o recompilar flujos de trabajo diseñados para GPU de Nvidia —un proceso que los principales laboratorios han estimado en tres a seis meses de trabajo de ingeniería por arquitectura de modelo. Google ha mejorado significativamente sus herramientas de compilador JAX y XLA desde 2024, y el compromiso de Anthropic sugiere que esas mejoras están dando fruto. Pero para los laboratorios que aún no han realizado la transición, el coste del cambio sigue siendo real, y la disponibilidad "más adelante en 2026" significa que la prueba competitiva se producirá dentro de varios meses. La pregunta de si la compra de TPU por parte de OpenAI es un proyecto piloto o un cambio estructural en su estrategia de infraestructura es algo que la empresa no ha respondido públicamente.
El próximo punto de inflexión es la conferencia GTC de Nvidia, prevista provisionalmente para septiembre de 2026, donde se espera que la compañía revele precios y disponibilidad para la serie Blackwell Ultra B300. Si Google puede firmar acuerdos con laboratorios de frontera adicionales —en particular xAI o la división de investigación de Meta— antes de ese anuncio, habrá reducido materialmente la ventaja que Nvidia ha tardado una década en construir.
¿Cuánto más rápido es el Google TPU 8t que su predecesor?
Google afirma que el TPU 8t ofrece 2,8 veces el rendimiento de entrenamiento del TPU Ironwood de séptima generación, anunciado en noviembre de 2025, al mismo coste. Ambos chips nuevos contienen 384 MB de SRAM, el triple que los 128 MB de Ironwood, lo que reduce la latencia derivada del acceso a memoria externa.
¿Está OpenAI utilizando TPU de Google en lugar de GPU de Nvidia?
A partir de abril de 2026, OpenAI está adquiriendo capacidad de TPU de Google junto con su uso continuado de hardware de Nvidia. Históricamente, OpenAI ha entrenado sus modelos casi exclusivamente en GPU de Nvidia. El anuncio de Cloud Next es la primera señal pública confirmada de que OpenAI está diversificando sus proveedores de cómputo.
¿Cuándo estarán disponibles comercialmente el TPU 8t y el 8i de Google?
Google Cloud indicó "más adelante en 2026" en su conferencia Cloud Next el 22 de abril de 2026, sin especificar un trimestre. Los chips no están disponibles de forma general a 26 de abril de 2026.
¿Cómo se comparan los TPU de Google con las GPU de Nvidia para cargas de trabajo de IA?
Los TPU están diseñados específicamente para operaciones matriciales utilizadas en el aprendizaje profundo, mientras que las GPU de Nvidia son aceleradores de uso más general respaldados por el ecosistema de software CUDA. Google afirma que el TPU 8 supera al hardware comparable de Nvidia en pruebas de referencia de entrenamiento e inferencia, pero la mayoría de los laboratorios de IA siguen construyendo sobre Nvidia debido a la compatibilidad de software y las herramientas consolidadas.