Ir al contenido

OpenAI apuesta por los TPU de Google para afianzar su dominio de la IA

La alianza apunta a bajar costos de inferencia y desafiar la supremacía de Nvidia en hardware especializado

La alianza apunta a bajar costos de inferencia y desafiar la supremacía de Nvidia en hardware especializado

Panorama general

OpenAI, la empresa creadora de ChatGPT, ha firmado un acuerdo para ejecutar parte de sus modelos en los Tensor Processing Units (TPU) de Google Cloud. Es la primera adopción significativa de hardware distinto a las GPU de Nvidia y a la infraestructura de su socio principal, Microsoft. El objetivo primordial es reducir los costos crecientes de inferencia —la fase en que los modelos ya entrenados generan respuestas— y garantizar la capacidad de cómputo necesaria ante la creciente demanda mundial de servicios de IA.

Motivos estratégicos

Hasta hoy, OpenAI dependía casi por completo de las GPU de Nvidia, cuyos precios y tiempos de entrega han subido de forma notable. Al incorporar TPU de Google, la empresa adopta un enfoque multicloud que también incluye a Oracle y CoreWeave, con el propósito de negociar tarifas más favorables, contar con mayor resiliencia y evitar cuellos de botella en la cadena de suministro.

Características de los TPU disponibles

Google no comparte sus versiones más recientes (Ironwood o TPU v7), pero las generaciones entregadas ofrecen memoria HBM de alta capacidad y ancho de banda suficiente para cargas de inferencia masiva. Estas unidades prometen un costo por token inferior al de las GPU de gama alta, lo que, de confirmarse, significaría ahorros sustanciales para OpenAI.

Desafíos de integración

Migrar a una nueva arquitectura implica adaptar bibliotecas, pipelines y sistemas de orquestación. Los equipos de OpenAI están evaluando la compatibilidad de frameworks como JAX y PyTorch/XLA, además de la latencia en distintos puntos de presencia global. Otro reto es mantener la calidad de servicio mientras se redistribuyen cargas entre proveedores.

Impacto en el mercado de chips

La maniobra envía una señal clara: la hegemonía de Nvidia ya no es inamovible. Otros actores —AMD con su MI300, Google con sus TPU y el proyecto interno de chips de OpenAI— se disputan una porción de un mercado de semiconductores especializado en IA que superará los 100 000 millones de dólares este año. Esta diversificación podría presionar a los fabricantes de GPU a revisar sus precios y acelerar la innovación.

Perspectivas a futuro

Si las pruebas de rendimiento confirman el ahorro previsto, OpenAI incrementará el uso de TPU y obligará a otros hiperescalares (AWS, Azure) a ofrecer condiciones más competitivas. En caso contrario, la empresa mantendrá un portafolio de proveedores múltiples mientras impulsa su proyecto de chip propio para consolidar su independencia tecnológica.

¿Quieres que tu negocio aproveche el impulso de la inteligencia artificial con sitios veloces, optimizados y listos para integrar estas tecnologías? 

En www.SiteSupremacy.com diseñamos soluciones web, SEO y marketing digital que elevan tu presencia en línea. 

¡Contáctanos hoy mismo y lleva tu proyecto al siguiente nivel!

¡Empieza hoy!

José Mario Rivera Carranza 4 de julio de 2025
Compartir
Archivar
Intel replantea su estrategia de fabricación: de 18A a 14A para recuperar liderazgo
El nuevo CEO Lip-Bu Tan evalúa abandonar el nodo 18A, asumir pérdidas millonarias y externalizar parte de la producción para seducir a clientes como Apple y Nvidia