Tecnología
Publicado:

Nvidia consolida su posición con OpenAI mientras Google fracasa en vender sus chips TPU

OpenAI confirmó que no planea usar los procesadores TPU de Google a gran escala, manteniendo su dependencia de las GPU de Nvidia y chips de AMD

3 min lectura
Logos de Nvidia y OpenAI
Imagen ilustrativa. Créditos: Iceebook

Nvidia Corp. reforzó públicamente su asociación con OpenAI tras confirmarse que el creador de ChatGPT rechazó implementar a gran escala los chips de inteligencia artificial de Google, conocidos como TPU (Unidades de Procesamiento Tensorial).

"Estamos orgullosos de asociarnos con OpenAI y de seguir impulsando la base de su trabajo", escribió Nvidia en X, citando un informe de Reuters que confirmaba la decisión de OpenAI de no adoptar masivamente la tecnología de procesamiento de Google.

Un portavoz de OpenAI confirmó a Reuters que la compañía está realizando únicamente pruebas iniciales con algunas TPU de Google, pero no tiene planes activos para utilizarlas a gran escala. En su lugar, OpenAI continúa confiando principalmente en las unidades de procesamiento gráfico (GPU) de Nvidia y en los chips de IA de Advanced Micro Devices Inc. para satisfacer sus crecientes demandas computacionales.

Esta confirmación llega pocos días después de que se revelara que OpenAI firmó en mayo un acuerdo de servicios en la nube con Google Cloud, una asociación considerada inusual entre rivales directos en el sector de inteligencia artificial.

El acuerdo con Google Cloud proporciona a OpenAI acceso a infraestructura para apoyar el entrenamiento y despliegue de modelos como ChatGPT, reduciendo parcialmente su dependencia de Azure de Microsoft Corp.

Google ha intentado ampliar la disponibilidad externa de sus TPU, chips que históricamente estaban reservados para uso interno exclusivo de la compañía. La estrategia ha logrado atraer algunos clientes notables como Apple Inc. y startups de IA como Anthropic y Safe Superintelligence, pero claramente no ha conseguido convencer a OpenAI para un despliegue masivo.

Según el analista Gil Luria de D.A. Davidson, los chips personalizados de Google ofrecen una ventaja de costos significativa, aunque solo son superados por Nvidia en términos de rendimiento puro.

La decisión de OpenAI de mantener su dependencia de Nvidia representa un golpe estratégico para Google en su intento de diversificar sus ingresos más allá de la publicidad y competir directamente en el lucrativo mercado de chips especializados para IA. Para Nvidia, esta confirmación refuerza su posición dominante en el sector y valida su estrategia de mantener relaciones estrechas con los principales desarrolladores de inteligencia artificial.

La situación ilustra la compleja dinámica competitiva en el ecosistema de IA, donde las empresas pueden colaborar en ciertos aspectos (como servicios en la nube) mientras compiten ferozmente en otros (como hardware especializado).

Preguntas frecuentes

¿Qué chips usa OpenAI para entrenar ChatGPT?

OpenAI utiliza principalmente GPU de Nvidia y chips de IA de AMD, rechazando el uso masivo de TPU de Google.

¿Firmó OpenAI algún acuerdo con Google?

Sí, firmó un acuerdo de servicios en la nube con Google Cloud en mayo, pero solo para infraestructura.

¿Qué son las TPU de Google?

Son Unidades de Procesamiento Tensorial, chips especializados en IA que Google desarrolló inicialmente para uso interno.

¿Qué ventajas ofrecen las TPU de Google?

Según analistas, ofrecen ventajas de costos significativas, aunque Nvidia las supera en rendimiento puro.

Compartir artículo

Continúa informándote