Tecnología
Publicado:

OpenAI apuesta por los chips de Google para potenciar ChatGPT y reducir dependencia de Nvidia

OpenAI recurre a la infraestructura de Google Cloud para reforzar ChatGPT y disminuir su dependencia tecnológica de Nvidia en el sector de la inteligencia artificial

3 min lectura
OpenAI y Google
Iceebook

OpenAI, la empresa líder en desarrollo de inteligencia artificial, ha dado un paso estratégico al incorporar los chips de Google para potenciar ChatGPT y otros productos clave. Según fuentes consultadas por Reuters, la compañía comenzó a alquilar la plataforma de unidades de procesamiento tensorial (TPU) de Google Cloud, marcando un giro inesperado en su tradicional alianza con Nvidia, fabricante de las GPU más utilizadas para IA.

El movimiento supone la primera vez que OpenAI utiliza de manera significativa hardware que no proviene de Nvidia. Hasta ahora, el entrenamiento y la operación de modelos avanzados de IA, como ChatGPT, se apoyaban principalmente en las potentes GPU de la firma dirigida por Jensen Huang, cuyo suministro global es altamente demandado y costoso.

Para Google, la llegada de OpenAI a su cartera de clientes representa un logro estratégico en la carrera por liderar la infraestructura de inteligencia artificial. La empresa de Mountain View ha abierto progresivamente el acceso externo a sus TPU, una tecnología antes reservada para uso interno, permitiendo ahora que grandes compañías, incluidas rivales directas, exploren nuevas alternativas de cómputo en la nube.

La decisión de OpenAI llega en un contexto de creciente demanda global de recursos computacionales para IA generativa. Las TPU de Google, diseñadas específicamente para modelos de aprendizaje automático, ofrecen una opción más asequible y escalable, lo que podría traducirse en una reducción significativa de los costos operativos para la compañía de Sam Altman.

El acuerdo evidencia una colaboración inesperada entre dos actores que compiten directamente en el sector. Mientras OpenAI y Google desarrollan sus propios modelos avanzados de IA, la apertura a compartir infraestructura refleja una tendencia creciente hacia la diversificación de proveedores y la búsqueda de eficiencia en la industria.

Según medios especializados, OpenAI confía en que la incorporación de las TPU de Google Cloud ayudará a abaratar el proceso de inferencia. Sin embargo, Google mantiene restringido el acceso a sus chips TPU más potentes, reservándolos para proyectos propios o alianzas estratégicas.

Este movimiento estratégico de OpenAI no solo potencia ChatGPT y amplía su alcance, sino que también evidencia la necesidad de independencia frente a la escasez global de chips y el aumento de los costos energéticos. La era de la IA dependerá cada vez más de alianzas flexibles y soluciones híbridas, donde la competencia y la colaboración conviven en equilibrio.

Preguntas frecuentes

¿Por qué OpenAI eligió los chips de Google en lugar de Nvidia?

Buscan reducir costes, diversificar proveedores y evitar la escasez global de GPU para inteligencia artificial.

¿Qué productos de OpenAI se beneficiarán de esta alianza?

Principalmente ChatGPT y otros modelos avanzados de inteligencia artificial desarrollados por la compañía.

¿Google permitirá a OpenAI acceder a sus chips más potentes?

No, Google mantiene restringido el acceso a sus TPU más avanzados y los reserva para proyectos propios.

¿Este acuerdo implica una colaboración tecnológica más amplia entre Google y OpenAI?

Por ahora se limita al alquiler de infraestructura, aunque podría abrir la puerta a futuras alianzas estratégicas.

Compartir artículo

Continúa informándote