Resumen
- AWS planea desplegar alrededor de 1 millón de GPUs de Nvidia hasta 2027.
- La expansión incluye computación, redes y sistemas para implementar IA a gran escala.
- Los observadores comentan que la creciente demanda de inferencia está transformando la infraestructura y la competencia.
Nvidia proporcionará a Amazon Web Services (AWS) una cantidad significativa de GPUs hasta 2027, en un esfuerzo por ampliar su infraestructura de inteligencia artificial (IA) para satisfacer la creciente demanda del mercado.
AWS anunció a principios de esta semana que planea desplegar aproximadamente 1 millón de GPUs de Nvidia como parte de su plan de expansión en inteligencia artificial. Un ejecutivo de Nvidia confirmó a Reuters que la implementación se llevará a cabo hasta finales de 2027.
A partir de este año y en todas las regiones de la nube de AWS, se llevará a cabo una expansión en colaboración con Nvidia en redes y otros sistemas para construir infraestructuras “capaces de razonar, planificar y actuar de forma autónoma en flujos de trabajo complejos”, según AWS, que también subraya su trabajo en sistemas de IA agente.
AWS continúa desarrollando chips de IA tanto para entrenamiento como para inferencia. Esta colaboración sugiere que la demanda podría estar cambiando a lo largo de toda la infraestructura de IA, con un aumento notable en las actividades vinculadas a la ejecución de modelos en servicios en vivo.
Este acuerdo llega en un momento en que los fiscales estadounidenses están llevando a cabo un caso que alega que chips de Nvidia fueron contrabandeados a China, lo que ha puesto a la compañía bajo un renovado escrutinio respecto a su suministro y controles globales.
Desde 2022, los chips más avanzados de Nvidia han estado sujetos a un control riguroso como parte de una estrategia más amplia de EE.UU. para limitar el avance de China en computación avanzada e IA. Este desarrollo podría ampliar aún más esa brecha.
Cambios en el ritmo
Los analistas sugieren que la estructura del acuerdo ofrece pistas sobre dónde se está construyendo la demanda y cómo está cambiando rápidamente la infraestructura subyacente.
“Nvidia se está convirtiendo en la capa de infraestructura para los proveedores de nube, y no solo en un proveedor de chips”, comentó Dermot McGrath, cofundador del estudio de estrategia y crecimiento ZenGen Labs a Decrypt.
Los chips involucrados en este acuerdo están diseñados para ejecutar modelos de IA a gran escala, con un enfoque en reducir los costos de uso. McGrath destacó que la inferencia ahora representa aproximadamente dos tercios del cálculo de IA, un aumento en comparación con un tercio en 2023.
Se espera que el mercado de chips enfocados en la inferencia supere los 50 millones de dólares para 2026, según estimaciones de Deloitte.
AWS puede utilizar tanto chips de Nvidia como sus propios chips en los mismos sistemas, lo que les otorga a los clientes más opciones en comparación con sus competidores que mantienen sus tecnologías cerradas. Esta flexibilidad, según McGrath, “es un diferenciador”.
“Ahora Nvidia está haciendo lo mismo, pero un nivel más abajo, con la arquitectura de redes y rack en lugar de un modelo de programación”, comentó.
Los chips de inferencia son procesadores diseñados para ejecutar modelos de IA entrenados en tiempo real, sin necesidad de reentrenamiento.
La demanda de inferencia está “impulsando compromisos a largo plazo” para más potencia de cálculo y está creando vínculos más estrechos entre los proveedores de nube y los fabricantes de chips, explicó Pichapen Prateepavanich, estratega de políticas y fundadora de la firma de infraestructura Gather Beyond a Decrypt.
“Los proveedores de nube quieren independencia a largo plazo, pero a corto plazo necesitan a Nvidia para seguir siendo competitivos”, añadió, destacando cómo esto crea una dinámica en la que cooperación y competencia coexisten simultáneamente.
Aun así, el control sobre la infraestructura de IA también está cambiando.
Lo que está sucediendo es un “cambio de infraestructura”, comentó Berna Misa, socia de acuerdos en Boardy Ventures, un fondo de inversión enfocado en IA, a Decrypt.
Nvidia está “integrando toda su pila de computación, redes e inferencia dentro de los centros de datos de AWS, que durante años funcionaron con equipos propietarios”, agregó.
Sin embargo, aunque AWS está desarrollando sus propios chips de IA, esto “no cambia la ecuación”, explicó Misa, señalando que la inferencia depende de múltiples componentes a lo largo de la pila, con Nvidia proporcionando la mayoría de ellos.
“Cuando estás tan inmerso en la pila de tu cliente, el costo de cambiar y el contexto que se deriva de ello se convierte en la fortaleza”, concluyó.
Fuente: decrypt.co