Esto pone a AWS de frente contra sus rivales Microsoft y Google en la carrera por proporcionar la infraestructura de IA más potente.
La batalla por la supremacía de la inteligencia artificial, que tiene apresuradas a las compañías tecnológicas más grandes del mundo, involucra, por supuesto, chips.
Amazon Web Services, el servicio de nube de Amazon, dio a conocer este jueves su nuevo chip Trainium2, diseñado para bajar los costos de la inteligencia artificial generativa y del entrenamiento de modelos de aprendizaje profundo, al igual que la cuarta generación de su procesador Graviton, que promete ser más eficiente que la arquitectura tradicional.
Los nuevos chips debutaron en la conferencia anual re:Invent de AWS en Las Vegas (Estados Unidos), donde el CEO Adam Selipsky declaró el compromiso de la empresa de empujar los límites del rendimiento de la IA en la nube. Esto pone a AWS de frente contra sus rivales Microsoft y Google en la carrera por proporcionar la infraestructura de IA más potente.

“Con nuestro enfoque inquebrantable en mejorar continuamente el rendimiento de precio para el entrenamiento de aprendizaje automático, AWS Trainium2 proporcionará el mejor rendimiento de precio para entrenar los modelos de aprendizaje automático más complejos y precisos”, comentó Selipsky.
Específicamente, Trainium2 ofrece hasta 400 petaflops de rendimiento de entrenamiento de IA, un aumento de 4 veces sobre su predecesor Trainium al duplicar la eficiencia energética. Este chip especializado está diseñado para grandes modelos de lenguaje que han explotado en popularidad recientemente, impulsando servicios como los chatbots.
Clientes de AWS, Anthropic -que compite con OpenAI- y Databricks, planean aprovechar Trainium2 para sus propios modelos de lenguaje grandes. El chip estará disponible para los clientes de AWS el próximo año, aunque no se ha establecido una fecha concreta.
Mientras tanto, Graviton4 representa la última iteración del procesador de propósito general de AWS basado en la arquitectura Arm. Graviton4 ofrece un rendimiento un 30% mejor que Graviton3 en una gama de cargas de trabajo, desde servicios web hasta análisis.
AWS dice que tiene más de 50.000 clientes que ya utilizan Graviton. El nuevo chip estará disponible en vista previa ahora para clientes seleccionados, con disponibilidad general en los próximos meses.
Los lanzamientos de Graviton4 y Trainium2 destacan la estrategia de chips de múltiples frentes de AWS. La empresa está desarrollandio sus propios chips personalizados y, al mismo tiempo, colabora estrechamente con Nvidia, el claro líder en chips para la IA.
De hecho, AWS anunció que pondrá a disposición de su infraestructura en la nube las nuevas GPUs H100 de Nvidia. Esto brinda a los clientes de AWS acceso a la aceleración de IA de vanguardia del chip insignia H100 de Nvidia.
Además, AWS desplegará más de 16,000 superchips Nvidia Grace Hopper que contienen H100 para alimentar la investigación y desarrollo de IA de Nvidia.
La colaboración con Nvidia, junto con el desarrollo interno de chips de AWS, se alinea con el objetivo declarado de Selipsky de ofrecer a los clientes opciones, flexibilidad e innovación de vanguardia en la infraestructura de IA.
De hecho, Microsoft recientemente presentó su propio procesador de IA llamado Maia destinado a competir con los chips Trainium de AWS. Mientras tanto, Google Cloud ofrece a los clientes sus Unidades de Procesamiento Tensorial adaptadas para la IA.
Los gigantes de la nube están en una carrera armamentista para asegurar el procesamiento de la IA a medida que los clientes adoptan cada vez más servicios como modelos de lenguaje y visión artificial.
Eso explica por qué AWS está utilizando una estrategia múltiple: diseños personalizados como Graviton y Trainium, combinados con alianzas con jugadores como Nvidia.