AMD presentó nuevas soluciones avanzadas de IA que abarcan desde la nube hasta las PCs. Apuestan por la inteligencia artificial y ven en este mercado un potencial que podría crecer hasta 70% en los próximos años.
El gigante tecnológico AMD presentó recientemente su última generación de chips enfocados en la inteligencia artificial. Los chips incluyen el Instinct MI300X, la tercera versión de la línea Instinct de GPU para centros de datos de AMD, y el Instinct MI300A, un chip híbrido CPU-GPU para servidores.
En el evento de presentación, realizado en San Francisco (EE. UU.), la compañía también presentó las alianzas que ya tiene para poner en marcha esta tecnología, con la que se dice que espera apretar la competencia con Nvidia. Meta, Oracle y Microsoft hacen parte de esa red de aliados.
Nvidia actualmente ocupa una posición dominante en el mercado de aplicaciones de inteligencia artificial y computación acelerada con chips de alta gama como el H100, conocido por entrenar grandes modelos de lenguaje e implementar aplicaciones de inteligencia artificial. Estos chips Nvidia, con un precio de hasta 40.000 dólares cada uno, son actualmente escasos.
Estos lanzamientos son claves para la industria tecnológica, pues este 2023, tras la llegada de la herramienta de IA generativa de OpenAI, ChatGPT, los principales actores tecnológicos han estado luchando por incorporar la IA en sus ofertas de software, lo que ha provocado un aumento en la demanda de unidades de procesamiento de gráficos, los chips de facto para ejecutar cargas de trabajo relacionadas con la IA.
Para tener una idea de cuán grande es el aumento de la demanda, podemos echar un vistazo a las ganancias recientes de Nvidia. Las ventas del tercer trimestre aumentaron más de tres veces hasta los 18.000 millones de dólares, mientras que los ingresos netos aumentaron más de 10 veces en comparación con el año pasado hasta los 9.200 millones de dólares.
AMD es un actor establecido en el espacio de las GPU, aunque sus chips normalmente se han utilizado más para juegos y aplicaciones profesionales en comparación con los chips de Nvidia, que han sido los chips preferidos para la informática acelerada. Sin embargo, con la serie MI300, AMD está dejando atrás su desventaja en el espacio de la inteligencia artificial.
En conferencia de prensa, Lisa Su, directora Ejecutiva de AMD, dejó claro que esta es la ruta a la que le apostará la compañía de cara a los próximos años. En la presentación, ejecutivos de la compañía también ratificaron que la plataforma MI300X tendrá 2,4 veces más capacidad de memoria y un 30% más de potencia informática en comparación con la plataforma H100 HGX de Nvidia.
“La IA es el futuro de la computación y AMD está en una posición única para impulsar la infraestructura integral que definirá esta era, desde instalaciones masivas en la nube hasta clústeres empresariales, dispositivos y PCs inteligentes habilitados para IA”, afirmó Su.
“Estamos observando una fuerte demanda de nuestras nuevas GPU Instinct MI300, que son los aceleradores de mayor rendimiento del mundo para IA generativa. También estamos generando un impulso significativo para nuestras soluciones de IA para centros de datos con las mayores compañías de nube, los principales proveedores de servidores de la industria y las startups de IA más innovadoras ꟷ con las que estamos trabajando estrechamente para llevar rápidamente al mercado soluciones Instinct MI300 que acelerarán drásticamente el ritmo de la innovación en todo el ecosistema de IA1”, agregó.
Las especificaciones de memoria del nuevo chip AMD también están por delante del chip más nuevo de Nvidia, llamado H200, que se espera que se lance durante el segundo trimestre de 2024.
Los aliados:
Durante el evento de presentación global, representantes de las principales compañías tecnológicas que respaldan esta tecnología de AMD entregaron detalles sobre el proceso en el que se encuentran con su implementación:
- Microsoft detalló cómo está desplegando los aceleradores AMD Instinct MI300X para alimentar la nueva Serie de Azure ND MI300x v5 Virtual Machine (VM) optimizadas para cargas de trabajo de IA.
- Meta compartió que la compañía está añadiendo aceleradores AMD Instinct MI300X a sus centros de datos en combinación con ROCm 6 para potenciar las cargas de trabajo de inferencia de IA y reconoció las optimizaciones de ROCm 6 que AMD ha realizado en la familia de modelos Llama 2.
- Oracle desveló sus planes para ofrecer soluciones informáticas OCI bare metal con aceleradores AMD Instinct MI300X, así como sus planes para incluir aceleradores AMD Instinct MI300X en su próximo servicio de IA generativa.
- Los mayores proveedores de infraestructuras de centros de datos anunciaron planes para integrar los aceleradores AMD Instinct MI300 en sus carteras de productos. Dell anunció la integración de los aceleradores AMD Instinct MI300X con su solución de servidor PowerEdge XE9680 para ofrecer un rendimiento innovador para cargas de trabajo de IA generativa en un formato modular y escalable para los clientes.
- HPE anunció planes para incorporar aceleradores AMD Instinct MI300 a sus ofertas empresariales y de HPC. Lenovo compartió sus planes de incorporar los aceleradores AMD Instinct MI300X a la plataforma Lenovo ThinkSystem para ofrecer soluciones de IA en sectores como el comercio minorista, la fabricación, los servicios financieros y de salud. Supermicro ha anunciado sus planes de ofrecer las GPU AMD Instinct MI300 en toda su cartera de soluciones de IA. Asus, Gigabyte, Ingrasys, Inventec, QCT, Wistron y Wiwynn también tienen previsto ofrecer soluciones basadas en aceleradores AMD Instinct MI300.
- Proveedores especializados en IA en la nube como Aligned, Arkon Energy, Cirrascale, Crusoe, Denvr Dataworks y Tensorwaves tienen previsto proporcionar ofertas que ampliarán el acceso a las GPU AMD Instinct MI300X para desarrolladores y startups de IA.
¿Qué esperar de este mercado?
AMD ha indicado que el mercado total de GPU con IA podría aumentar a 400.000 millones de dólares en los próximos cuatro años. Sin embargo, analistas indican que AMD todavía no pronostica ventas considerables para sus nuevos chips de IA, lo que indica que los ingresos totales de GPU de su centro de datos para 2024 podrían ascender a alrededor de US$2mil millones.
Esto se compara con US$14 mil millones en ventas de centros de datos para Nvidia solo en el tercer trimestre (aunque esto incluye todas las ofertas de la compañía centradas en centros de datos, es probable que los chips de IA sean los que más contribuyan).
Lea también: Disney decide integrar Star+ con Disney+ en 2024