Cuando el frenesí de la IA creó una escasez de chips que dejó a las empresas luchando por conseguir potencia informática, surgió un nuevo tipo de empresas emergentes en la nube dispuestas a vendérselos.

En 2017, los cofundadores de CoreWeave, sin saberlo, ganaron la lotería. Habían acumulado montones y montones de chips Nvidia que cinco años después tendrían una demanda insaciable, cuando la inteligencia artificial se generalizó.

Si bien Michael Intrator, Brian Venturo y Brannin McBee, comerciantes de materias primas en ese momento, habían comprado inicialmente cientos de GPU para minar criptomonedas, en 2019 habían adaptado la infraestructura de la empresa para proporcionar potencia informática externa a las empresas que la necesitaban, para animación 3D, para esfuerzos de descubrimiento de fármacos y, cada vez más, para inteligencia artificial.

Así, cuando el lanzamiento de ChatGPT de OpenAI a finales de 2022 desencadenó una apropiación de los chips Nvidia que se habían convertido en la joya de la corona del entrenamiento de modelos de IA, CoreWeave se posicionó de forma fortuita. Tener acceso a una gran cantidad de “computación” (hardware que se utiliza para procesar datos y realizar cálculos) se ha convertido en una apuesta segura para cualquiera que busque competir de forma significativa en la carrera de la IA. En estos días, incluso los inversores individuales y las empresas de capital riesgo institucionales están acumulando chips para ayudar a impulsar el desarrollo de la IA para las empresas emergentes con las que trabajan.

Mientras las empresas emergentes se apresuraban a comprar esas GPU tan difíciles de encontrar y extremadamente caras, empresas como CoreWeave, que básicamente alquila el acceso a ellas, se volvieron invaluables. El meteórico ascenso de la empresa se refleja mejor en sus números: ha recaudado 12 mil millones de dólares en una combinación de deuda y financiación de riesgo solo en los últimos 12 meses, y su valoración se ha disparado de alrededor de 2 mil millones de dólares en mayo de 2023 a 19 mil millones de dólares en la actualidad. Proyectó registrar 2.300 millones de dólares en ingresos en 2024, según The Information . Ahora, está expandiendo rápidamente su presencia global, pasando de tres centros de datos en 2022 a 28 en países como España y Suecia para fines de 2024.

“La demanda nos ha abrumado; ha superado la capacidad acumulada de la infraestructura en la nube”, dijo el director ejecutivo de CoreWeave, Mike Intrator, a Forbes.

En 2017, la empresa había pasado a vender ese hardware y encontró clientes dispuestos entre los académicos que realizaban investigaciones sobre aprendizaje automático. Ese cambio preparó a Lambda para la inminente fiebre del oro. Hoy, está valorada en 1.500 millones de dólares y registró unos 250 millones de dólares en ingresos en 2023. “Cuando salió ChatGPT, todo se trataba de formación. Todas las demás empresas estaban tratando de idear un… modelo. Y estaban gastando cantidades enormes en I+D”, dijo Mitesh Agrawal, director de operaciones de Lambda, a Forbes . “Pensamos: ‘esta es una curva de adopción enorme que se está produciendo’”.

Esa curva podría aplanarse pronto. La escasez de suministro de GPU alcanzó su punto máximo a fines de 2023, escribió David Cahn, socio de Sequoia, en una publicación reciente en su blog . El acceso a la “computación” se ha vuelto relativamente fácil y, con múltiples actores que brindan infraestructura para la IA, “la capacidad de las GPU se está sobreconstruyendo ” y estos chips se están convirtiendo rápidamente en productos básicos, dijo.

El núcleo de este modelo de negocio ha sido la alianza y los vínculos estratégicos con Nvidia, el gigante de casi 3 billones de dólares cuyo mejor hardware ha sido crucial para los avances en la IA generativa. Si bien Nvidia también proporciona sus chips a gigantes de la nube como Amazon Web Services y Google Cloud , que operan miles de centros de datos con potencia informática a gran escala, está construyendo un ecosistema de distribuidores como CoreWeave (en el que ha invertido unos 100 millones de dólares) y Lambda.

Estas empresas, que pueden ofrecer mucha más flexibilidad que los pesos pesados ​​de la nube, apuntan a clientes más pequeños. Muchos desarrolladores de IA necesitan grupos de chips bajo demanda y compran computación solo por un par de semanas mientras construyen o entrenan un modelo de IA. Empresas como Google y Amazon a menudo exigen que los clientes se comprometan con contratos anuales o plurianuales, dijo Agrawal, lo que podría generar facturas elevadas y desperdicio de recursos computacionales. Los proveedores de computación basados ​​en la nube, por otro lado, alquilan Nvidia H100 en un sistema de pago por uso a una tarifa por hora que varía de aproximadamente $ 2.5 a $ 5 por GPU. Y mientras que gigantes como Amazon albergan una amplia gama de aplicaciones y servicios en sectores como la salud, el comercio minorista y las finanzas, CoreWeave y sus similares están diseñados específicamente para casos de uso de IA.

Estamos creando “mejores entornos para consumir este tipo de computación que los que encontrarías en una nube diseñada para soportar cada caso de uso posible”, dijo Intrator de CoreWeave.

“No voy a almacenar tus fotos, no voy a alojar tu sitio web. Eso no es lo que construimos. Y hay muchas, muchas nubes que hacen un trabajo maravilloso al respaldar ese tipo de usos”, le dijo a Forbes. “Lo que hicimos fue decir: ‘Oye, hay una forma nueva y emergente de utilizar la computación en el futuro. ¿Qué van a necesitar para tener el mayor éxito posible?’”.

Este artículo fue publicado originalmente en Forbes US

Lea también: Desde OpenAI hasta Figma, estas son las 100 empresas de la nube más destacadas