El valor de las acciones de Nvidia se ha cuadruplicado en los últimos tres años a medida que la compañía impulsó el auge de sistemas de inteligencia artificial avanzados como ChatGPT, Claude y muchos otros.

Se espera que el CEO de Nvidia, Jensen Huang, revele el martes todos los detalles sobre el nuevo chip de inteligencia artificial de la compañía en su conferencia anual de desarrolladores de software.

El valor de las acciones de Nvidia se ha cuadruplicado en los últimos tres años a medida que la compañía impulsó el auge de sistemas de inteligencia artificial avanzados como ChatGPT, Claude y muchos otros.

Gran parte de ese éxito se debió a la década que la empresa con sede en Santa Clara, California, dedicó a desarrollar herramientas de software para atraer a investigadores y desarrolladores de inteligencia artificial, pero fueron los chips para centros de datos de Nvidia, que se venden por decenas de miles de dólares cada uno, los que representaron la mayor parte de sus 130,500 millones de dólares en ventas el año pasado.

Huang insinuó el año pasado que el nuevo producto estrella se llamará Rubin y constará de una familia de chips “que incluye una unidad de procesamiento gráfico, una unidad central de procesamiento y chips de red”, todos diseñados para funcionar en grandes centros de datos que entrenan sistemas de IA.

Los analistas esperan que los chips entren en producción este año y se desplieguen en grandes volúmenes a partir del próximo.

Nvidia está intentando establecer un nuevo patrón introduciendo un chip insignia cada año, pero hasta ahora se ha topado con obstáculos internos y externos.

Nuevos retos para Nvidia

El chip insignia actual de la compañía, llamado Blackwell, está llegando al mercado con mayor lentitud de lo previsto tras un fallo de diseño que provocó problemas de fabricación.

El año pasado, la industria de la IA en general se enfrentó a retrasos, ya que los métodos anteriores para alimentar grandes cantidades de datos a centros de datos cada vez más grandes, repletos de chips Nvidia, habían comenzado a mostrar rendimientos decrecientes.

Las acciones de Nvidia se desplomaron este año cuando la startup china DeepSeek afirmó que podría producir un chatbot de IA competitivo con mucha menos potencia de procesamiento (y, por lo tanto, menos chips Nvidia) que las generaciones anteriores del modelo.

Huang ha refutado que los nuevos modelos de IA, que dedican más tiempo a pensar sus respuestas, harán que los chips de Nvidia sean aún más importantes, ya que son los más rápidos en generar “tokens”, la unidad fundamental de los programas de IA.

“Cuando ChatGPT se lanzó por primera vez, la velocidad de generación de tokens solo debía ser tan rápida como la capacidad de lectura”, declaró Huang a Reuters el mes pasado. “Sin embargo, la velocidad de generación de tokens actual se basa en la velocidad con la que la IA puede leerse a sí misma, porque piensa por sí misma.

Y la IA puede pensar por sí misma mucho más rápido de lo que tú y yo podemos leer y porque tiene que generar muchísimas posibilidades futuras antes de presentarte la respuesta correcta”.

Con información de Reuters.