El CEO de NVIDIA, Jensen Huang, llega para asistir a la ceremonia de apertura de Siliconware Precision Industries Co. (SPIL) en Tan Ke Plant Website en Taichung, Taiwán, el 16 de enero de 2025.
Ann Wang | Reuters
Nvidia anunció nuevos chips para construir y desplegar modelos de inteligencia synthetic en su conferencia anual de GTC el martes.
El CEO Jensen Huang reveló Blackwell Extremely, una familia de chips que envía en la segunda mitad de este año, así como a Vera Rubin, la unidad de procesamiento de gráficos de próxima generación de la compañía, o GPU, que se espera que se envíe en 2026.
Las ventas de Nvidia subieron más de seis veces ya que su negocio se transformó mediante el lanzamiento de ChatGPT de OpenAi a fines de 2022. Eso es porque sus “GPUs grandes” tienen la mayor parte del mercado para desarrollar IA avanzada, un proceso llamado capacitación.
Los desarrolladores e inversores de software program están observando de cerca los nuevos chips de la compañía para ver si ofrecen suficiente rendimiento y eficiencia adicionales para convencer a los clientes finales más grandes de la compañía, compañías en la nube que incluyen Microsoft, Google y Amazonas – Para continuar gastando miles de millones de dólares para construir centros de datos basados en chips Nvidia.
“Este año pasado es donde casi todo el mundo se involucró. El requisito computacional, la ley de escala de la IA, es más resistente y, de hecho, es hiperacelerado”, dijo Huang.
Los anuncios del martes también son una prueba de la nueva cadencia anual de lanzamiento de NVIDIA. La compañía se esfuerza por anunciar nuevas familias de chips por año. Antes del auge de la IA, Nvidia lanzó nuevas arquitecturas de chip cada dos años.
La conferencia GTC en San José, California, también es una muestra de fuerza para Nvidia.
Se espera que el evento, la segunda conferencia en persona de Nvidia desde la pandemia, tenga 25,000 asistentes y cientos de compañías que discuten las formas en que usan el {hardware} de la compañía para la IA. Que incluye Waymo, Microsoft y Vadoentre otros. Normal Motors También anunció que utilizará el servicio de Nvidia para sus vehículos de próxima generación.
La arquitectura de chips después de Rubin llevará el nombre del físico Richard Feynman, dijo el martes Nvidia, continuando su tradición de nombrar a las familias de chips después de los científicos. Se espera que los chips Feynman de Nvidia estén disponibles en 2028, según una diapositiva que Huang muestra.
Nvidia también mostrará sus otros productos y servicios en el evento.
Por ejemplo, Nvidia anunció nuevas computadoras portátiles y computadoras de escritorio con sus chips, incluidas dos PC centradas en AI llamadas DGX Spark y estación DGX Eso podrá ejecutar grandes modelos de IA como Llama o Deepseek. La compañía también anunció actualizaciones de sus piezas de pink para unir cientos o miles de GPU juntos, por lo que funcionan como uno, así como un paquete de software program llamado Dynamo que ayuda a los usuarios a aprovechar al máximo sus chips.
Jensen Huang, cofundador y director ejecutivo de NVIDIA Corp., habla durante la Conferencia de Tecnología GPU (GTC) de NVIDIA en San José, California, EE. UU., El martes 18 de marzo de 2025.
David Paul Morris | Bloomberg | Getty Photos
Vera Rubin
Nvidia espera comenzar los sistemas de envío en su familia GPU de próxima generación en la segunda mitad de 2026.
El sistema tiene dos componentes principales: una CPU, llamada Vera, y un nuevo diseño de GPU, llamado Rubin. Lleva el nombre Astronomía Vera Rubin.
Vera es el primer diseño de CPU personalizado de Nvidia, dijo la compañía, y se basa en un diseño central que han llamado Olympus.
Anteriormente, cuando necesitaba CPU, Nvidia usó un diseño estándar de Brazo. Las empresas que han desarrollado diseños de núcleo de brazo personalizados, como Qualcomm y Apple, dicen que pueden estar más personalizados y desbloquear un mejor rendimiento.
El diseño personalizado de Vera será el doble de rápido que la CPU utilizada en los chips Grace Blackwell del año pasado, dijo la compañía.
Cuando se combina con Vera, Rubin puede administrar 50 petaflops mientras realiza inferencia, más del doble de los 20 petaflops para los chips Blackwell actuales de la compañía. Rubin también puede admitir hasta 288 gigabytes de memoria rápida, que es una de las especificaciones centrales que los desarrolladores de IA observan.
Nvidia también está haciendo un cambio a lo que llama una GPU. Rubin es en realidad dos GPU, dijo Nvidia.
La GPU de Blackwell, que actualmente está en el mercado, es en realidad dos chips separados que se reunieron y se hicieron funcionar como un chip.
Comenzando con Rubin, Nvidia dirá que cuando combine dos o más troqueles para hacer un solo chip, se referirá a ellos como GPU separados. En la segunda mitad de 2027, Nvidia planea lanzar un chip “Rubin Next” que combina cuatro troqueles para hacer un solo chip, duplicando la velocidad de Rubin, y se referirá a eso como cuatro GPU.
Nvidia dijo que vendrá en un estante llamado Vera Rubin NVL144. Las versiones anteriores del estante de Nvidia se llamaron NVL72.
Jensen Huang, cofundador y director ejecutivo de NVIDIA Corp., habla durante la Conferencia de Tecnología GPU (GTC) de NVIDIA en San José, California, EE. UU., El martes 18 de marzo de 2025.
David Paul Morris | Bloomberg | Getty Images
Blackwell Ultra
Nvidia también anunció nuevas versiones de su familia de chips Blackwell que llama Blackwell Ultra.
Ese chip podrá producir más tokens por segundo, lo que significa que el chip puede generar más contenido en la misma cantidad de tiempo que su predecesor, dijo la compañía en una sesión informativa.
Nvidia dice que eso significa que los proveedores de la nube pueden usar Blackwell Ultra para ofrecer un servicio de IA premium para aplicaciones sensibles al tiempo, lo que les permite obtener hasta 50 veces los ingresos de los nuevos chips como la generación de la tolva, que se envió en 2023.
Blackwell Ultra vendrá en una versión con dos emparejados con una CPU NVIDIA ARM, llamada GB300, y una versión con solo la GPU, llamada B300. También vendrá en versiones con ocho GPU en una sola cuchilla de servidor y una versión de rack con 72 chips Blackwell.
Las cuatro principales compañías en la nube han desplegado tres veces el número de chips Blackwell como chips de tolva, dijo Nvidia.
Veterano
El modelo de Deepseek R1 de China puede haber asustado a los inversores de Nvidia cuando se lanzó en enero, pero Nvidia ha adoptado el software. El fabricante de chips usará el modelo para comparar varios de sus nuevos productos.
Muchos observadores de IA dijeron que el modelo de Deepseek, que según los informes requería menos chips que los modelos realizados en los Estados Unidos, amenazó el negocio de Nvidia.
Pero Huang dijo a principios de este año que Deepseek fue en realidad una buena señal para Nvidia. Esto se debe a que Deepseek usa un proceso llamado “razonamiento”, que requiere más poder informático para proporcionar a los usuarios mejores respuestas.
Los nuevos chips Blackwell Ultra son mejores para los modelos de razonamiento, dijo Nvidia.
Ha desarrollado sus chips para hacer una inferencia de manera más eficiente, por lo que cuando los nuevos modelos de razonamiento requieren más potencia informática en el momento de la implementación, los chips de Nvidia podrán manejarlo.
“En los últimos 2 a 3 años, ocurrió un gran avance, ocurrió un avance fundamental en la inteligencia artificial. Lo llamamos AI agente”, dijo Huang. “Puede razonar cómo responder o cómo resolver un problema”.
MIRAR: Nvidia inicia su conferencia GTC: el comité debate cómo comerciarla