Vera Rubin: La transformación silenciosa que NVIDIA está preparando para 2026

En un movimiento que marca un giro significativo en su estrategia, NVIDIA ha optado por no presentar tarjetas gráficas de consumo en el CES 2026. En su lugar, Jensen Huang subió al escenario con algo mucho más ambicioso: una plataforma de computación de 2.5 toneladas que promete redefinir el entrenamiento y la inferencia de modelos de inteligencia artificial.

Cuando el diseño de chips rompe sus propias reglas

La verdadera sorpresa no radica en el tamaño del bastidor, sino en su composición interna. La plataforma Vera Rubin (bautizada así en honor a la astrónoma que descubrió la materia oscura) quebrantó una regla interna que NVIDIA ha mantenido durante años: cada generación de productos solo rediseña 1-2 chips como máximo.

Esta vez, la compañía redeseñó simultáneamente 6 chips diferentes, completando el ciclo de desarrollo y entrando directamente en producción masiva. La razón es pragmática: la Ley de Moore se desacelera, pero los modelos de IA siguen exigiendo un crecimiento de rendimiento anual de 10 veces. La única solución era innovar no en un componente, sino en toda la arquitectura.

Los seis pilares de Vera Rubin

Vera CPU: El corazón computacional con 88 núcleos Olympus personalizados, capaz de procesar 176 hilos simultáneamente. Su memoria del sistema alcanza 1.5 TB, el triple que su predecesora Grace, con un ancho de banda NVLink C2C de 1.8 TB/s.

Rubin GPU: El verdadero motor de inferencia. Ofrece una potencia NVFP4 de 50 PFLOPS, cinco veces superior a la arquitectura Blackwell anterior. Con 336 mil millones de transistores, incorpora la tercera generación de motores Transformer, permitiendo ajustar dinámicamente la precisión según cada modelo.

Conectividad y almacenamiento: ConnectX-9 proporciona Ethernet de 800 Gb/s. El procesador BlueField-4 DPU gestiona la nueva generación de almacenamiento para IA, combinando una CPU Grace de 64 núcleos con capacidades de 800 Gb/s.

Infraestructura de comunicación: El chip conmutador NVLink-6 conecta 18 nodos de cómputo, permitiendo que hasta 72 GPUs Rubin funcionen como un único sistema con 3.6 TB/s de ancho de banda all-to-all. Spectrum-6 añade 512 canales ópticos de 200 Gbps cada uno, gracias a la integración de silicio fotónico de TSMC COOP.

El impacto en números: cuando la inversión se multiplica

El sistema NVL72 de Vera Rubin alcanza 3.6 EFLOPS en tareas de inferencia NVFP4, cinco veces más que Blackwell. En entrenamiento, llega a 2.5 EFLOPS, un aumento de 3.5 veces. Pero lo más dramático es la memoria: 54 TB de LPDDR5X (el triple) y 20.7 TB de HBM (1.5 veces más).

Para un centro de datos de 1 GW que cuesta 50 mil millones de dólares, esto no es solo una mejora técnica. Significa que el throughput en tokens de IA generados por vatio y dólar mejora 10 veces, duplicando directamente la capacidad de ingresos de la infraestructura.

Entrenar un modelo de 10 billones de parámetros ahora requiere solo 1/4 de los sistemas Blackwell anteriores. El costo por token generado desciende a alrededor de 1/10 del anterior.

Resolviendo el cuello de botella: la memoria de contexto

Durante meses, la industria de IA ha enfrentado un problema creciente: el “KV Cache” o memoria de trabajo que los modelos generan se agota rápidamente en conversaciones largas. Vera Rubin lo soluciona desplegando procesadores BlueField-4 dentro del bastidor, cada uno con 150 TB de memoria de contexto.

Este enfoque proporciona a cada GPU 16 TB adicionales de memoria (cuando originalmente solo dispone de ~1 TB), manteniendo un ancho de banda de 200 Gbps sin sacrificar velocidad. La red Spectrum-X, diseñada específicamente para IA generativa, asegura que estas “notas adhesivas” dispersas en miles de GPUs funcionen como una única memoria coherente.

Jensen Huang calculó que Spectrum-X puede mejorar el throughput en un 25%, equivalente a ahorrar 5 mil millones de dólares en un centro de datos de esa escala. “Es prácticamente gratis”, resumió.

Seguridad cifrada en cada capa

Todos los datos en tránsito, almacenamiento y cálculo están cifrados, incluyendo buses PCIe, comunicación NVLink y transferencias CPU-GPU. Las empresas pueden desplegar modelos en sistemas externos sin temor a fugas de datos.

El giro hacia la IA física y la inteligencia de agentes

Mientras Vera Rubin proporciona la potencia bruta, NVIDIA ha anunciado un cambio de paradigma más profundo: la era de los “agentes inteligentes” y la IA física está aquí.

Jensen Huang hizo un llamado especial a la comunidad de código abierto, destacando cómo DeepSeek V1 sorprendió al mundo el año pasado como primer sistema de inferencia open source, desatando una ola de innovación. Reconoció a Kimi K2 y DeepSeek V3.2 como líderes en el espacio open source, demostrando que NVIDIA ahora construye sobre este ecosistema en lugar de competir contra él.

La estrategia no es solo vender palas. NVIDIA desarrolló la supercomputadora DGX Cloud (valorada en miles de millones) y modelos de vanguardia como synthesia de proteínas (La Proteína) y OpenFold 3. Su familia open source Nemotron incluye modelos de voz, multimodales, recuperación aumentada y seguridad.

Alpamayo: conducción autónoma con razonamiento

El verdadero sorprendente del evento fue Alpamayo, el primer sistema de conducción autónoma del mundo con capacidades de pensamiento y razonamiento. A diferencia de la conducción autónoma basada en reglas, Alpamayo razona como un conductor humano, descomponiendo escenarios complejos en elementos de sentido común.

“Te dirá qué va a hacer a continuación y por qué lo decide”, explicó Jensen Huang. El Mercedes CLA con esta tecnología se lanzará en EE.UU. en el primer trimestre de 2026, calificado como el coche más seguro del mundo por NCAP, gracias a la arquitectura de “doble pila de seguridad” que NVIDIA desarrolló.

Robots, fábricas y el futuro de la IA física

NVIDIA presentó una estrategia integral de robótica. Todos los robots estarán equipados con el miniordenador Jetson y entrenados en el simulador Isaac de la plataforma Omniverse. La visión es clara: diseño de chips, arquitectura de sistemas y simulación de fábricas, todo acelerado por IA física.

Jensen Huang invitó robots humanoides y cuadrúpedos de Boston Dynamics y Agility al escenario, enfatizando que la fábrica misma es el mayor robot. Incluso los robots de Disney fueron entrenados en computadoras y validados en simulaciones antes de enfrentarse a la gravedad en el mundo real.

El mensaje de fondo

En un contexto donde crece el escepticismo sobre la “burbuja de IA” y los límites de la Ley de Moore se hacen evidentes, Jensen Huang necesitaba demostrar con hechos concretos lo que la IA puede lograr.

Antes, NVIDIA hacía chips para el mundo virtual. Ahora, ellos mismos demuestran cómo la IA física—en forma de conducción autónoma y robots humanoides—está entrando en el mundo real. Como dijo, cuando la batalla comienza, el negocio de la “industria militar” puede realmente prosperar.

Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)