El acuerdo de alto el fuego por dos semanas entre Estados Unidos e Irán le dio un respiro a los mercados este miércoles, empujando al alza las acciones de Nvidia. Los últimos meses no venían siendo nada fáciles para los inversores. Las crecientes tensiones en Medio Oriente y el salto en los precios del petróleo habían generado bastante inquietud en Wall Street por una posible desaceleración económica. Todo este panorama provocó que el índice S&P 500 cayera casi un 9% desde su pico histórico de enero.
A ciertas empresas tecnológicas el escenario les pegó aún más fuerte. Nvidia llegó a perder un 20% desde su máximo histórico. Sin embargo, este retroceso parece haber dejado sobre la mesa una ventana que, según los analistas financieros, se da una vez cada diez años.
Un escenario financiero poco habitual
Hoy las acciones de la compañía cotizan más baratas que el propio S&P 500 en términos de precio-beneficio a futuro. Esto no pasaba desde hace 13 años. Más allá de la incertidumbre económica a corto plazo, la demanda de chips para centros de datos sigue firme gracias a su rol fundamental en el desarrollo de la inteligencia artificial.
Los balances respaldan esta solidez. El año fiscal 2026 de Nvidia cerró el pasado 25 de enero con ingresos récord de 215.900 millones de dólares, marcando un salto del 65% interanual. Su negocio de centros de datos por sí solo representó 193.700 millones de esa facturación y creció un 68%. Para el actual ejercicio 2027, el mercado proyecta que el crecimiento general de los ingresos se va a acelerar al 71%, tocando los 370.000 millones de dólares. A su vez, las ganancias ajustadas por acción, que fueron de 4,77 dólares en 2026, podrían dispararse un 74% hasta alcanzar los 8,29 dólares. Estas cifras explican en gran parte por qué Wall Street espera una demanda bestial por sus nuevos productos.
El salto hacia Vera Rubin
El corazón de esta maquinaria de ingresos son las unidades de procesamiento gráfico (GPU). Su capacidad para manejar múltiples tareas en paralelo las vuelve ideales para trabajos intensivos como el entrenamiento y la inferencia de inteligencia artificial. El buque insignia actual, la GPU GB300 basada en la arquitectura Blackwell, ya ofrece un rendimiento hasta 50 veces mayor que su predecesora de 2022, la H100.
Pero la empresa ya está mirando hacia adelante con su plataforma Vera Rubin, programada para este año. Esta nueva generación combina la GPU Rubin con la CPU Vera, sumando equipos de red mejorados para lograr velocidades de procesamiento inéditas. La promesa de Nvidia es fuerte. Aseguran que los desarrolladores van a poder entrenar modelos de inteligencia artificial utilizando un 75% menos de procesadores, lo que hundiría los costos de los tokens de inferencia en un impresionante 90%.
Estos tokens son, en pocas palabras, pequeños fragmentos de datos que un modelo genera como respuesta a una instrucción. Pueden ser palabras, símbolos o imágenes. Generarlos requiere poder de cómputo y, por ende, cuesta dinero. Por eso casi todos los proveedores cobran a los usuarios según su consumo. Al abaratar radicalmente este costo, se espera que el uso aumente exponencialmente mientras mejoran los márgenes de ganancia de las empresas del sector. Las primeras muestras ya se están enviando a los clientes y la producción masiva arranca en la segunda mitad del año. La directora financiera de la firma, Colette Kress, ya anticipó que esperan que todos los proveedores de la nube adopten los chips Vera Rubin.
El desafío de los supercomputadores
Todo este inmenso poder de procesamiento trae sus propios dolores de cabeza a nivel operativo. Sistemas como el GB200 NVL72 y el GB300 NVL72 funcionan en la práctica como supercomputadores a escala de rack. Están diseñados con 18 bandejas de cómputo estrechamente conectadas, redes de altísimo ancho de banda y enormes tejidos de procesamiento empaquetados en una sola unidad que incluso permite compartir memoria entre nodos.
Para los operadores de estas plataformas, el reto no pasa solo por apilar hardware. El verdadero desafío es transformar esa infraestructura en recursos seguros, rápidos y fáciles de usar. Si los programadores trabajan a ciegas, terminan operando sobre un grupo plano de procesadores que ignora por completo el diseño jerárquico del sistema.
Acá es donde entra en juego el software NVIDIA Mission Control. Funciona como un plano de control a nivel de rack que entiende de forma nativa los dominios NVLink e IMEX del equipo. Al integrarse con plataformas de gestión de trabajo como Slurm y Run:ai, logra traducir conceptos avanzados de arquitectura en una fábrica operativa de inteligencia artificial que resulta escalable y fácil de administrar. Esta misma tecnología será compatible con la inminente plataforma Vera Rubin, asegurando que la gestión del hardware evolucione al mismo ritmo que la potencia de los propios chips.