Nvidia Vera Rubin impulsa la demanda de memoria: análisis de las ventajas y desventajas de SK Hynix, Samsung, Micron y SanDisk

ChainNewsAbmedia
STG3,5%

2026 年 CES de Electrónica de Consumo, el CEO de NVIDIA Huang Renxun anunció oficialmente Vera Rubin en producción en masa, marcando un punto de inflexión clave en la historia del desarrollo de la inteligencia artificial (IA): desde los primeros días de IA generativa centrada en el entrenamiento de modelos, entrando en una era dominada por IA agentica y grandes inferencias.

(Huang Renxun CES define 2026: Vera Rubin en producción completa, vehículos autónomos AI en Q1, procesos clave de TSMC)

Este informe analizará en profundidad cómo este cambio tecnológico está transformando la capa de hardware de los centros de datos, especialmente en los niveles de almacenamiento G3.5 y la plataforma de memoria de contexto para inferencias (ICMS). En este contexto, los cuatro gigantes mundiales de memoria y almacenamiento: SK Hynix, Samsung Electronics, Micron Technology y SanDisk enfrentan oportunidades y desafíos sin precedentes.

¿ Qué son HBM, DRAM y NAND? Análisis de términos de memoria

Antes de entrar en el contenido principal, se explicarán los términos de memoria con descripciones sencillas:

Explicación sencilla de términos de memoria: HBM (incluye HBM3E, HBM4, HBM5)

HBM significa High Bandwidth Memory (Memoria de alto ancho de banda). Se puede imaginar como apilar muchas capas de chips DRAM como un pastel de múltiples capas, y conectarlos con muchas autopistas de alta velocidad al GPU, permitiendo transferencias de datos súper rápidas.

HBM3E: actualmente en uso principal, en la última generación de GPU, con alta velocidad y bajo consumo.

HBM4: próxima generación, para GPUs más potentes como Vera Rubin, con mayor ancho de banda y capacidad.

HBM5: la siguiente generación (en planificación), con velocidades y capacidades aún mayores, preparándose para modelos aún más grandes en el futuro.

Al lado de la GPU Rubin se apilarán muchas unidades HBM, permitiendo que la GPU acceda a datos a velocidades ultra altas. La potencia central para entrenamiento e inferencia de IA depende completamente de HBM para suministrar datos, siendo la estrella en la escasez de suministro de servidores IA. Los fabricantes han dirigido gran parte de su capacidad de producción a HBM, lo que ha provocado escasez en otros tipos de memoria. En la era Vera Rubin, HBM es el componente más crítico de todos.

Explicación sencilla de términos de memoria: SSD

Un SSD es como una memoria USB gigante, utilizada para almacenar datos a largo plazo, sin olvidar al apagar. Los archivos, videos y juegos se almacenan en SSD (o en discos duros tradicionales). En la era Vera Rubin, para que los chatbots IA puedan recordar grandes cantidades de texto, conversaciones y conocimientos, Vera Rubin necesita conectar muchos SSD, actuando como una biblioteca de datos gigante. Citi estima que un servidor Vera Rubin requiere aproximadamente 1,152TB (es decir, 1,152 unidades de 1TB) de SSD para que funcione el nuevo sistema ICMS.

Antes, los SSD eran más como un complemento en almacenes de datos, pero ahora en ICMS y en inferencias de contexto largo, se vuelven un componente muy importante.

Explicación sencilla de términos de memoria: NAND

El material que realmente almacena datos en un SSD se llama memoria flash NAND. Se puede imaginar como una estantería con páginas de libros. El ICMS de Vera Rubin necesita muchos SSD, y en estos SSD hay muchas chips NAND apiladas, por lo que la IA requiere muchas NAND. A medida que los modelos de IA crecen y las memorias de diálogo se vuelven más largas, se necesitan más NAND para almacenar textos y resultados intermedios.

Explicación sencilla de términos de memoria: DRAM

DRAM es como una pizarra de memoria a corto plazo. Cuando la computadora realiza cálculos, escribe los datos en DRAM, y cuando apaga, la pizarra se limpia. Es mucho más rápido que SSD, pero se olvida todo al apagar. En Vera Rubin, se usa como espacio de trabajo para la CPU/GPU en operaciones normales. No almacena conversaciones o modelos muy grandes por mucho tiempo, pero soporta el funcionamiento del sistema. Sin embargo, debido a que los fabricantes han desplazado capacidad hacia HBM, la oferta de DRAM normal se ha reducido, aumentando mucho los precios e incluso provocando escasez.

Explicación sencilla de términos de memoria: LPDDR5X / DDR5

DDR5: memoria principal común en servidores y PCs de escritorio, más rápida que DDR4.

LPDDR5X: versión de bajo consumo para dispositivos móviles o módulos de CPU de alta densidad, se puede imaginar como una “DRAM de bajo consumo”.

Procesadores como Rubin CPU necesitan muchas LPDDR5X o DDR5 como memoria del sistema, para gestionar control, programación y tareas del sistema. No están directamente integrados en la GPU como HBM, pero son fundamentales para la estabilidad del servidor IA. Debido a que la capacidad de HBM ha sido absorbida por otros componentes, la oferta de DDR5 / LPDDR5X se ha vuelto escasa y sus precios han subido.

Explicación sencilla de términos de memoria: High Bandwidth Flash (HBF)

Se puede imaginar HBF como NAND con velocidad mejorada, cuyo objetivo es que la memoria flash (NAND) deje de ser solo almacenamiento lento y pase a ser más rápida, similar a la memoria. En comparación con un SSD convencional, enfatiza “alto rendimiento y baja latencia”, permitiendo que la IA lea y escriba grandes cantidades de contexto rápidamente durante inferencias.

En Vera Rubin, uno de los componentes clave de ICMS: colocar grandes caches KV y datos de contexto largo en este tipo de memoria flash de alta velocidad, usando redes (como RDMA) para que la GPU acceda a ellos a velocidades cercanas a la memoria local. Esto es el concepto de nivel G3.5. La memoria flash pasa de ser solo almacenamiento a participar en procesos de cálculo como memoria externa rápida.

Revolución en la arquitectura: la base del hardware de Vera Rubin

Diseño extremo en colaboración (Extreme Co-design) y computación a nivel de rack

En CES 2026, el CEO de NVIDIA Huang Renxun reveló un concepto central: en la generación Rubin, la unidad de cálculo ya no es solo una GPU o un servidor, sino todo un rack de centro de datos. La plataforma Rubin está compuesta por seis chips principales: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU y Spectrum-6 Ethernet Switch.

Esta estrategia, llamada diseño extremo en colaboración, busca eliminar los cuellos de botella en comunicación entre chips, transformando el rack Vera Rubin NVL72 en una supercomputadora con 3.6 ExaFLOPS de potencia de inferencia y 75TB de memoria de alta velocidad.

La evolución de esta arquitectura no es solo una acumulación de rendimiento, sino una respuesta a los cambios fundamentales en las cargas de trabajo de IA. Desde Blackwell hasta Rubin, los modelos de IA han evolucionado de simples máquinas de preguntas y respuestas a agentes inteligentes capaces de realizar inferencias en múltiples pasos, recuperar memoria a largo plazo y usar herramientas. Estas cargas de trabajo exigen hardware con alto rendimiento, baja latencia y una enorme capacidad de retención de contexto.

Adquisición de Groq y la revolución en inferencias: inicio de fusiones defensivas y la era de ASIC

A finales de 2025, NVIDIA adquirió la startup de chips IA Groq por 20 mil millones de dólares en talento y licencias tecnológicas. La arquitectura central de Groq, LPU (Unidad de Procesamiento de Lenguaje), es esencialmente un ASIC altamente optimizado para modelos Transformer. A diferencia de los GPU tradicionales que dependen de HBM, Groq usa SRAM en chip y un diseño con compilador prioritario.

En escenarios de interacción en tiempo real, esta arquitectura puede generar tokens 10 veces más rápido que los GPU tradicionales, con una eficiencia energética 10 veces mayor. NVIDIA busca complementar la inferencia de baja latencia (que domina Groq LPU) con el ecosistema CUDA. Gigantes en la nube como Google (TPU) y Amazon (Inferentia) ya han demostrado las ventajas de chips dedicados en costos de inferencia, y NVIDIA necesita la tecnología de Groq para defenderse.

El problema del Muro de Contexto (The Context Wall)

En inferencias de contexto largo, la memoria KV (KV) es el mecanismo por el cual los modelos de IA recuerdan el historial de conversaciones. A medida que la ventana de contexto se expande a millones de tokens, el tamaño de KV Cache crece linealmente, agotando rápidamente la costosa y limitada capacidad de HBM (G1) en GPU. Cuando HBM se llena, los datos se expulsan a la DRAM del sistema (G2) o a SSD local (G3). Esto genera una crisis en KV Cache: las GPU a menudo permanecen inactivas esperando datos históricos.

Nivel G3.5: plataforma de almacenamiento de memoria de contexto para inferencias (ICMS)

En la arquitectura Vera Rubin, la innovación más disruptiva y profunda en la industria de memoria es el nivel G3.5, es decir, la plataforma de almacenamiento de memoria de contexto para inferencias (ICMS, Inference Context Memory Storage). Esta innovación no solo es una actualización arquitectónica, sino que marca la llegada de la era de cálculos conscientes del contexto (Context-Aware).

ICMS usa BlueField-4 DPU y Spectrum-X Ethernet para crear en el nivel de rack (Pod) un buffer compartido basado en memoria flash. Este nivel G3.5 se sitúa entre DRAM y el almacenamiento tradicional, usando tecnología RDMA (acceso remoto a memoria directa) para que la GPU acceda a KV Cache en memoria flash remota a velocidades cercanas a la memoria local.

Impulsando la creación de nuevas normas tecnológicas (HBF & AI-SSD)

Para que NAND Flash pueda soportar cargas de trabajo similares a la memoria, la industria se ve obligada a acelerar la innovación tecnológica, cambiando la hoja de ruta de los principales fabricantes de memoria.

High Bandwidth Flash (HBF): Para mejorar el ancho de banda, SK Hynix y SanDisk colaboran en HBF. Es una tecnología de apilamiento 3D similar a HBM, pero usando obleas NAND, diseñada para ofrecer varias veces la tasa de transferencia de un SSD tradicional, específicamente para inferencias IA.

SSD especializado en IA (AI-NP): SK Hynix trabaja estrechamente con NVIDIA en el desarrollo de SSD IA con 100 millones de IOPS. Este rendimiento es 100 veces superior a los SSD de alta gama actuales, diseñado para satisfacer las demandas extremas de velocidad de lectura aleatoria en ICMS, asegurando que los datos lleguen instantáneamente a la GPU.

La capa G3.5 de ICMS es un puente clave que extiende la cadena de valor de IA desde la costosa HBM hasta NAND Flash. Resuelve el problema de que los agentes IA necesitan memoria ilimitada para tareas complejas, transformando la industria de NAND de un producto de ciclo de almacenamiento a un recurso estratégico indispensable en infraestructura de IA.

Efecto de inflación en el almacenamiento de NVL72 de Vera Rubin

Según análisis de Citi y otras instituciones, la demanda de NAND en la arquitectura Vera Rubin es explosiva. Además del almacenamiento estándar, ICMS impulsado por BlueField-4 añade aproximadamente 16TB de NAND de alta velocidad por GPU. Para un rack NVL72 con 72 GPUs, esto significa una demanda adicional de aproximadamente 1,152TB (alrededor de 1.15PB) de NAND.

Si en 2026 se desplegaran 100,000 de estos racks en todo el mundo, se generaría una demanda adicional de más de 115 Exabytes (EB) de NAND, representando aproximadamente el 12% de la capacidad total de NAND global en 2025. Esta demanda no solo es grande, sino que también requiere un rendimiento muy alto, lo que ha provocado una crisis en el suministro de SSD empresariales, iniciando un ciclo de escasez liderado por los vendedores.

Esta revolución arquitectónica ha llevado al mercado de memoria a un “triple superciclo” (aumento de precios de DRAM, escasez de NAND y agotamiento de HBM). A continuación, un análisis profundo de las cuatro principales empresas:

SK Hynix (SK Hynix): Diseñador de arquitecturas IA

Posición

Líder absoluto en el mercado de HBM (HBM3/3E con una participación del 5~60% en el mercado), aliado clave de NVIDIA.

Ventajas

Dominio en HBM4: se estima que más del 70% de los pedidos iniciales de HBM4 para la plataforma Vera Rubin son de SK Hynix, y su capacidad de producción ya anunció que en 2026 estará completamente agotada.

Establecimiento de estándares HBF: colaboración con SanDisk para impulsar High Bandwidth Flash (HBF), intentando elevar NAND a nivel de memoria casi como HBM.

SSD AI-NP: desarrollo de SSD de rendimiento ultra alto con 100 millones de IOPS, diseñados específicamente para ICMS.

Desventajas

SK hynix ya está en medio del superciclo IA, con casi toda su capacidad de HBM3E / HBM4 comprometida. En 2026, incluso en sus previsiones, reconocen que podrían enfrentar ajustes de precios y mayor competencia. Varias instituciones advierten que si en 2026 la oferta de HBM se expande y los precios bajan, SK hynix, que depende en gran medida de HBM, enfrentará mayores riesgos de reducción de beneficios.

Samsung (Samsung): Contraataque del imperio y ventaja en capacidad

Posición

Proveedor integral de soluciones, con capacidad de producción monstruosa.

Ventajas

HBM4 turnkey: ofrece un servicio integral de “memoria + lógica + empaquetado”, muy atractivo para clientes como Google y Amazon que desarrollan sus propios chips.

Beneficio directo en G3.5: como el mayor fabricante mundial de NAND, tiene la mayor capacidad de suministro de SSD empresariales y memoria CXL (PBSSD), pudiendo satisfacer simultáneamente las demandas de HBM y almacenamiento masivo.

Desventajas

Tecnología HBM en etapa inicial, necesita reconstruir la confianza de los clientes en la generación Rubin; aunque tiene volumen en NAND, su poder de fijación de precios no es tan fuerte como HBM.

Micron (Micron): Beneficiario de eficiencia y geopolítica

Posición

Principal opción de AI soberana en EE. UU., con doble impulso en HBM y NAND.

Ventajas

Beneficio doble: la única empresa estadounidense que posee capacidad en HBM3E/4 y en SSD empresariales avanzados. Puede aprovechar tanto la memoria de la GPU Rubin como la capa de almacenamiento ICMS.

Liderazgo en eficiencia: sus productos HBM afirman ser un 30% más eficientes que los de la competencia, cumpliendo con los requisitos extremos de TCO en centros de datos IA.

Beneficio geopolítico: como único fabricante en EE. UU., es la opción preferida para la nube IA soberana en Norteamérica.

Desventajas

Capacidad total menor que los grandes fabricantes coreanos, necesita mantener altos márgenes mediante primas tecnológicas, sin poder competir en precios.

SanDisk: reevaluación del valor desde almacenamiento hasta computación

Posición

Mayor beneficiario del nivel G3.5, en proceso de transformación en acciones de infraestructura IA.

Ventajas

El más puro en concepto G3.5: la demanda de NAND de 1,152TB por sistema Rubin es un incremento neto para SanDisk. Su SSD empresarial Stargate ya cuenta con certificación de grandes clientes.

Transformación empresarial: tras escisión de Western Digital, su estrategia se centra completamente en centros de datos (crecimiento anual del 26%), dejando atrás la carga de productos de consumo.

Potencial de precios: en un escenario de escasez, los precios de NAND empresarial podrían duplicarse, ofreciendo alta rentabilidad.

Desventajas

No posee fábricas propias, opera en modo fabless, dependiente de terceros, con menor capacidad de control de producción comparado con fabricantes IDM.

Análisis prospectivo para 2026: consolidación del mercado de vendedores de memoria

Nomura y Citi coinciden en predecir que en 2026 habrá un grave desequilibrio entre oferta y demanda. Se espera que los ingresos de DRAM crezcan un 51% anual, y que los contratos de obleas de NAND se dupliquen en precio. Debido a la escasez de salas limpias y al consumo de obleas por HBM (que consume 3 veces más que DRAM), la tensión en el suministro continuará hasta mediados de 2027. En esta ola de modernización de la industria valorada en 10 billones de dólares, la aparición de Vera Rubin y la plataforma ICMS elevan a los fabricantes de memoria de actores secundarios a protagonistas principales.

De 2026 a 2028, además de la expansión limitada de HBM y la presión de ICMS en SSD empresariales, podría acelerarse otra tendencia: la comercialización temprana de HBF (memoria flash de alta frecuencia apilada en NAND). La comunidad académica y la industria coinciden en que, debido a que HBF puede aprovechar parcialmente las tecnologías de apilamiento y empaquetado acumuladas en la era HBM, su ritmo de adopción será más rápido que HBM, comenzando a integrarse en plataformas principales alrededor de 2027.

Este artículo, “NVIDIA Vera Rubin dispara la demanda de memoria: análisis de ventajas y desventajas de SK Hynix, Samsung, Micron y SanDisk”, fue publicado originalmente en Chain News ABMedia.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios