【AI+Hardware】"Lobster" OpenClaw Drives Shift in Hardware Demand, Will Memory Prices Continue to Rise? Morgan Stanley: Execution Requires More DRAM Than Thinking

robot
Generación de resúmenes en curso

Recientemente, OpenClaw ha provocado una ola de “crianza de langostas”. Morgan Stanley señala que los agentes de inteligencia artificial (AI agent), representados por OpenClaw, están provocando cambios en la demanda de hardware. La limitación de la inteligencia artificial ha pasado de la potencia de cálculo a la gestión de datos, y ejecutar tareas requiere más DRAM (Memoria de Acceso Aleatorio Dinámica), lo que hará que el suministro de DRAM sea más tenso.

La firma ha elevado el precio objetivo de SK Hynix a 1.3 millones de wones coreanos y también ha aumentado el precio objetivo de las acciones ordinarias de Samsung Electronics a 251,000 wones, manteniendo ambas en una calificación de “mantener”.

Se espera que los precios de la memoria aumenten aceleradamente año tras año, actualmente en una fase de ascenso medio. Específicamente, para el segundo trimestre de 2026, se prevé que los precios de la DRAM DDR5, principalmente utilizada en cálculos de alta gama, suban más del 50% en comparación con el trimestre anterior, mientras que la DDR4, con aplicaciones más amplias, podría experimentar un aumento del 30% al 40%. Los precios de los productos NAND eSSD utilizados en servidores podrían duplicarse.

Cambio en la limitación de hardware y tensión en la demanda de DRAM en modo de “ejecución autónoma” de AI

A diferencia de los AI generativos como ChatGPT, que responden a preguntas, OpenClaw funciona más como un equipo de asistentes eficiente, que busca información en la web de forma autónoma, utiliza herramientas externas, lee y analiza documentos e incluso ejecuta código, para finalmente derivar resultados complejos.

Morgan Stanley opina que, mediante la coordinación en múltiples pasos, la invocación de herramientas y la organización de procesos, el cuello de botella del hardware en la inteligencia artificial se ha desplazado del GPU (procesador gráfico) al CPU (procesador central) y a la memoria. El tiempo de cálculo del CPU ralentiza toda la tarea. Además, los múltiples agentes deben compartir continuamente el contexto, descargar la caché KV (Key-Value Cache), y almacenar y recuperar los resultados de cada paso intermedio, lo que ocupa mucho espacio en DRAM.

En la era de los grandes modelos de lenguaje (LLM), la potencia del GPU se consideraba la limitación decisiva, y el CPU solo necesitaba convertir los tokens (unidad de medición de recursos de cálculo o facturación de servicios de AI) en texto, con la DRAM encargada de tareas de caché y lectura/escritura.

Hot Talk Financiero

¿La ola de “crianza de langostas” ha terminado y ahora llega la “ola de eliminación”? ¿Se ha agotado el concepto de agentes de IA?

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado