Mensaje de Gate News, 17 de abril — La empresa de IA de Elon Musk, xAI, planea proporcionar potencia informática a gran escala a la startup de herramientas de programación Cursor, y se espera que Cursor utilice miles de GPUs adquiridas por xAI a proveedores como Nvidia para entrenar su próximo modelo de código de nueva generación Composer 2.5.
Esta colaboración marca la transición de xAI de una empresa de investigación de un solo enfoque a un rol que abarca servicios de potencia informática, posicionándose como una posible alternativa a grandes proveedores de servicios en la nube, incluidos Microsoft, Google, CoreWeave y Nebius. Para xAI, alquilar capacidad informática puede aliviar los altos costos de construcción y operación de centros de datos, mientras fortalece sus vínculos con ecosistemas de desarrolladores. Cursor, que cuenta con abundantes datos de desarrolladores, tiene un valor estratégico a medida que se intensifica la competencia en programación con IA.
Se espera que la asociación aumente las fuentes de ingresos de xAI y aborde las preocupaciones de los inversores sobre el proceso de IPO en curso de SpaceX. xAI, que completó su adquisición por SpaceX antes de la IPO, sigue en una fase de inversión de I+D de alta intensidad con pérdidas operativas mensuales que superan $300 millones y pérdidas netas que superan $4 mil millones en 2025. Mejorar la utilización de recursos es una prioridad crítica: la tasa de utilización de GPUs actual de xAI en el entrenamiento de modelos es de aproximadamente 11%, muy por debajo del estándar de la industria de 35% a 45%.
XAI ha desplegado aproximadamente 200,000 GPUs como parte de su proyecto de centro de datos “Colossus” y planea expandirse hasta 1 millón de unidades. Cursor, que generó $2 mil millones en ingresos recurrentes anuales el mes pasado con una tasa de ejecución que duplica la de tres meses antes, tiene una valoración de aproximadamente $50 mil millones en conversaciones de financiación en curso. La startup se ha convertido en una de las empresas de más rápido crecimiento de la historia desde su fundación hace menos de cinco años, con aproximadamente 60% de los ingresos provenientes de clientes empresariales.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
DeepSeek lanza una versión preliminar de código abierto V4, puntuación técnica 3206 superando a GPT-5.4
DeepSeek 推estamente lanzó oficialmente la serie de vista previa V4 el 24 de abril, con licencia MIT y código abierto, y los pesos del modelo ya se han publicado en Hugging Face y ModelScope. Según el informe técnico de DeepSeek V4, V4-Pro-Max (modo de máxima fuerza de inferencia) obtuvo 3206 puntos en el benchmark de Codeforces, superando a GPT-5.4.
MarketWhisperHace5m
Cambricon Completa la Adaptación del Día 0 de DeepSeek-V4, Marcando un Hito para el Ecosistema de Chips de IA de China
Mensaje de Gate News, 24 de abril — Cambricon anunció hoy que ha completado la adaptación del Día 0 de DeepSeek-V4, el último modelo de lenguaje grande de DeepSeek, utilizando su ecosistema propietario de software NeuWare y el framework vLLM. El código de adaptación se ha publicado simultáneamente como código abierto, marcando el
GateNewsHace22m
Tencent lanza en código abierto Hy3, versión preliminar; las pruebas de referencia del código mejoran un 40% con respecto a la generación anterior
Tencent el 23 de abril lanzó oficialmente como código abierto el modelo de lenguaje grande Hy3 en versión preliminar en las plataformas GitHub, Hugging Face y ModelScope, y también ofrece servicios de API de pago a través de Tencent Cloud. Según informó Decrypt el 24 de abril, la versión preliminar de Hy3 inició el entrenamiento a finales de enero y, para la fecha de publicación, habían transcurrido menos de tres meses.
MarketWhisperHace29m
Inversiones de cartera de FTX por valor de 158 billones de won si no hubiera quebrado
FTX, el exchange centralizado de criptomonedas que se acogió al Capítulo 11 de protección por bancarrota en noviembre de 2022 debido a la falta de liquidez y a la salida de capitales, habría mantenido inversiones valoradas en aproximadamente 158.796 billones de wones si no hubiera colapsado, según un análisis citado por Park
CryptoFrontierHace32m
Xiaomi Revela Detalles del Entrenamiento de MiMo-V2-Pro: Parámetros de Modelo 1T, Miles de GPUs Desplegadas
Mensaje de Gate News, 24 de abril: la jefa del equipo de modelos de lenguaje de Xiaomi, Luo Fuli, reveló en una entrevista en profundidad que el modelo MiMo-V2-Pro cuenta con un total de 1 billón de parámetros y que requirió miles de GPUs para el entrenamiento. Señaló que la escala de 1T representa el umbral mínimo para lograr
GateNewsHace46m
DeepSeek V4 logra una puntuación perfecta en Putnam-2025 y empata con Axiom en razonamiento matemático formal
Mensaje de Gate News, 24 de abril — DeepSeek V4 ha publicado resultados de evaluaciones de razonamiento matemático formal, logrando una puntuación perfecta de 120/120 en Putnam-2025, empatando con Axiom por el primer lugar.
En el régimen práctico, usando LeanExplore y muestreo con restricciones, V4-Flash-Max obtuvo 81.00 en el
GateNewsHace54m