Responsable del gran modelo de Xiaomi: La competencia en IA está pasando a la era de los agentes; la autoevolución es un acontecimiento clave para la AGI

AI自進化

El responsable del equipo del modelo a gran escala de Xiaomi, Luo Fuli, concedió una entrevista en profundidad en la plataforma Bilibili el 24 de abril (número de vídeo: BV1iVoVBgERD). La duración de la entrevista fue de 3,5 horas, y es la primera vez que expone de manera sistemática sus puntos de vista técnicos públicamente en calidad de responsable técnico. Luo Fuli afirmó que la competencia de la pista de los grandes modelos ha pasado de la era de Chat a la era de Agent, y señaló que la “autoevolución” será el evento clave para la AGI en el próximo año.

De la era de Chat a la era de Agent: juicios técnicos centrales

小米大模型團隊負責人羅福莉訪談

( Fuente: Bilibili )

Según lo expresado por Luo Fuli en la entrevista de Bilibili, señaló que el foco de la competencia de los grandes modelos en 2026 ya no se centrará en la calidad general del diálogo, sino en la capacidad de ejecución autónoma continua en tareas complejas. En la entrevista, dijo que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y mantener una ejecución estable durante 2 a 3 días, sin necesidad de ajustes por parte de humanos. En la entrevista también destacó que el avance de la capacidad de “autoevolución” indica que los sistemas de IA empiezan a contar con capacidad de autocorrección, y mencionó explícitamente las rutas tecnológicas de Anthropic y variables tecnológicas como Claude Opus 4.6, así como el impacto de estas en todo el ecosistema de IA.

Ajuste de la combinación de potencia de cómputo de Xiaomi y evaluación del desfase de Pre-train

Según lo revelado por Luo Fuli en la entrevista, Xiaomi ya ha realizado importantes ajustes en su estrategia de asignación de potencia de cómputo. Explicó que la combinación de potencia de cómputo que suele utilizar la industria es Pre-train:Post-train:Inference = 3:5:1, mientras que la estrategia actual de Xiaomi ya se ha ajustado a 3:1:1, comprimiendo de forma significativa la proporción de entrenamiento posterior y aumentando de forma simultánea la inversión de recursos en la etapa de inferencia.

En la entrevista, explicó que esta transformación se debe a la madurez de la estrategia Agent RL Scaling, por lo que el post-entrenamiento ya no necesita acumular grandes cantidades de potencia de cómputo, y que el aumento de recursos en el lado de la inferencia refleja la demanda de capacidades de respuesta inmediata en escenarios donde los Agents se llevan a la práctica.

En cuanto al problema del desfase generacional (desfase de Pre-train) en los grandes modelos nacionales, Luo Fuli dijo en la entrevista que esta brecha se ha reducido desde los 3 años del pasado hasta unos pocos meses, y que el foco de la estrategia actual se está moviendo hacia Agent RL Scaling. El recorrido profesional de Luo Fuli incluye el Instituto DAMO de Alibaba, la cuantitativa de Huanfang y DeepSeek (desarrollador principal de DeepSeek-V2); en noviembre de 2025 se incorporó a Xiaomi.

Especificaciones técnicas de la serie MiMo-V2 y ranking de código abierto

De acuerdo con el anuncio de la serie MiMo-V2 publicado por Xiaomi oficialmente el 19 de marzo de 2026, en esta ocasión se lanzan tres modelos de una sola vez:

MiMo-V2-Pro:parámetros totales (billones); habilita parámetros 42B, arquitectura de atención híbrida, compatibilidad con contexto de un millón, tasa de finalización de tareas 81%

MiMo-V2-Omni:escenarios de Agent de modalidad completa

MiMo-V2-TTS:escenarios de síntesis de voz

Según el anuncio, MiMo-V2-Flash, que ya se ha liberado como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto, con una velocidad de inferencia de 3 veces la de DeepSeek-V3.2.

Preguntas frecuentes

Cómo define Luo Fuli la “autoevolución” y por qué considera que es el evento más crucial para la AGI?

Según las declaraciones de Luo Fuli en su entrevista del 24 de abril de 2026 en Bilibili (BV1iVoVBgERD), en la entrevista señaló que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y ejecutar de manera estable durante 2 a 3 días sin necesidad de intervención humana, y calificó la “autoevolución” como el evento más crucial para el desarrollo de la AGI durante el próximo año.

Qué ajustes concretos hizo Xiaomi en la combinación de potencia de cómputo y cuál es la lógica detrás?

Según lo revelado por Luo Fuli en la entrevista, la combinación de potencia de cómputo de Xiaomi se ha ajustado de Pre-train:Post-train:Inference = 3:5:1, que se usa de forma habitual en la industria, a 3:1:1, comprimiendo de forma significativa la proporción de post-entrenamiento; explicó que este ajuste se debe a que, tras la madurez de la estrategia Agent RL Scaling, mejora la eficiencia del post-entrenamiento, y también a la demanda de capacidades de respuesta inmediata por parte de los escenarios donde se implementan Agents en el lado de inferencia.

Cuál es el ranking de código abierto y el rendimiento de velocidad de MiMo-V2-Flash?

Según el anuncio oficial de Xiaomi publicado el 19 de marzo de 2026, MiMo-V2-Flash, que ya está como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto; la velocidad de inferencia es 3 veces la de DeepSeek-V3.2, y la tasa de finalización de tareas del modelo insignia MiMo-V2-Pro es del 81%.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Los agentes de IA impulsan la demanda de pagos cripto; x402 procesa 165M transacciones

Mensaje de Gate News, 27 de abril — Jesse Pollak, un ejecutivo de un gran CEX, ha argumentado que los agentes de IA autónomos están creando un nuevo "centro de demanda" para los pagos cripto, lo que exige infraestructura de pagos nativa de software. El 20 de abril, se anunció que el ecosistema x402 había procesado más de 165

GateNewsHace43m

¡La agencia de Cursor AI causó un error! Una sola línea de código vació el almacén de datos de la empresa en 9 segundos; la seguridad fue cuestionada y quedó en puro discurso.

El fundador de PocketOS, Jer Crane, dijo que el agente de Cursor AI ejecutó por su cuenta el mantenimiento en un entorno de pruebas, abusando de un token de API personalizado para agregar o eliminar dominios, e inició una orden de eliminación contra la API GraphQL de Railway. En 9 segundos, los datos y las instantáneas del mismo clúster se destruyeron por completo; lo más reciente que se puede restaurar es hasta tres meses atrás. El agente admitió haber violado las normas de operaciones irreversibles, no haber leído la documentación técnica, y no haber verificado el aislamiento del entorno, entre otras; las víctimas fueron clientes del sector de alquiler de coches. Las reservas y los datos desaparecieron por completo, y la conciliación de cuentas requirió mucho tiempo. Crane propuso cinco reformas: confirmación manual, permisos de API de granularidad fina, separación entre copias de seguridad y datos principales, SLA público y mecanismos de imposición a nivel subyacente.

ChainNewsAbmediahace1h

Alibaba lanza el modelo de código abierto AgenticQwen de PAI: la versión 8B se acerca al rendimiento de 235B mediante volantes de doble dato

Mensaje de Gate News, 27 de abril — El equipo de PAI de Alibaba ha lanzado y ha publicado como código abierto AgenticQwen, un modelo lingüístico agentico de pequeña escala diseñado para aplicaciones industriales de llamadas a herramientas. El modelo viene en dos versiones: 8B y 30B-A3B. Entrenado mediante un innovador marco de aprendizaje por refuerzo de "doble volante de datos"

GateNewshace1h

DeepSeek V4 Pro en Ollama Cloud: Conecta en un solo clic Claude Code

Según los tuits de Ollama, DeepSeek V4 Pro se lanzó el 4/24 y ya se ha incorporado en el directorio de Ollama en modo en la nube; con un solo comando se pueden llamar herramientas como Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro cuenta con 1,6T de parámetros, 1M de context, Mixture-of-Experts; la inferencia en la nube no descarga los pesos locales. Si lo quieres local, debes obtener los pesos y ejecutarlo con INT4/GGUF y GPUs multi‑tarjeta. Las pruebas de velocidad tempranas se vieron afectadas por la carga del servidor en la nube; en condiciones normales es aproximadamente 30 tok/s, con un pico de 1,1 tok/s. Se recomienda usar el prototipo en la nube; para producción en serie, realiza tu propia inferencia o usa una API comercial.

ChainNewsAbmediahace1h

UB (Unibase) sube 14.96% en 24 horas

Noticias de Gate, 27 de abril: según el mercado de Gate, al momento de la publicación, UB (Unibase) cotiza en 0.0491 dólares; ha subido 14.96% en las últimas 24 horas. Alcanzó un máximo de 0.0534 dólares y cayó hasta 0.0423 dólares. El volumen de operaciones en 24 horas fue de 3.9667 millones de dólares. La capitalización de mercado actual es de aproximadamente 123 millones de dólares. Unibase es una capa de memoria de IA descentralizada de alto rendimiento que proporciona memoria a largo plazo e interoperabilidad entre plataformas a los agentes de IA, permitiéndoles recordar, colaborar y evolucionar por sí mismos. Unibase tiene como objetivo construir una internet de agentes abierta, apoyando la colaboración fluida de agentes inteligentes entre ecosistemas, y permitiendo a los desarrolladores crear aplicaciones de IA de la próxima generación. Esta noticia no constituye asesoramiento de inversión; invierta con cautela ante el riesgo de volatilidad del mercado.

GateNewshace1h

Guo Ming-chi: OpenAI quiere hacer un teléfono móvil con AI Agent; MediaTek, Qualcomm y Luxshare Precision se convierten en la cadena de suministro clave

Guo Ming-chi afirma que OpenAI está colaborando con MediaTek, Qualcomm y Luxshare Precision para desarrollar un teléfono móvil con agentes de IA, con producción en masa prevista para 2028. El nuevo teléfono se centrará en la finalización de tareas; el agente de IA comprenderá y ejecutará las necesidades, combinando computación en la nube y en el dispositivo. El enfoque estará en la percepción por sensores y la comprensión del contexto. La lista de especificaciones y de la cadena de suministro se prevé que quede definida entre 2026 y 2027; si se concreta, podría introducir un nuevo ciclo de reemplazo de equipos en el mercado de gama alta, y Luxshare podría convertirse en el principal beneficiario.

ChainNewsAbmediahace2h
Comentar
0/400
Sin comentarios