
A responsável da equipa de modelos de IA da Xiaomi, Luo Fuli, concedeu uma entrevista em profundidade na plataforma Bilibili em 24 de abril (número do vídeo: BV1iVoVBgERD). A duração da entrevista foi de 3,5 horas, sendo a primeira vez que ela expõe de forma sistemática as suas perspectivas técnicas publicamente enquanto responsável técnica. Luo Fuli afirmou que a corrida dos grandes modelos já passou da era do Chat para a era dos Agents e indicou que a “auto-evolução” será o acontecimento-chave para a AGI no próximo ano.

(Fonte: Bilibili)
Com base no que Luo Fuli disse na entrevista do Bilibili, ela afirmou que o foco da competição de grandes modelos em 2026 passará de métricas de qualidade de conversação genérica para a capacidade de execução autónoma e contínua em tarefas complexas. Na entrevista, ela afirmou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e manter uma execução estável durante 2 a 3 dias, sem necessidade de intervenção humana para ajustes. Na entrevista, ela sublinhou que o avanço da capacidade de “auto-evolução” significa que os sistemas de IA começam a ter capacidade de autocorreção, e nomeou também as variáveis do percurso tecnológico da Anthropic e de tecnologias como o Claude Opus 4.6, bem como o impacto destas no ecossistema global de IA.
De acordo com as revelações de Luo Fuli durante a entrevista, a Xiaomi já realizou ajustes significativos na sua estratégia de alocação de capacidade de computação. Ela explicou que a proporção de capacidade de computação usada habitualmente na indústria é Pre-train:Post-train:Inference = 3:5:1, enquanto a estratégia atual da Xiaomi foi ajustada para 3:1:1, comprimindo de forma acentuada a proporção de treino pós-treino e, em simultâneo, aumentando o investimento de recursos na fase de inferência.
Na entrevista, ela explicou que esta mudança se deve à maturidade da estratégia de Agent RL Scaling, pelo que o pós-treino já não necessita de empilhar grandes quantidades de capacidade de computação, e o aumento de recursos na ponta de inferência reflete a necessidade de capacidades de resposta imediata nos cenários em que os Agents são implementados.
Relativamente ao problema do desfasamento de gerações (de Pre-train) nos grandes modelos no mercado doméstico, Luo Fuli afirmou que este desfasamento passou de 3 anos no passado para alguns meses, e que o foco estratégico atual está a deslocar-se para Agent RL Scaling. O percurso profissional de Luo Fuli inclui o Alibaba DAMO Academy, a empresa de quantificação Huanfang Quant e a DeepSeek (desenvolvedora principal do DeepSeek-V2), e em novembro de 2025 juntou-se à Xiaomi.
De acordo com o comunicado da Xiaomi publicado oficialmente em 19 de março de 2026 sobre a série MiMo-V2, desta vez foram publicados três modelos de uma só vez:
MiMo-V2-Pro:total de parâmetros, ativa parâmetros 42B, arquitetura de atenção mista, suporta contexto de milhões, taxa de conclusão de tarefas 81%
MiMo-V2-Omni:cenários de Agent de modalidade total
MiMo-V2-TTS:cenários de síntese de voz
De acordo com o comunicado, o MiMo-V2-Flash que já foi disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência atinge 3 vezes a do DeepSeek-V3.2.
Com base no que Luo Fuli afirmou numa entrevista na Bilibili em 24 de abril de 2026 (BV1iVoVBgERD), ela indicou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e executar de forma estável durante 2 a 3 dias sem necessidade de intervenção humana, e classificou a “auto-evolução” como o evento mais crucial para o desenvolvimento da AGI no próximo ano.
Com base nas revelações de Luo Fuli na entrevista, a afetação de capacidade de computação da Xiaomi foi ajustada de Pre-train:Post-train:Inference = 3:5:1, utilizada habitualmente na indústria, para 3:1:1, comprimindo de forma acentuada a proporção do treino pós-treino; ela explicou que esta mudança se deve ao facto de, após a maturidade da estratégia de Agent RL Scaling, a eficiência do pós-treino ter aumentado e às necessidades de capacidades de resposta imediata no lado da inferência para os cenários de implementação de Agents.
De acordo com o comunicado oficial publicado pela Xiaomi em 19 de março de 2026, o MiMo-V2-Flash disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência é 3 vezes a do DeepSeek-V3.2; a taxa de conclusão de tarefas da versão flagship MiMo-V2-Pro é de 81%.
Related Articles
Alibaba lança modelo AgenticQwen em open-source: versão 8B aproxima desempenho de 235B através de dual data flywheels
DeepSeek V4 Pro no Ollama Cloud: ligação num só clique do Claude Code
UB (Unibase) regista uma subida de 14.96% nas últimas 24 horas
Guo Mingqiang: A OpenAI vai fazer um telemóvel com um agente de IA, MediaTek, Qualcomm e Luxshare Precision são uma cadeia de fornecimento chave
A Tencent Cloud integra o framework Hermes com o QClaw, suportando a alternância entre vários modelos, como o DeepSeek-V4 Pro
A Voz do Grok da xAI assume a linha de atendimento ao cliente da Starlink, 70% das chamadas são arquivadas automaticamente