
El responsable del equipo del modelo a gran escala de Xiaomi, Luo Fuli, concedió una entrevista en profundidad en la plataforma Bilibili el 24 de abril (número de vídeo: BV1iVoVBgERD). La duración de la entrevista fue de 3,5 horas, y es la primera vez que expone de manera sistemática sus puntos de vista técnicos públicamente en calidad de responsable técnico. Luo Fuli afirmó que la competencia de la pista de los grandes modelos ha pasado de la era de Chat a la era de Agent, y señaló que la “autoevolución” será el evento clave para la AGI en el próximo año.

( Fuente: Bilibili )
Según lo expresado por Luo Fuli en la entrevista de Bilibili, señaló que el foco de la competencia de los grandes modelos en 2026 ya no se centrará en la calidad general del diálogo, sino en la capacidad de ejecución autónoma continua en tareas complejas. En la entrevista, dijo que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y mantener una ejecución estable durante 2 a 3 días, sin necesidad de ajustes por parte de humanos. En la entrevista también destacó que el avance de la capacidad de “autoevolución” indica que los sistemas de IA empiezan a contar con capacidad de autocorrección, y mencionó explícitamente las rutas tecnológicas de Anthropic y variables tecnológicas como Claude Opus 4.6, así como el impacto de estas en todo el ecosistema de IA.
Según lo revelado por Luo Fuli en la entrevista, Xiaomi ya ha realizado importantes ajustes en su estrategia de asignación de potencia de cómputo. Explicó que la combinación de potencia de cómputo que suele utilizar la industria es Pre-train:Post-train:Inference = 3:5:1, mientras que la estrategia actual de Xiaomi ya se ha ajustado a 3:1:1, comprimiendo de forma significativa la proporción de entrenamiento posterior y aumentando de forma simultánea la inversión de recursos en la etapa de inferencia.
En la entrevista, explicó que esta transformación se debe a la madurez de la estrategia Agent RL Scaling, por lo que el post-entrenamiento ya no necesita acumular grandes cantidades de potencia de cómputo, y que el aumento de recursos en el lado de la inferencia refleja la demanda de capacidades de respuesta inmediata en escenarios donde los Agents se llevan a la práctica.
En cuanto al problema del desfase generacional (desfase de Pre-train) en los grandes modelos nacionales, Luo Fuli dijo en la entrevista que esta brecha se ha reducido desde los 3 años del pasado hasta unos pocos meses, y que el foco de la estrategia actual se está moviendo hacia Agent RL Scaling. El recorrido profesional de Luo Fuli incluye el Instituto DAMO de Alibaba, la cuantitativa de Huanfang y DeepSeek (desarrollador principal de DeepSeek-V2); en noviembre de 2025 se incorporó a Xiaomi.
De acuerdo con el anuncio de la serie MiMo-V2 publicado por Xiaomi oficialmente el 19 de marzo de 2026, en esta ocasión se lanzan tres modelos de una sola vez:
MiMo-V2-Pro:parámetros totales (billones); habilita parámetros 42B, arquitectura de atención híbrida, compatibilidad con contexto de un millón, tasa de finalización de tareas 81%
MiMo-V2-Omni:escenarios de Agent de modalidad completa
MiMo-V2-TTS:escenarios de síntesis de voz
Según el anuncio, MiMo-V2-Flash, que ya se ha liberado como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto, con una velocidad de inferencia de 3 veces la de DeepSeek-V3.2.
Según las declaraciones de Luo Fuli en su entrevista del 24 de abril de 2026 en Bilibili (BV1iVoVBgERD), en la entrevista señaló que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y ejecutar de manera estable durante 2 a 3 días sin necesidad de intervención humana, y calificó la “autoevolución” como el evento más crucial para el desarrollo de la AGI durante el próximo año.
Según lo revelado por Luo Fuli en la entrevista, la combinación de potencia de cómputo de Xiaomi se ha ajustado de Pre-train:Post-train:Inference = 3:5:1, que se usa de forma habitual en la industria, a 3:1:1, comprimiendo de forma significativa la proporción de post-entrenamiento; explicó que este ajuste se debe a que, tras la madurez de la estrategia Agent RL Scaling, mejora la eficiencia del post-entrenamiento, y también a la demanda de capacidades de respuesta inmediata por parte de los escenarios donde se implementan Agents en el lado de inferencia.
Según el anuncio oficial de Xiaomi publicado el 19 de marzo de 2026, MiMo-V2-Flash, que ya está como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto; la velocidad de inferencia es 3 veces la de DeepSeek-V3.2, y la tasa de finalización de tareas del modelo insignia MiMo-V2-Pro es del 81%.
Artículos relacionados
Gemini Lanza Trading Agéntico para el Comercio Automatizado Impulsado por IA
DeFi United consigue $300M con Consensys, compromiso de 30K ETH de Lubin
Alphea lanza una blockchain de Capa 1 nativa de IA con ejecución de agentes autónomos
Gate organizará una mesa redonda en Space sobre Trading con IA el 28 de abril: explorar la IA como motor del próximo ciclo de Web3
Ant Group lanza Ling-2.6-1T: modelo de billón de parámetros optimizado para una ejecución de tareas eficiente en tokens
La API de Nansen ahora admite el protocolo MPP de Tempo, lo que permite a los agentes de IA pagar por llamada