Responsable del gran modelo de Xiaomi: La competencia en IA está pasando a la era de los agentes; la autoevolución es un acontecimiento clave para la AGI

AI自進化

El responsable del equipo del modelo a gran escala de Xiaomi, Luo Fuli, concedió una entrevista en profundidad en la plataforma Bilibili el 24 de abril (número de vídeo: BV1iVoVBgERD). La duración de la entrevista fue de 3,5 horas, y es la primera vez que expone de manera sistemática sus puntos de vista técnicos públicamente en calidad de responsable técnico. Luo Fuli afirmó que la competencia de la pista de los grandes modelos ha pasado de la era de Chat a la era de Agent, y señaló que la “autoevolución” será el evento clave para la AGI en el próximo año.

De la era de Chat a la era de Agent: juicios técnicos centrales

小米大模型團隊負責人羅福莉訪談

( Fuente: Bilibili )

Según lo expresado por Luo Fuli en la entrevista de Bilibili, señaló que el foco de la competencia de los grandes modelos en 2026 ya no se centrará en la calidad general del diálogo, sino en la capacidad de ejecución autónoma continua en tareas complejas. En la entrevista, dijo que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y mantener una ejecución estable durante 2 a 3 días, sin necesidad de ajustes por parte de humanos. En la entrevista también destacó que el avance de la capacidad de “autoevolución” indica que los sistemas de IA empiezan a contar con capacidad de autocorrección, y mencionó explícitamente las rutas tecnológicas de Anthropic y variables tecnológicas como Claude Opus 4.6, así como el impacto de estas en todo el ecosistema de IA.

Ajuste de la combinación de potencia de cómputo de Xiaomi y evaluación del desfase de Pre-train

Según lo revelado por Luo Fuli en la entrevista, Xiaomi ya ha realizado importantes ajustes en su estrategia de asignación de potencia de cómputo. Explicó que la combinación de potencia de cómputo que suele utilizar la industria es Pre-train:Post-train:Inference = 3:5:1, mientras que la estrategia actual de Xiaomi ya se ha ajustado a 3:1:1, comprimiendo de forma significativa la proporción de entrenamiento posterior y aumentando de forma simultánea la inversión de recursos en la etapa de inferencia.

En la entrevista, explicó que esta transformación se debe a la madurez de la estrategia Agent RL Scaling, por lo que el post-entrenamiento ya no necesita acumular grandes cantidades de potencia de cómputo, y que el aumento de recursos en el lado de la inferencia refleja la demanda de capacidades de respuesta inmediata en escenarios donde los Agents se llevan a la práctica.

En cuanto al problema del desfase generacional (desfase de Pre-train) en los grandes modelos nacionales, Luo Fuli dijo en la entrevista que esta brecha se ha reducido desde los 3 años del pasado hasta unos pocos meses, y que el foco de la estrategia actual se está moviendo hacia Agent RL Scaling. El recorrido profesional de Luo Fuli incluye el Instituto DAMO de Alibaba, la cuantitativa de Huanfang y DeepSeek (desarrollador principal de DeepSeek-V2); en noviembre de 2025 se incorporó a Xiaomi.

Especificaciones técnicas de la serie MiMo-V2 y ranking de código abierto

De acuerdo con el anuncio de la serie MiMo-V2 publicado por Xiaomi oficialmente el 19 de marzo de 2026, en esta ocasión se lanzan tres modelos de una sola vez:

MiMo-V2-Pro:parámetros totales (billones); habilita parámetros 42B, arquitectura de atención híbrida, compatibilidad con contexto de un millón, tasa de finalización de tareas 81%

MiMo-V2-Omni:escenarios de Agent de modalidad completa

MiMo-V2-TTS:escenarios de síntesis de voz

Según el anuncio, MiMo-V2-Flash, que ya se ha liberado como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto, con una velocidad de inferencia de 3 veces la de DeepSeek-V3.2.

Preguntas frecuentes

Cómo define Luo Fuli la “autoevolución” y por qué considera que es el evento más crucial para la AGI?

Según las declaraciones de Luo Fuli en su entrevista del 24 de abril de 2026 en Bilibili (BV1iVoVBgERD), en la entrevista señaló que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y ejecutar de manera estable durante 2 a 3 días sin necesidad de intervención humana, y calificó la “autoevolución” como el evento más crucial para el desarrollo de la AGI durante el próximo año.

Qué ajustes concretos hizo Xiaomi en la combinación de potencia de cómputo y cuál es la lógica detrás?

Según lo revelado por Luo Fuli en la entrevista, la combinación de potencia de cómputo de Xiaomi se ha ajustado de Pre-train:Post-train:Inference = 3:5:1, que se usa de forma habitual en la industria, a 3:1:1, comprimiendo de forma significativa la proporción de post-entrenamiento; explicó que este ajuste se debe a que, tras la madurez de la estrategia Agent RL Scaling, mejora la eficiencia del post-entrenamiento, y también a la demanda de capacidades de respuesta inmediata por parte de los escenarios donde se implementan Agents en el lado de inferencia.

Cuál es el ranking de código abierto y el rendimiento de velocidad de MiMo-V2-Flash?

Según el anuncio oficial de Xiaomi publicado el 19 de marzo de 2026, MiMo-V2-Flash, que ya está como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto; la velocidad de inferencia es 3 veces la de DeepSeek-V3.2, y la tasa de finalización de tareas del modelo insignia MiMo-V2-Pro es del 81%.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Gemini Lanza Trading Agéntico para el Comercio Automatizado Impulsado por IA

La bolsa de criptomonedas Gemini ha lanzado la Operativa Agéntica (Agentic Trading), marcando la primera vez que una bolsa regulada en EE. UU. ha ofrecido integración directa de agentes de IA para operaciones automatizadas. La plataforma permite a los usuarios conectar Claude, ChatGPT y otros modelos de IA para automatizar estrategias de trading que van desde órdenes simples hasta

CryptoFrontierHace32m

DeFi United consigue $300M con Consensys, compromiso de 30K ETH de Lubin

## Consensys y Joseph Lubin prometen 30,000 ETH a DeFi United El lunes, el estudio de desarrollo de Ethereum Consensys y el fundador Joseph Lubin anunciaron conjuntamente una contribución de 30,000 ETH a DeFi United, un esfuerzo coordinado para cubrir pérdidas del exploit de Kelp DAO, según el anuncio de Aave en

CryptoFrontierhace1h

Alphea lanza una blockchain de Capa 1 nativa de IA con ejecución de agentes autónomos

Mensaje de Gate News, 27 de abril — Alphea, una plataforma blockchain de Capa 1 recién presentada diseñada para infraestructuras de IA, presentó oficialmente su entorno de ejecución descentralizado en el Hong Kong Web3 Festival 2026. La plataforma integra la ejecución, la memoria persistente y la computación verificable como

GateNewshace2h

Gate organizará una mesa redonda en Space sobre Trading con IA el 28 de abril: explorar la IA como motor del próximo ciclo de Web3

Mensaje de Gate News, 27 de abril — Gate organizará una mesa redonda en vivo en Space sobre Trading con IA el 28 de abril a las 8 p.m., reuniendo a expertos de la industria para explorar si la profunda integración de la IA en los flujos de trabajo de trading marca el verdadero punto de partida del próximo ciclo de Web3. La discusión examinará A

GateNewshace6h

Ant Group lanza Ling-2.6-1T: modelo de billón de parámetros optimizado para una ejecución de tareas eficiente en tokens

Mensaje de Gate News, 27 de abril — Ant Group's inclusionAI ha lanzado Ling-2.6-1T, un nuevo modelo insignia de instrucciones en la serie Ling con un billón de parámetros. A diferencia de los modelos de razonamiento de cadena larga, Ling-2.6-1T emplea un mecanismo de "Fast-Thinking" diseñado para ejecutar tareas con precisión usando un número mínimo de tokens

GateNewshace6h

La API de Nansen ahora admite el protocolo MPP de Tempo, lo que permite a los agentes de IA pagar por llamada

Mensaje de Gate News, 27 de abril — La API de Nansen ahora admite el Protocolo de Pagos para Máquinas (MPP), un estándar para pagos autónomos de máquina a máquina respaldados por Tempo y Stripe. La integración permite que los agentes de IA paguen directamente desde sus monederos en función de cada llamada. La función opera junto a

GateNewshace7h
Comentar
0/400
Sin comentarios