Responsable du modèle IA de Xiaomi : la concurrence en IA passe à l’ère des agents, l’auto-évolution est un événement clé vers l’AGI

AI自進化

Le responsable de l’équipe des grands modèles de Xiaomi, Luo Fuli, a accordé une interview approfondie sur la plateforme Bilibili le 24 avril (numéro de la vidéo : BV1iVoVBgERD). La durée de l’interview est de 3,5 heures ; c’est la première fois qu’elle expose publiquement, en tant que responsable technique, ses points de vue techniques de manière systématique. Luo Fuli a déclaré que la compétition autour des grands modèles est passée de l’ère Chat à l’ère Agent, et a indiqué que « l’auto-évolution » serait l’événement clé pour l’AGI au cours de la prochaine année.

De l’ère Chat à l’ère Agent : jugements techniques clés

小米大模型團隊負責人羅福莉訪談

(Source : Bilibili)

D’après les propos de Luo Fuli dans l’interview sur Bilibili, elle indique que, en 2026, le centre de gravité de la compétition des grands modèles se déplacera de la qualité de conversation générale vers la capacité d’exécution autonome continue sur des tâches complexes. Pendant l’interview, elle a déclaré que, pour l’instant, les modèles de premier plan peuvent s’optimiser de façon autonome sur des tâches spécifiques, et exécuter de manière stable pendant 2 à 3 jours sans nécessiter d’intervention humaine pour des ajustements. Elle a souligné, pendant l’interview, que la percée de la capacité « d’auto-évolution » signifie que les systèmes d’IA commencent à disposer d’une capacité d’autoréparation, et a également cité les trajectoires techniques d’Anthropic ainsi que des variables techniques comme Claude Opus 4.6, et leur impact sur l’ensemble de l’écosystème de l’IA.

Ajustement du mix de puissance de calcul de Xiaomi et évaluation de l’écart de génération de Pre-train

D’après les révélations de Luo Fuli dans l’interview, Xiaomi a déjà effectué d’importants ajustements dans sa stratégie de répartition de la puissance de calcul. Elle explique que, dans l’industrie, le mix de puissance de calcul couramment utilisé est Pre-train:Post-train:Inference = 3:5:1, tandis que la stratégie actuelle de Xiaomi est passée à 3:1:1, ce qui réduit fortement la proportion d’entraînement après pré-entraînement, tout en augmentant simultanément l’investissement de ressources au stade d’inférence.

Dans l’interview, elle explique que ce changement provient de la maturité de la stratégie Agent RL Scaling : l’entraînement postérieur ne nécessite plus d’empiler massivement de la puissance de calcul, et l’augmentation des ressources côté inférence reflète les besoins en réactivité immédiate des scénarios où l’Agent est déployé.

Concernant le problème d’écart entre les générations de Pre-train dans les grands modèles nationaux, Luo Fuli a déclaré, pendant l’interview, que cet écart s’est réduit, passant des 3 années passées à quelques mois ; l’axe central de la stratégie actuelle se déplace vers Agent RL Scaling. Le parcours professionnel de Luo Fuli comprend l’Institut de recherche DingTalk (Alibaba DAMO), la quantification Huanfang et DeepSeek (développement central de DeepSeek-V2), et elle a rejoint Xiaomi en novembre 2025.

Spécifications techniques de la série MiMo-V2 et classement en open source

D’après l’annonce de la série MiMo-V2 publiée par Xiaomi officiellement le 19 mars 2026, cette fois-ci, trois modèles seront dévoilés en une seule fois :

MiMo-V2-Pro : nombre total de paramètres en milliards, paramètres activés 42B, architecture d’attention hybride, prise en charge d’un contexte jusqu’à un million, taux d’achèvement des tâches 81 %

MiMo-V2-Omni : scénarios d’Agent multi-modal

MiMo-V2-TTS : scénarios de synthèse vocale

D’après l’annonce, MiMo-V2-Flash déjà open source occupe la deuxième place du classement mondial des modèles open source, avec une vitesse d’inférence atteignant 3 fois celle de DeepSeek-V3.2.

FAQ

Comment Luo Fuli définit-elle « l’auto-évolution », et pourquoi pense-t-elle que c’est l’événement le plus clé pour l’AGI ?

D’après les propos de Luo Fuli lors de l’interview sur Bilibili du 24 avril 2026 (BV1iVoVBgERD), elle a indiqué que, pour l’instant, les modèles de premier plan peuvent s’optimiser de façon autonome sur des tâches spécifiques et exécuter de manière stable pendant 2 à 3 jours sans intervention humaine, et qu’elle qualifie « l’auto-évolution » comme l’événement le plus crucial pour le développement de l’AGI au cours de la prochaine année.

Quelles ajustements concrets Xiaomi a-t-elle effectués sur le mix de puissance de calcul, et quelle est la logique derrière ?

D’après les révélations de Luo Fuli dans l’interview, le mix de puissance de calcul de Xiaomi est passé de Pre-train:Post-train:Inference = 3:5:1, couramment utilisé dans l’industrie, à 3:1:1, ce qui réduit fortement la proportion d’entraînement postérieur ; elle explique que cet ajustement découle de l’amélioration de l’efficacité de l’entraînement postérieur après la maturité de la stratégie Agent RL Scaling, ainsi que des besoins des scénarios de déploiement d’Agent en capacités de réponse immédiate côté inférence.

Quel est le classement en open source de MiMo-V2-Flash, et comment se présente sa performance en vitesse ?

D’après l’annonce officielle publiée par Xiaomi le 19 mars 2026, MiMo-V2-Flash, déjà open source, occupe la deuxième place du classement mondial des modèles open source ; sa vitesse d’inférence est 3 fois celle de DeepSeek-V3.2, et le taux d’achèvement des tâches de l’édition phare MiMo-V2-Pro est de 81 %.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

DeFi United atteint $300M Avec Consensys, engagement de 30K ETH par Lubin

## Consensys et Joseph Lubin s’engagent à verser 30 000 ETH à DeFi United Lundi, le studio de développement Ethereum Consensys et le fondateur Joseph Lubin ont annoncé conjointement une contribution de 30 000 ETH à DeFi United, un effort coordonné visant à couvrir les pertes liées à l’exploitation du Kelp DAO, selon l’annonce d’Aave sur

CryptoFrontierIl y a 1h

Alphea lance une blockchain Layer 1 native de l’IA avec une exécution par agent autonome

Message de Gate News, 27 avril — Alphea, une plateforme blockchain Layer 1 nouvellement dévoilée, conçue pour l’infrastructure IA, a officiellement présenté son environnement d’exécution décentralisé au Hong Kong Web3 Festival 2026. La plateforme intègre l’exécution, la mémoire persistante et le calcul vérifiable comme fonctionnalités fondamentales au niveau de la blockchain plutôt que comme des composants optionnels de la couche applicative, permettant aux agents IA autonomes de fonctionner indépendamment.

GateNewsIl y a 2h

Gate organise une table ronde Space sur le trading avec l’IA le 28 avril : explorer l’IA comme moteur du prochain cycle Web3

Message d’actualités Gate, 27 avril — Gate organisera une table ronde en direct sur Space consacrée au Trading avec l’IA le 28 avril à 20h, réunissant des experts du secteur pour explorer si l’intégration approfondie de l’IA dans les flux de travail de trading marque le véritable point de départ du prochain cycle Web3. La discussion examinera A

GateNewsIl y a 5h

Ant Group lance Ling-2.6-1T : modèle à billion de paramètres optimisé pour l’exécution des tâches avec une efficacité élevée en jetons

Message de Gate News, 27 avril — Ant Group's inclusionAI a publié Ling-2.6-1T, un nouveau modèle phare d’instruction de l’ordre du billion de paramètres dans la série Ling. Contrairement aux modèles de raisonnement à longue chaîne, Ling-2.6-1T utilise un mécanisme « Fast-Thinking » conçu pour exécuter les tâches avec précision en consommant un nombre minimal de jetons

GateNewsIl y a 6h

L’API Nansen prend désormais en charge le protocole MPP de Tempo, permettant aux agents IA de payer par appel

Message de Gate News, 27 avril — L’API Nansen prend désormais en charge le protocole Machine Payments Protocol (MPP), une norme pour des paiements autonomes de machine à machine soutenus par Tempo et Stripe. L’intégration permet aux agents IA de payer directement depuis leurs portefeuilles, sur une base par appel. La fonctionnalité fonctionne en parallèle avec

GateNewsIl y a 6h
Commentaire
0/400
Aucun commentaire