Leiter für das Xiaomi-Großmodell: Der KI-Wettbewerb verlagert sich in die Ära der Agenten; Selbstentwicklung ist ein entscheidendes Ereignis für AGI

AI自進化

Der Leiter des Teams für das Xiaomi-Großmodell, Luofeili, absolvierte am 24. April auf der Bilibili-Plattform ein ausführliches Interview (Videonummer: BV1iVoVBgERD). Die Interviewdauer betrug 3,5 Stunden; es war das erste Mal, dass sie als technische Verantwortliche erstmals öffentlich ihre technischen Standpunkte systematisch darlegte. Luofeili sagte, dass der Wettbewerbspfad von Large Models vom Chat-Zeitalter in das Agent-Zeitalter übergegangen sei, und wies darauf hin, dass „Selbstentwicklung“ das wichtigste Ereignis für AGI in den kommenden zwölf Monaten sein werde.

Vom Chat-Zeitalter zum Agent-Zeitalter: Zentrale technische Einschätzungen

小米大模型團隊負責人羅福莉訪談

(Quelle: Bilibili)

Laut den Aussagen von Luofeili im Bilibili-Interview nannte sie, dass sich der Schwerpunkt des Wettbewerbs um Large Models im Jahr 2026 von der allgemeinen Dialog-Qualität hin zu der Fähigkeit verlagern wird, bei komplexen Aufgaben fortlaufend autonom zu handeln. In dem Interview sagte sie, dass derzeit führende Modelle in bestimmten Aufgaben bereits in der Lage seien, sich autonom zu optimieren, und diese stabil für 2 bis 3 Tage ausführten, ohne dass ein menschliches Eingreifen zur Anpassung erforderlich sei. Im Interview betonte sie außerdem, dass der Durchbruch bei der Fähigkeit zur „Selbstentwicklung“ bedeute, dass KI-Systeme beginnen, über Selbstkorrektur-Fähigkeiten zu verfügen; sie nannte dabei explizit die technische Roadmap von Anthropic sowie technische Variablen wie Claude Opus 4.6, die sich auf das gesamte KI-Ökosystem auswirken.

Anpassung der Rechenleistungs-Quote von Xiaomi und Bewertung der Pre-train-Generationslücke

Laut den in dem Interview offengelegten Informationen von Luofeili hat Xiaomi seine Strategie zur Aufteilung der Rechenleistung bereits erheblich angepasst. Sie erklärte, dass die in der Branche übliche Rechenleistungs-Quote Pre-train:Post-train:Inference = 3:5:1 sei, während die aktuelle Strategie von Xiaomi auf 3:1:1 angepasst wurde. Damit wurde der Anteil am Post-Training stark komprimiert; zugleich wurden die Ressourceninvestitionen in der Inferenzphase deutlich erhöht.

Im Interview erläuterte sie, dass diese Veränderung auf die Reife der Agent-RL-Scaling-Strategie zurückzuführen sei, wodurch das Post-Training nicht mehr den Aufbau großer Mengen an Rechenleistung erfordere. Die Erhöhung der Ressourcen auf der Inferenzseite spiegele die Anforderungen von Agenten an Szenarien zur Umsetzung wider, insbesondere an die Fähigkeit zu sofortiger Reaktion.

Bezüglich des Problems der Pre-train-Generationslücke bei inländischen Large Models sagte Luofeili im Interview, dass diese Lücke sich von den vergangenen 3 Jahren inzwischen auf einige Monate verkürzt habe; der Schwerpunkt der aktuellen Strategie bewege sich hin zu Agent RL Scaling. Der berufliche Werdegang von Luofeili umfasst das Alibaba DAMO Institute, Huanfang Quantitative und DeepSeek (DeepSeek-V2, Kernentwickler). Im November 2025 trat sie Xiaomi bei.

MiMo-V2-Serien-Spezifikationen und Open-Source-Ranglisten

Laut dem MiMo-V2-Serienankündigungspost, den Xiaomi offiziell am 19. März 2026 veröffentlicht hat, wurden diesmal drei Modelle auf einmal veröffentlicht:

MiMo-V2-Pro:Milliarden Gesamtparameter, Aktivierungsparameter 42B, Architektur mit gemischter Attention, Unterstützung für Million-Context, Aufgabenabschlussrate 81%

MiMo-V2-Omni:Agent-Szenarien für alle Modalitäten

MiMo-V2-TTS:Sprachsynthese-Szenarien

Laut der Ankündigung belegt das bereits veröffentlichte Open-Source-Modell MiMo-V2-Flash in der globalen Open-Source-Modell-Rangliste den zweiten Platz; die Inferenzgeschwindigkeit erreicht das 3-Fache von DeepSeek-V3.2.

Häufige Fragen

Wie definiert Luofeili „Selbstentwicklung“, und warum hält sie dies für das entscheidendste Ereignis für AGI?

Laut den Interviewaussagen von Luofeili vom 24. April 2026 auf Bilibili (BV1iVoVBgERD) erklärte sie im Interview, dass derzeit führende Modelle in spezifischen Aufgaben in der Lage seien, sich autonom zu optimieren und stabil 2 bis 3 Tage lang auszuführen, ohne dass ein Eingreifen durch Menschen erforderlich sei. Außerdem stuft sie „Selbstentwicklung“ als das entscheidendste Ereignis für die Entwicklung von AGI im kommenden Jahr ein.

Welche konkreten Anpassungen hat Xiaomi bei der Rechenleistungs-Quote vorgenommen, und was ist der zugrunde liegende Logik?

Basierend auf den Angaben von Luofeili im Interview wurde die Rechenleistungs-Quote von Xiaomi von der in der Branche üblichen Pre-train:Post-train:Inference = 3:5:1 auf 3:1:1 angepasst, wodurch der Anteil am Post-Training stark komprimiert wurde. Sie erklärte, dass diese Anpassung aus der Reife der Agent-RL-Scaling-Strategie resultiere: eine Steigerung der Effizienz beim Post-Training sowie die Anforderungen von Agenten in den umgesetzten Szenarien an die Fähigkeit zur Echtzeit-Reaktionsfähigkeit an der Inferenzseite.

Wie schneiden Open-Source-Rangliste und Geschwindigkeitsleistung von MiMo-V2-Flash aus?

Laut der offiziellen Ankündigung von Xiaomi, die am 19. März 2026 veröffentlicht wurde, belegt das bereits Open-Source veröffentlichte MiMo-V2-Flash in der globalen Open-Source-Modell-Rangliste den zweiten Platz. Die Inferenzgeschwindigkeit liegt bei dem 3-Fachen von DeepSeek-V3.2; die Aufgabenabschlussrate der Flaggschiff-Version MiMo-V2-Pro beträgt 81%.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Gemini startet agentisches Trading für KI-gestütztes automatisiertes Trading

Die Krypto-Börse Gemini hat Agentic Trading eingeführt und markiert damit das erste Mal, dass eine regulierte US-Börse eine direkte KI-Agenten-Integration für automatisierten Handel angeboten hat. Die Plattform ermöglicht es Nutzern, Claude, ChatGPT und andere KI-Modelle zu verbinden, um Handelsstrategien zu automatisieren – von einfachen Orders bis hin zu

CryptoFrontier4Std her

Consensys, Joseph Lubin steuern 30.000 ETH zu DeFi United bei

Consensys und der Mitgründer von Ethereum, Joseph Lubin, haben bestätigt, dass sie 30.000 ETH zur DeFi United beitragen werden, einer koordinierten Hilfsaktion zur Behebung von Verlusten aus dem Kelp-DAO-Exploit. Laut der Ankündigung von Aave am Montag stellt dies eines der größten Angebote im Rahmen der laufenden Initiative dar, whic

CryptoFrontier5Std her

Alphea bringt eine KI-native Layer-1-Blockchain mit autonomer Agentenausführung an den Start

Gate News Nachricht, 27. April — Alphea, eine neu vorgestellte Layer-1-Blockchain-Plattform, die für KI-Infrastruktur entwickelt wurde, hat auf dem Hong Kong Web3 Festival 2026 offiziell ihre dezentrale Ausführungsumgebung präsentiert. Die Plattform integriert Ausführung, Persistenter Speicher und nachweisbare Berechnung als

GateNews6Std her

Gate veranstaltet am 28. April ein Space-Roundtable zu KI-Trading: KI als Treiber des nächsten Web3-Zyklus erforschen

Gate News, 27. April — Gate wird am 28. April um 20:00 Uhr eine Live-Space-Roundtable-Diskussion zum Thema KI-Trading veranstalten und damit Branchenexperten zusammenbringen, um zu untersuchen, ob die tiefgreifende Integration von KI in die Handels-Workflows den eigentlichen Startpunkt des nächsten Web3-Zyklus markiert. Die Diskussion wird A

GateNews10Std her

Ant Group veröffentlicht Ling-2.6-1T: Billionen-Parameter-Modell optimiert für token-effiziente Aufgabenausführung

Gate News-Meldung, 27. April — Ant Groups inclusionAI hat Ling-2.6-1T veröffentlicht, ein neues Flaggschiff-Instruct-Modell mit einer Billion Parametern in der Ling-Reihe. Im Gegensatz zu Modellen für Long-Chain-Reasoning verwendet Ling-2.6-1T einen Mechanismus namens „Fast-Thinking“, der für präzise Aufgabenausführung mit minimalem Tokenverbrauch entwickelt wurde

GateNews10Std her

Nansen-API unterstützt jetzt Tempos MPP-Protokoll und ermöglicht KI-Agenten, pro Abruf zu bezahlen

Gate-News-Mitteilung, 27. April — Die Nansen-API unterstützt jetzt das Machine Payments Protocol (MPP), einen Standard für autonome Zahlungen von Maschine zu Maschine, der von Tempo und Stripe abgesichert wird. Die Integration ermöglicht es KI-Agenten, pro Abruf direkt aus ihren Wallets zu bezahlen. Die Funktion arbeitet neben

GateNews11Std her
Kommentieren
0/400
Keine Kommentare