Gate News Nachrichten, am 25. März veröffentlichte Cursor den technischen Bericht zu Composer 2 und enthüllte erstmals den vollständigen Trainingsplan. Das Basismodell Kimi K2.5 verwendet eine MoE-Architektur, mit insgesamt 1,04 Billionen Parametern und 32 Milliarden aktivierten Parametern. Das Training erfolgt in zwei Phasen: Zunächst eine Fortsetzung des Pre-Trainings auf Code-Daten zur Verstärkung des Kodierungswissens, dann eine groß angelegte Verstärkungslernen-Phase zur Verbesserung der End-to-End-Kodierungsfähigkeiten. Die RL-Umgebung simuliert vollständig reale Cursor-Anwendungsszenarien, einschließlich Dateibearbeitung, Terminaloperationen, Code-Suche und Tool-Aufrufe, sodass das Modell unter nahezu produktionsähnlichen Bedingungen lernt. Der Bericht enthält auch die Methodik zur Erstellung des selbstentwickelten Benchmarks CursorBench: Es werden Aufgaben aus echten Codierungssitzungen des Engineering-Teams gesammelt, anstatt sie künstlich zu konstruieren. Das Basismodell Kimi K2.5 erzielte auf diesem Benchmark eine Punktzahl von 36,0. Nach dem zweistufigen Training erreichte Composer 2 eine Punktzahl von 61,3, eine Steigerung um 70 %. Cursor gibt an, dass die Inferenzkosten deutlich niedriger sind als bei einem führenden großen Modell-API, und so ein Pareto-Optimum zwischen Genauigkeit und Kosten erreicht wird.