Une entreprise chinoise d'IA, comment « copier le devoir de Claude Code » ?

Source : Geek Park

Rédigé par : Hualin Wuwang

Si quelqu’un m’avait dit il y a quelques jours que l’entreprise Anthropic, réputée « accorder le plus d’importance à la sécurité de l’IA », allait divulguer deux fois, en une semaine, deux fois de suite des secrets techniques au niveau du cœur du système, je pense que j’aurais eu l’impression que c’était une blague de poisson d’avril.

Mais c’est précisément arrivé la veille du jour des poissons d’avril.

Le 31 mars, le chercheur en sécurité Chaofan Shou a découvert qu’au sein de la version 2.1.88 de Claude Code publiée par Anthropic sur npm, il y avait un fichier source map de 59,8 Mo. Ce fichier, qui devait servir au débogage interne, pointe vers un paquet zip situé dans le propre bucket de stockage Cloudflare R2 d’Anthropic — il contient l’intégralité du code source TypeScript de Claude Code, soit environ 1 900 fichiers, 512 000 lignes de code.

En l’espace de quelques heures, plusieurs dépôts miroirs apparaissent sur GitHub. L’un d’entre eux, un projet nommé « claw-code », a décroché 50 000 étoiles en deux heures, devenant le dépôt ayant gagné le plus rapidement en étoiles dans l’histoire de GitHub. Le nombre de forks dépasse 41 500.

Et exactement cinq jours plus tôt, Anthropic venait tout juste de divulguer l’existence du modèle de prochaine génération « Mythos », à cause d’un cache de données public non protégé — un nouveau modèle que, en interne, on décrivait comme une « amélioration par paliers de capacité », et qui, en termes de capacités en cybersécurité, « dépasse toutes les IA modèles existants ».

Deux divulgations par semaine. Une entreprise qui parle de sécurité, mais se fait prendre la main à cause de ses propres problèmes de sécurité. L’évaluation de la communauté des développeurs est plutôt unanime — « une satire qui n’est pas crédible ».

Mais qu’on parle de satire ou non, ce qui a fuité, c’est du concret. Le problème le plus important, maintenant, est le suivant : pour une entreprise d’IA, comment utiliser cette « fuite » afin de copier le travail ?

01 Que contient la « coque » de Claude Code ?

Beaucoup de gens ont d’abord pensé : Claude Code, ce n’est pas juste un outil en ligne de commande qui entoure l’API d’un modèle ? Si le code source fuit, et alors ? Sans poids de modèle, ces codes ne sont qu’une « coque ».

Ce jugement est juste à moitié. Claude Code est bien une coque, mais une coque d’une précision surprenante.

Voyons d’abord le système d’outils. Claude Code adopte une architecture similaire à celle des plugins : chaque capacité — lecture/écriture de fichiers, exécution de shell, extraction de pages web, intégration LSP — est un module d’outil indépendant, avec contrôle des permissions. Rien qu’au niveau de la définition des outils, il y a 29 000 lignes de TypeScript.

La description de chaque outil n’est pas une simple phrase : elle est détaillée jusqu’à indiquer au modèle « quand utiliser cet outil, comment l’utiliser, et quel résultat on attend après l’avoir utilisé ». Ces descriptions elles-mêmes constituent une forme de prompt engineering minutieusement ajusté.

Regardons ensuite le système de mémoire. Le code divulgué révèle une architecture en trois couches de « mémoire auto-réparatrice ». La couche la plus basse est MEMORY.md, un fichier index léger : environ 150 caractères par ligne, chargé en permanence dans le contexte. Les connaissances projet sont réparties dans des « fichiers thématiques », chargés à la demande. Les enregistrements de conversation d’origine ne sont jamais relus intégralement dans le contexte ; ils ne sont recherchés que lorsqu’il le faut, via grep, pour retrouver des identifiants spécifiques.

Autrement dit, le problème central que les ingénieurs d’Anthropic ont passé beaucoup de temps à résoudre n’est pas « comment appeler une API », mais « comment, dans une fenêtre de contexte limitée, faire travailler le modèle de la manière la plus intelligente possible ».

Et puis il y a ce qui enthousiasme tout le monde : KAIROS.

Cette fonctionnalité, nommée d’après le grec ancien « le moment opportun », est mentionnée plus de 150 fois dans le code source. C’est un mode de processus de garde autonome, permettant à Claude Code de fonctionner en tant qu’agent de type always-on en arrière-plan. Le plus intéressant encore est sa logique « autoDream » : lorsque l’utilisateur est inactif, l’agent effectue une « intégration de la mémoire » — il fusionne des observations éparses, élimine les contradictions logiques, et transforme des intuitions floues en faits déterministes.

En d’autres termes, Anthropic est en train de faire évoluer l’assistant de programmation IA : d’un outil de type « tu me poses une question, je te réponds » vers un collaborateur qui « comprend en continu ton projet et découvre activement des problèmes ».

En plus, le code divulgué inclut 44 drapeaux de fonctionnalité (feature flag) non encore mis en ligne, couvrant des modes de coordination multi-agents (COORDINATOR MODE), l’interaction vocale (VOICE_MODE), des sessions de planification à distance de 30 minutes (ULTRAPLAN), et même un animal de compagnie de terminal style « chibi/otaku » (BUDDY), avec 18 espèces et des niveaux de rareté.

Deux autres détails méritent d’être mentionnés. Le premier est « frustration regex » — une expression régulière destinée à détecter si l’utilisateur insulte Claude. Utiliser des expressions régulières pour détecter l’état émotionnel de l’utilisateur est bien plus rapide et bien moins coûteux que de le juger par inférence à l’aide du modèle.

L’autre est « undercover mode » : Anthropic utilise Claude Code pour faire des « contributions invisibles » à des projets open source publics ; les instructions du système précisent clairement : « Vous exécutez en UNDERCOVER MODE… Vos informations de commit ne doivent contenir aucune information interne d’Anthropic. Ne divulguez pas votre identité. »

02 Quelles leçons une entreprise d’IA en Chine peut-elle en tirer

Revenons maintenant à la vraie question importante.

Au cours de la dernière année, la filière des outils d’IA pour la programmation en Chine a clairement accéléré. Trae de ByteDance a déjà évolué : de MarsCode au départ, vers un IDE natif d’IA, intégrant un mode Agent, capable d’automatiser l’ensemble du parcours, de la compréhension des besoins à l’écriture du code puis jusqu’aux tests. CodeGeeX de Zhipu ouvre son code source et se déploie localement, avec des optimisations poussées pour la compréhension du code chinois. Les autres, comme Tongyi Lingma et Doubao MarsCode, itèrent aussi rapidement.

Mais si l’on compare ces produits à l’architecture divulguée de Claude Code, l’écart ne se situe pas dans la question « peut-on l’utiliser ou non », mais dans la finesse d’ingénierie.

Première leçon : la description des outils, c’est de la valeur produit.

C’est peut-être le point le plus facile à négliger, mais aussi le plus utile à apprendre.

La description prompt de chaque outil dans Claude Code a été ajustée avec une finesse extrême — quand l’utiliser, quand ne pas l’utiliser, comment traiter les résultats une fois l’outil utilisé, comment retenter en cas d’erreur. En essence, ces descriptions apprennent au modèle « comment faire un bon programmeur ».

Dans beaucoup d’outils en Chine, l’implémentation du tool use reste encore à l’étape « donner au modèle une signature de fonction, puis le laisser deviner comment l’utiliser ». Rien qu’en élevant l’écriture des descriptions d’outils au niveau de Claude Code, on peut améliorer d’un cran la performance du même modèle.

Deuxième leçon : l’architecture de la mémoire, affectant l’expérience utilisateur plus que les paramètres du modèle.

Le système de mémoire en trois couches de Claude Code résout un problème très concret : la fenêtre de contexte du modèle est limitée, vous ne pouvez pas tout entasser de l’historique de conversation dedans.

La manière d’Anthropic consiste à répartir la mémoire par couches : les données chaudes restent en ligne, les données tièdes sont chargées à la demande, et les données froides ne servent qu’à l’index. Cette idée n’est pas nouvelle ; mais, dans les outils de programmation par IA, côté ingénierie, les équipes en Chine n’ont pour la plupart pas encore atteint ce niveau de finesse.

Troisième leçon : la détection des émotions n’est pas de la magie, c’est un problème d’ingénierie.

Utiliser une expression régulière pour détecter si l’utilisateur s’énerve, puis ajuster la stratégie de réponse.

Ce schéma est simple et direct, mais extrêmement utile. Il vous apprend une leçon : un bon produit d’IA n’a pas besoin de résoudre chaque problème avec un modèle ; parfois, un simple regex suffit.

Les équipes qui font des outils d’IA en Chine tombent souvent dans l’inertie de pensée selon laquelle « tous les problèmes doivent être confiés au grand modèle ». C’est un gaspillage.

Quatrième leçon : la direction pointée par KAIROS est plus importante que KAIROS lui-même.

Un agent de garde always-on qui, quand l’utilisateur ne s’en sert pas, organise la mémoire et découvre des problèmes.

Cette direction produit implique que l’étape suivante des assistants de programmation par IA n’est pas « répondre plus vite aux questions », mais « travailler déjà pendant que vous n’avez pas posé de questions ».

À l’heure actuelle, presque tous les outils d’IA de programmation en Chine sont réactifs : l’utilisateur donne une instruction, l’outil exécute.

Celui qui mettra en premier en place le mode de processus de garde définira potentiellement la prochaine forme de produit.

03 Où se situe la limite du « copier »

Bien sûr, il existe une ligne entre apprendre et plagier.

Sur le plan légal, ce n’est pas du code open source : il s’agit d’un logiciel commercial divulgué accidentellement. Construire directement un produit à partir du code divulgué comporte un risque de droits d’auteur clairement établi. Sur GitHub, « claw-code » affirme vouloir réécrire en Rust, mais si la logique centrale est copiée, la frontière juridique reste floue.

Pour les entreprises chinoises, dans un contexte où la pression à l’export augmente, ce risque doit être évalué sérieusement.

Sur le plan technique, de nombreuses décisions de conception de Claude Code sont profondément personnalisées pour les capacités du modèle Claude. Par exemple, si ses descriptions d’outils sont si longues et si détaillées, c’est parce que Claude a une capacité de long contexte suffisamment forte pour ne pas « décrocher » à cause de prompts système trop longs. Si on reprend la même stratégie de prompt avec un modèle à fenêtre de contexte courte et à une faible obéissance aux instructions, le résultat peut être contre-productif.

La vraie façon intelligente n’est pas de forker ces 510 000 lignes de code, mais de comprendre chaque compromis (tradeoff) derrière chaque décision de conception, puis de réimplémenter en fonction des caractéristiques de votre propre modèle.

Vous pouvez apprendre les idées d’architecture, apprendre le mode d’orchestration des outils, apprendre la stratégie de segmentation de la mémoire — mais l’implémentation doit être la vôtre.

Il y a aussi une réalité facile à ignorer : Anthropic a divulgué une « capture », tandis que leur équipe d’ingénierie itère tous les jours. Les 44 feature flags signifient qu’au moins une douzaine de grandes fonctionnalités sont en file d’attente pour être mises en ligne.

Le code que vous fork aujourd’hui sera une version obsolète le mois prochain. En courant après la copie, vous ne rattraperez jamais ; en comprenant le principe, vous pourrez tracer votre propre route.

L’intérêt majeur de cette fuite tient peut-être moins aux détails techniques qu’au fait qu’elle retire une couche de mystère : au final, l’outil d’IA de programmation le plus central d’Anthropic, à la base, n’est rien d’autre qu’une orchestration de prompts soigneusement conçue, plus une ordonnancement d’outils industrialisé par l’ingénierie.

Pas de magie noire, seulement un travail considérable de raffinement des détails.

Pour les entreprises d’IA en Chine, c’est en réalité une bonne nouvelle. Cela signifie que l’écart est comblable. À condition que vous ayez la patience de peaufiner ces détails — plutôt que d’avoir envie de prendre le code de quelqu’un, de le renommer, puis de prétendre que c’est tout.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler