DeepSeek cette arme est déjà pressée contre la nuque de Silicon Valley

DeepSeek V4 publié quelques jours après, la fermentation continue à Silicon Valley, ce qui a également suscité plusieurs discussions plus aiguës : efficacité des modèles, configuration des puces, moment de l’IPO, pression de l’open source sur le fermé.

Le 29 avril, une vidéo blog de Silicon Valley 101, avec le architecte de puces Xiao Zhibin et l’ancien chercheur d’OpenAI Jenny Xiao, ont discuté pendant plus d’une heure, en dévoilant complètement l’affaire.

Dépassé par l’open source, votre valeur commerciale devient nulle

La phrase la plus dure de l’entretien est un concept proposé par Jenny l’année dernière — ligne de mort (kill line), la ligne de mort tracée par les modèles open source pour les entreprises de modèles propriétaires.

“Si vous êtes une entreprise de modèles fondamentaux et que vous êtes dépassé par l’open source, la valeur de votre entreprise est essentiellement nulle.”

Si vous êtes une entreprise de modèles fondamentaux, dépassé par l’open source, votre valeur commerciale tombe à zéro.

Ce n’est pas une compétition technique, c’est une ligne de vie ou de mort.

Jenny a pris l’exemple d’Anthropic : si un jour Claude ne devient plus le meilleur modèle de programmation, qui utilisera encore Claude Code ?

Suivant cette logique, le 24 avril, lors de la sortie de DeepSeek V4, toutes les actions et valorisations des entreprises de modèles fermés à Silicon Valley ont été confrontées à une question cruciale : Votre modèle, le vendez-vous encore à ce prix ?

Le prix parle de façon la plus directe :

GPT-5.5 coûte deux fois plus cher que GPT-5.4, la version Pro de texte long à 180 dollars par million de tokens.

Le même jour, DeepSeek V4 a été lancé. Avec une entrée à 1 yuan par million de tokens, la sortie coûte 24 yuan par million de tokens. La version Flash est encore plus radicale : entrée à 0,2 yuan par million de tokens, sortie à 2 yuan par million de tokens.

L’un coûte deux fois plus cher, l’autre dix fois moins cher.

La valorisation des entreprises de modèles fondamentaux est binaire — Votre raison d’être est d’être le plus puissant. Si vous n’êtes plus le plus puissant, la valorisation tombe à zéro. Même si vous vous appelez OpenAI.

Trop d’argent, ça ne fait pas économiser

Jenny a dévoilé une vérité que Silicon Valley n’ose pas affronter :

“Les entreprises de Silicon Valley ont trop d’argent, elles n’ont même plus la motivation d’optimiser l’efficacité. Les fabricants de modèles chinois, sous la contrainte des ressources, innovent plus tôt en matière d’efficacité des tokens.”

Les contraintes de ressources deviennent en fait un accélérateur d’innovation.

Depuis le premier jour, OpenAI croit en “move fast, break things”, achetant à volonté des GPU, construisant frénétiquement l’infrastructure. Anthropic, au contraire, se retient, craignant que ses revenus ne suivent pas, que le coût d’achat ne la fasse mourir.

Résultat ? Avec des revenus équivalents, l’efficacité du capital d’Anthropic est nettement supérieure à celle d’OpenAI.

Plus problématique encore, OpenAI mène plusieurs fronts : matériel, développement de puces, application d’achat, alors que l’expérience principale de ChatGPT n’est pas encore optimale. Depuis la fin de l’année dernière, plusieurs projets secondaires ont été abandonnés, Sora en fait partie.

Les investisseurs ont complètement changé d’état d’esprit. Avant, ils voyaient les entreprises d’IA comme “une croissance exponentielle, continuer à investir”. Maintenant, ils demandent :

Investir encore 1 milliard, 10 milliards, où sont les retours marginaux ? Quel est le ROI ?

DeepSeek donne une réponse très claire : continuer à augmenter le ROI de l’infrastructure n’est peut-être plus rentable.

L’innovation est toujours forcée. La réduction des coûts est en soi une condition préalable à la révolution technologique.

À chaque révolution industrielle, ce qui pousse le changement, ce n’est pas seulement la puissance de la technologie, mais aussi sa faible coût. Ce n’est que lorsqu’elle devient abordable pour le grand public que la technologie peut vraiment changer le monde.

Sans efficacité, l’AGI ne sera qu’une démo

Xiao Zhibin, après avoir lu le papier de V4, pense : “La direction est conforme aux attentes, mais l’achèvement technique est inattendu.”

Toutes les optimisations techniques de V4 visent un même objectif — l’efficacité des tokens.

Il a utilisé trois leviers :

• Optimiseur Muon : certains modules d’entraînement remplacent l’Adam traditionnel, accélérant la convergence

Ces trois éléments convergent vers un même résultat : le coût de génération par token est réduit, la mémoire utilisée lors de chaque inférence est moindre.

Le coût de calcul est réduit à un tiers de celui des modèles de Silicon Valley, la consommation mémoire à un dixième.

Mais ce qui rend V4 vraiment effrayant, ce n’est pas seulement “économiser de l’argent”.

Jenny a répété dans l’entretien : à l’ère des chatbots, la consommation de tokens est limitée, un modèle un peu plus cher peut être toléré par l’utilisateur. Mais l’ère des agents est une toute autre logique — décomposition de longues tâches, appel à plusieurs outils, réflexion et planification répétées, la consommation de tokens est 10 à 100 fois celle d’un chatbot.

Si chaque token coûte cher, le modèle ne pourra pas penser en profondeur sur le long terme, ni servir massivement les utilisateurs.

Elle a donc lancé cette déclaration décisive :

Sans efficacité, l’AGI ne sera qu’une démo. Avec efficacité, l’AGI pourra devenir un vrai produit.

À l’ère des agents, l’efficacité elle-même fait partie de l’intelligence.

Pourquoi Anthropic peut-il dépasser à 1 000 milliards ? Focus > Tout faire

Récemment, la valorisation d’Anthropic a dépassé celle d’OpenAI, atteignant 1 000 milliards de dollars.

Jenny en a listé trois raisons, mais l’essentiel se résume en cinq mots : Focus > Tout faire.

Premier, Claude Code.

Pourquoi Claude Code est-il le “moment décisif” d’Anthropic ?

Le modèle d’Anthropic a toujours été excellent, mais Claude Code est le vrai produit qui génère des revenus. Peter Steinberger, fondateur d’OpenClaw, a écrit un article : « Claude Code, c’est mon ordinateur. »

Une fois que le modèle peut écrire du code, il peut réaliser des tâches universelles — mise à jour du CRM, transfert d’e-mails, automatisation des processus, tout repose sur le code.

Jenny a un jugement acéré : la programmation est la étape la plus cruciale vers l’AGI. Qui maîtrise la programmation, pourrait devenir le leader de l’ère de l’AGI.

Deuxième, confiance des entreprises.

Les clients d’Anthropic, dans leur fond, répètent la même chose : ils choisissent Anthropic parce qu’il y a une promesse de sécurité. Et l’affaire où Anthropic a poursuivi le Pentagone a renforcé ce message.

Troisièmement, ne pas faire d’excès.

OpenAI voulait faire “tout pour tout le monde”, mais cela a dispersé ses efforts, perdant la supériorité technologique. Anthropic se concentre sur trois axes : sécurité, entreprises, programmation.

Les investisseurs de Silicon Valley croient à un principe simple : les revenus des entreprises priment sur ceux de la consommation. Les revenus d’Anthropic, très concentrés dans le secteur B2B, correspondent parfaitement à ce que le marché américain aime.

Nvidia : sécurité à court terme, marché de la déduction à long terme inévitablement divisé

En parlant de puces, tout le monde pense que DeepSeek est en train de “dés-Nvidia-iser” le marché.

Mais la réalité est plus nuancée.

Phase d’entraînement : le pré-entraînement massif de V4 a sans aucun doute été réalisé sur un cluster NVIDIA. La page 16 et 20 du rapport technique de V4 mentionnent le TCGenO5, ainsi que MegaMoE², qui sont tous profondément liés à l’écosystème CUDA.

Phase d’adaptation : Huawei Ascend promeut la “adaptation continue en 0 jour pour l’entraînement et l’inférence”, AMD parle d’“intégration et optimisation sur ROCm”.

Notez un mot clé — “adaptation”.

Cela signifie que le modèle a été entraîné et fixé sur un cluster NVIDIA. Ascend et AMD font simplement du “post-compatibilité” en utilisant leur propre stack logiciel pour “interfacer” ce modèle déjà entraîné. Ce n’est pas une substitution native, mais une compatibilité rétroactive.

De ce point de vue, à court terme, la barrière de protection d’NVIDIA dans l’entraînement est plus profonde que beaucoup ne le pensent. L’écosystème CUDA ne se déplace pas en un ou deux ans.

Mais à long terme ? Le marché de l’inférence commence à se détendre.

Après que V4 a réduit le coût de l’attention sur de longues séquences, la barrière à l’échelle pour l’inférence massive a considérablement diminué. La compétition ne se joue plus seulement sur la puissance brute, mais sur l’architecture adaptée. TPU de Google, AMD, puces auto-développées par les cloud, même la puissance de calcul nationale, cherchent toutes leur chance dans cette voie.

Le signal “80/20” qui fait dormir Silicon Valley

Dans le portefeuille de Jenny, une donnée : 80 % des tâches tournent sur des modèles open source de taille moyenne ou petite. Seules 20 % des tâches les plus complexes utilisent des modèles fermés.

Un an en arrière, personne ne croyait à ce ratio.

Aujourd’hui, Silicon Valley voit chaque jour des infos du genre : “Nous détenons 10 millions de dollars d’actions OpenAI, achetez-vous ou connaissez-vous quelqu’un qui achète ?”

Le 29 avril, lors de la dernière édition de Silicon Valley 101, Jenny a résumé la situation en une phrase :

“DeepSeek, c’est comme un fusil pointé contre le dos des entreprises de modèles à Silicon Valley. Si ces entreprises ne se dépêchent pas, DeepSeek va les rattraper et détruire leur business.”

Ce fusil est déjà chargé.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler