ARM

Prix Arm Holdings

ARM
€202,18
+€2,12(+1,05 %)

*Données dernièrement actualisées : 2026-04-27 11:39 (UTC+8)

Au 2026-04-27 11:39, Arm Holdings (ARM) est coté à €202,18, avec une capitalisation boursière totale de €213,01B, un ratio cours/bénéfices (P/E) de 141,57 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €200,39 et €203,62. Le prix actuel est de 0,89 % au-dessus du plus bas de la journée et de 0,70 % en dessous du plus haut de la journée, avec un volume de trading de 20,48M. Au cours des 52 dernières semaines, ARM a évolué entre €85,43 et €203,62, et le prix actuel est à -0,70 % de son plus haut sur 52 semaines.

Statistiques clés de ARM

Clôture d’hier€174,78
Capitalisation du marché€213,01B
Volume20,48M
Ratio P/E141,57
Rendement des dividendes (TTM)0,00 %
BPA dilué (TTM)0,75
Revenu net (exercice fiscal)€676,52M
Revenus (exercice annuel)€3,42B
Date de gains2026-05-06
Estimation BPS0,58
Estimation des revenus€1,25B
Actions en circulation1,21B
Bêta (1 an)3.338

À propos de ARM

Arm Holdings plc conçoit, développe et licence des produits de processeurs centraux et des technologies associées pour les entreprises de semi-conducteurs et les fabricants d'équipements d'origine qui s'appuient sur ces produits pour développer leurs propres solutions. Elle propose des microprocesseurs, des propriétés intellectuelles (PI) pour systèmes, des unités de traitement graphique, des PI physiques et des PI systèmes associés, des logiciels, des outils et d'autres services connexes. Ses produits sont utilisés dans divers marchés tels que l'automobile, l'infrastructure informatique, les technologies grand public et l'Internet des objets. La société opère aux États-Unis, en République populaire de Chine, à Taïwan, en Corée du Sud et à l'international. Fondée en 1990, elle a son siège à Cambridge, au Royaume-Uni. Arm Holdings plc est une filiale de Kronos II LLC.
SecteurTechnologie
IndustrieSemi-conducteurs
PDGRene Anthony Andrada Haas
Siège socialCambridge,None,GB
Site officielhttps://www.arm.com
Effectifs (exercice annuel)8,33K
Revenu moyen (1 an)€410,89K
Revenu net par employé€81,21K

FAQ de Arm Holdings (ARM)

Quel est le cours de l'action Arm Holdings (ARM) aujourd'hui ?

x
Arm Holdings (ARM) s’échange actuellement à €202,18, avec une variation sur 24 h de +1,05 %. La fourchette de cotation sur 52 semaines est de €85,43 à €203,62.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Arm Holdings (ARM) ?

x

Quel est le ratio cours/bénéfice (P/E) de Arm Holdings (ARM) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de Arm Holdings (ARM) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Arm Holdings (ARM) ?

x

Faut-il acheter ou vendre Arm Holdings (ARM) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action Arm Holdings (ARM) ?

x

Comment acheter l'action Arm Holdings (ARM) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

Arm Holdings (ARM) Dernières Actualités

2026-04-25 02:41

Meta déploiera des millions de puces AWS Graviton pour des charges de travail IA

Message de Gate News, 25 avril — Amazon a annoncé le 24 avril que Meta utilisera des millions de puces AWS Graviton pour des charges de travail IA, marquant une victoire client significative pour les processeurs ARM conçus en interne par AWS. Les puces seront utilisées pour l’inférence IA et l’informatique générale plutôt que l’entraînement du modèle. L’accord s’étend sur plusieurs années et représente plusieurs milliards de dollars, Meta prévoyant de déployer des dizaines de millions de cœurs de processeur Graviton5. L’annonce intervient après le partenariat cloud de six ans de Meta avec Google Cloud, d’une valeur de US$10 billion, aux États-Unis, en août 2025, même si l’entreprise continue de maintenir des relations avec AWS et Microsoft Azure. Ce mouvement reflète des changements plus larges dans l’industrie, alors qu’Amazon développe son activité de puces IA sur mesure. En avril, Anthropic s’est engagé à dépenser US$100 billion sur plus de 10 ans pour des charges de travail AWS axées sur des puces personnalisées, poussant Amazon à investir un US$5 billion supplémentaire dans la startup.

2026-04-15 06:36

La carte de développement N1 pour PC à base de puce ARM de NVIDIA apparaît, entrée sur le marché imminente

Message de Gate News, 15 avril — La carte de développement N1 d'NVIDIA, un système sur puce (SoC) basé sur Arm pour les PC sous Windows, co-développée avec MediaTek depuis la fin 2024, a fait son apparition sur une plateforme chinoise de revente d'occasion. La carte est équipée de modules de mémoire SK Hynix LPDDR5X et est proposée au prix de 9,999 yuans (environ $1,370). On pense que les puces N1/N1X sont des dérivés du GB10 utilisé dans le poste de travail IA DGX Spark d'NVIDIA, avec des fréquences d'horloge, une bande passante mémoire et le nombre de cœurs ajustés pour des environnements d'ordinateur portable. N1X intègre 10 cœurs de processeur Arm Cortex-X925 hautes performances, 10 cœurs Cortex-A725 économes en énergie et des cœurs GPU Blackwell, dans le but d'améliorer les capacités de jeu et de création de contenu sur des ordinateurs portables Windows à base d'Arm. Le PDG d'NVIDIA, Jensen Huang, a mentionné pour la première fois la puce N1 en septembre dernier, lors d'une annonce conjointe avec Intel, indiquant qu'elle serait utilisée dans DGX Spark et des produits similaires. La puce devrait être officiellement dévoilée pendant la GTC 2026, qui se tiendra en parallèle avec Computex Taipei du 1er au 4 juin. Lenovo et Dell seraient en train de préparer des lancements de produits connexes.

2026-04-10 06:31

SK Telecom avec Arm et Rebellions développent une solution d’inférence pour centres de données d’IA

Nouvelles de Gate News : le 10 avril, SK Telecom a annoncé avoir signé un protocole d’accord (MOU) tripartite avec la société britannique de conception de puces Arm et la start-up sud-coréenne de puces IA Rebellions, afin de développer ensemble des solutions de serveurs d’inférence pour des centres de données d’IA. Selon l’accord, les trois parties combineront le nouvel AGI CPU d’Arm et la puce d’accélération IA RebelCard, que Rebellions devrait lancer au troisième trimestre de cette année, pour développer conjointement des serveurs d’inférence IA, et effectueront des tests et une validation dans les centres de données d’IA de SK Telecom. Parmi elles, l’AGI CPU d’Arm est optimisé pour les environnements d’inférence à haute densité et les déploiements IA à grande échelle, tandis que RebelCard est conçu spécifiquement pour l’inférence IA à grande échelle.

2026-03-25 08:05

L'intermédiaire le plus sûr de l'industrie des puces a emprunté le chemin le plus dangereux

40 milliards de dollars et 150 milliards de dollars, ce n'est pas une courbe de croissance qui les sépare, mais une auto-révolution du modèle commercial. Le 24 mars, Arm a présenté à San Francisco son premier CPU de centre de données conçu en interne en 35 ans d'histoire. Cette puce, nommée AGI CPU, équipée de 136 cœurs Neoverse V3, fabriquée en TSMC en process 3 nm, avec une TDP de 300W, a pour premier client Meta, qui prévoit un déploiement massif dans l'année. La société a également annoncé des collaborations avec OpenAI, Cerebras, Cloudflare, SAP et SK Telecom. Rene Haas, PDG d'Arm, a donné lors de la conférence une série d'objectifs financiers : d'ici 2031, le chiffre d'affaires de la division des puces doit atteindre 15 milliards de dollars par an, avec un chiffre d'affaires total de l'entreprise de 25 milliards de dollars, et un bénéfice par action de 9 dollars. Que signifient ces chiffres ? Arm, pour l'exercice fiscal 2025 (jusqu'en mars 2025), prévoit un chiffre d'affaires total de 4,007 milliards de dollars, selon ses rapports annuels, dont 1,839 milliard de dollars en revenus de licences et 2,168 milliards en royalties, avec une marge brute de 97 %. En d'autres termes, une entreprise réalisant 40 milliards de dollars de revenus annuels doit, en cinq ans, atteindre une échelle proche de celle du département data center d'Intel, uniquement grâce à une nouvelle activité. Selon le rapport financier d'Intel pour le Q4 2024, le département Data Center et AI (DCAI) a généré 12,8 milliards de dollars de revenus pour l'année. ![](https://img-cdn.gateio.im/social/moments-b28ad97cef-f349f58fa5-8b7abd-ceda62) De 40 à 150 milliards, un saut de 3,7 fois, derrière ce changement se cache la tentative d'Arm de passer d'une simple société d'autorisation IP à un hybride vendant à la fois des designs et des produits finis. Cela n'a pas d'équivalent dans l'industrie des puces. Pourquoi Arm prend-il ce risque ? La réponse se trouve dans sa liste de clients. Au cours des trois dernières années, les principaux clients d'Arm dans le domaine des data centers ont tous fait la même chose. Selon des données publiques d'AWS, Amazon a migré plus de 50 % de sa puissance EC2 vers ses propres puces Graviton, dont la dernière, Graviton5, compte 192 cœurs. Google Cloud a révélé que ses puces Axion ont déjà supporté la migration de plus de 30 000 applications internes, avec une amélioration de l'efficacité énergétique de 80 %. Microsoft, avec Cobalt 200, basé également sur l'architecture Neoverse d'Arm, fabriqué en TSMC en process 3 nm, dispose de 132 cœurs. ![](https://img-cdn.gateio.im/social/moments-c5de4f78e1-d55712aa2b-8b7abd-ceda62) Ces fournisseurs de cloud utilisent tous l'architecture d'Arm sous licence, mais conçoivent, fabriquent et déploient eux-mêmes leurs puces. Arm perçoit des frais de licence et des royalties, mais pas de profit sur les puces elles-mêmes. À mesure que ces puces auto-conçues absorbent une part croissante de la puissance de calcul, le plafond de revenus d'Arm dans les data centers devient de plus en plus évident. En analysant la structure des revenus d'Arm sur les quatre dernières années, le profil de ce plafond devient plus clair. Selon ses rapports financiers, de FY2022 à FY2025, le chiffre d'affaires total de l'entreprise passera de 2,7 milliards à 4 milliards de dollars, avec une croissance annuelle d'environ 14 %. Les revenus de royalties passeront de 1,562 milliard à 2,168 milliards, et ceux des licences de 1,141 milliard à 1,839 milliard. La croissance des royalties, qui avait ralenti ces dernières années, atteindra environ 20 %, principalement grâce à la mise à niveau vers l'architecture Armv9 sur mobile, et non dans les data centers. ![](https://img-cdn.gateio.im/social/moments-bc18c9e7b5-cd622fbbbf-8b7abd-ceda62) En extrapolant cette croissance à environ 20 % par an pour les licences et royalties, d'ici 2031, le chiffre d'affaires ne pourra atteindre qu'environ 10 milliards de dollars. Les 150 milliards restants devront provenir d'une activité encore inexistante aujourd'hui. C'est cette logique arithmétique qui pousse Arm à fabriquer ses propres puces. Choisir de fabriquer ses propres puces revient à entrer en concurrence avec ses clients. Une entreprise qui vend des plans d'architecture commence à construire ses propres bâtiments, alors que ses acheteurs ont déjà construit depuis plusieurs années. C'est le véritable contexte derrière le CPU AGI à 136 cœurs. Selon The Register, cette puce a une fréquence de base de 3,2 GHz, pouvant atteindre 3,7 GHz, avec 12 canaux de mémoire DDR5, chaque cœur disposant de 6 Go/s de bande passante, 96 voies PCIe 6.0, et supportant CXL 3.0. Arm la positionne comme « la base de puissance pour l'ère du cloud AI agentic », ciblant les tâches de planification CPU et la gestion du flux de données dans l'inférence AI, sans chercher à concurrencer directement les GPU. Le rythme de changement de parts de marché en dit long. Selon Omdia, d'ici 2025, environ 21 % des serveurs dans le monde utiliseront l'architecture Arm, avec une croissance de 70 %. Mais dans les data centers à très grande échelle, cette part approche déjà 50 %. La domination de 40 ans de l'x86 n'est pas en train de s'effondrer, mais d'être remplacée, puce par puce. Le risque d'Arm en développant ses propres puces ne réside pas dans la technique, mais dans la relation. La volonté de Meta d'être le premier client s'explique en partie par le fait que Meta ne dispose pas de projets de puces auto-conçues aussi matures qu'Amazon ou Google. Mais comment Amazon, Google ou Microsoft perçoivent-ils cette démarche ? Lorsqu'un fournisseur commence à vous concurrencer sur votre propre marché, allez-vous continuer à lui confier l'autorisation de votre architecture la plus stratégique ? Le pari d'Arm est que la croissance globale du marché des data centers dépasse la détérioration de ses relations clients. Rene Haas croit fermement que la demande en CPU dans l'ère de l'IA sera suffisamment forte pour que la fabrication interne de puces et l'autorisation d'architectures coexistent. L'objectif de 15 milliards de dollars est une évaluation de cette conviction. 35 ans à vendre des plans, la première fois à construire ses propres bâtiments. Les plans continuent d'être vendus, les bâtiments aussi, mais il faut voir si le terrain peut accueillir tout le monde. Cliquez pour découvrir les opportunités chez BlockBeats. **Rejoignez la communauté officielle de BlockBeats :** Groupe Telegram abonnés : https://t.me/theblockbeats Groupe Telegram général : https://t.me/BlockBeats_App Compte officiel Twitter : https://twitter.com/BlockBeatsAsia

Publications populaires sur Arm Holdings (ARM)

LittleFishFlyToTheS

LittleFishFlyToTheS

Il y a 12 heures
Nvidia part de marché en forte baisse, où se trouvent les opportunités dans la nouvelle phase de la révolution IA ? C’est le neuvième article de la série « 100 articles sur l’investissement en IA ». Les précédents articles ont examiné Intel, AMD, ARM. Leurs cours ont tous connu une croissance significative au cours de la dernière année — AMD a doublé, Intel a triplé, ARM a également atteint des sommets historiques. Après cette hausse, une question simple se pose : Est-ce qu’on peut encore conserver ces actions déjà montantes ? Y a-t-il encore des opportunités dans celles qui n’ont pas encore augmenté ? Pour répondre à cette question, un mot-clé incontournable est — le raisonnement. Dans l’analyse de ces entreprises, ces deux mots reviennent sans cesse. Alors : quelle est l’ampleur du marché du raisonnement ? À quel stade en est-on actuellement ? Quelles entreprises en bénéficieront ? Quelles sont déjà évaluées par le marché, et lesquelles ne le sont pas ? C’est le neuvième article de la série « 100 articles sur l’investissement en IA », d’environ 15 000 mots, riche en contenu mais facile à lire. Il est conseillé de le sauvegarder d’abord, puis de le lire. 1. Quelle est la taille du marché ? L’entraînement des modèles consiste à « écrire des programmes », le raisonnement est « le processus par lequel ce programme est appelé chaque jour ». Après l’entraînement de GPT, des centaines de millions de personnes l’interrogent quotidiennement, chaque question consommant de la puissance de calcul pour le raisonnement. Claude Code exécute une tâche, un agent tourne en boucle une centaine de fois, chaque boucle étant un raisonnement. Plusieurs études sectorielles et médias convergent vers une même idée : après la mise en production des modèles, le raisonnement deviendra la majeure partie du coût du cycle de vie, avec une estimation courante entre 80 et 90 %. Autrement dit, dans la facture de puissance de calcul de l’ère IA à venir, 8 euros sur 10 seront consacrés au raisonnement. Mais, au cours des trois dernières années, le marché a presque exclusivement discuté de l’entraînement, car c’est une histoire plus « sexy » — qui parle de qui possède le plus de H100, de qui a le plus de paramètres, ou de qui a entraîné le premier le modèle de nouvelle génération. Le raisonnement était considéré comme une étape secondaire, une fois l’entraînement terminé. Ce biais de perception est en train d’être corrigé, et c’est précisément la raison fondamentale pour laquelle ces entreprises de semi-conducteurs ont été réévaluées au cours de la dernière année. Alors, le marché du raisonnement est grand, mais quelle en est réellement l’ampleur ? On peut l’estimer selon cinq angles. Premier : le nombre d’utilisateurs. ChatGPT compte 900 millions d’utilisateurs actifs hebdomadaires, 50 millions payants. La comparaison avec la Chine est plus directe — le volume d’appels de tokens quotidiens est passé de 100 milliards début 2024 à 140 000 milliards en 2026, soit une multiplication par 1400. Ce secteur n’est pas encore saturé. Deuxième : l’intensité d’utilisation. La quantité de tokens traités par OpenAI était encore de 6 milliards par minute en octobre 2025, elle est passée à 15 milliards en avril 2026 — en six mois, une multiplication par 2,5. Les revenus de la version entreprise représentent plus de 40 %, et l’intensité d’utilisation des utilisateurs professionnels est plusieurs dizaines de fois supérieure à celle des consommateurs. Troisième : la longueur des dialogues. La longueur du contexte est passée de quelques centaines de tokens dans les premières versions à 1 million dans la documentation API V4 Pro / Flash de DeepSeek, avec une sortie maximale de 384 000. Plus le contexte est long, plus la consommation de mémoire et de puissance pour le raisonnement est élevée. Quatrième : la puissance de calcul nécessaire pour le modèle lui-même augmente. Les modèles de raisonnement comme OpenAI o1, DeepSeek R1, Claude Thinking, avant de répondre, « réfléchissent » en interne sur plusieurs milliers, voire dizaines de milliers de tokens. Jensen Huang a mentionné, en prenant DeepSeek R1 en exemple, que le raisonnement pourrait nécessiter une puissance de calcul bien plus grande, jusqu’à cent fois plus. Autrefois, vous posiez une question à l’IA, elle donnait directement la réponse ; maintenant, pour une question complexe, l’IA doit d’abord réfléchir une demi-minute avant de répondre. Ce « temps de réflexion » supplémentaire correspond à une consommation accrue de puissance. Cinquième : les agents. Une tâche d’agent nécessite généralement 10 à 100 appels au modèle. Le nombre d’utilisateurs actifs hebdomadaires de Codex d’OpenAI a dépassé 4 millions (au 22 avril 2026) — ce n’est qu’un produit d’une seule entreprise. Selon un expert de la chaîne de valeur IA, la consommation totale de puissance pour une intelligence artificielle autonome pourrait dépasser de plus de 10 fois celle d’un grand modèle de langage à paramètres équivalents. En multipliant ces cinq facteurs, la demande totale de raisonnement pourrait connaître une expansion de plusieurs ordres de grandeur en trois à cinq ans. Ce n’est pas une exagération, mais une tendance de plus en plus majoritaire. « Où se trouvent les opportunités dans la nouvelle phase de la révolution IA, alors que la part de marché de Nvidia en raisonnement diminue fortement ? »
1
0
0
0
LittleFishFlyToTheS

LittleFishFlyToTheS

Il y a 21 heures
« Nvidia份额只剩48%,推理大时代机会在哪? » Ceci est le neuvième article de la série AI Investment Research en 100 articles, 20 000 mots, il est conseillé de le sauvegarder d’abord, peu de gens pourront le finir. Les premiers articles ont porté sur Intel, AMD, ARM. Leurs cours en bourse ont tous connu une forte hausse l’année dernière — AMD a doublé, Intel a triplé, ARM a aussi atteint un sommet historique. Après cette hausse, une question simple est apparue : peut-on encore tenir ces actions qui ont déjà augmenté ? Y a-t-il encore des opportunités dans celles qui n’ont pas encore monté ? Pour répondre à cette question, un mot-clé incontournable est — le raisonnement. Dans l’analyse précédente, ces deux mots revenaient fréquemment lorsque l’on parlait de la montée de ces entreprises. Alors : quelle est l’ampleur du secteur du raisonnement ? À quel stade en est-on actuellement ? Quelles entreprises en bénéficieront ? Quelles sont déjà valorisées par le marché, lesquelles ne le sont pas ? C’est une compréhension essentielle à avoir en premier. 1. Quelle est la taille du secteur L’entraînement de modèles est « écrire un programme », le raisonnement est « le processus par lequel ce programme est appelé chaque jour ». Après l’entraînement de GPT, des centaines de millions de personnes lui posent des questions chaque jour, chaque interaction consomme de la puissance de calcul pour le raisonnement. Claude Code exécute une tâche, un agent tourne en boucle 100 fois, chaque boucle étant un raisonnement. De nombreuses études sectorielles et médias convergent vers une même idée : après la mise en production des modèles, le raisonnement deviendra la majeure partie du coût du cycle de vie, avec une estimation courante entre 80 et 90 %. Autrement dit, dans la facture de puissance de calcul de l’ère de l’IA à venir, 8 euros sur 10 seront consacrés au raisonnement. Mais ces trois dernières années, le marché a presque exclusivement discuté de l’entraînement, car c’est une histoire plus « sexy » — combien de H100, combien de paramètres, qui entraîne la prochaine génération de modèles en premier. Le raisonnement était considéré comme une étape secondaire après l’entraînement. Ce biais cognitif est en train d’être corrigé, et c’est la raison fondamentale pour laquelle ces semi-conducteurs ont été réévalués au cours de la dernière année. Mais quelle est réellement la taille du secteur du raisonnement ? On peut l’estimer selon 5 angles précis. Premier : le nombre d’utilisateurs. ChatGPT a 900 millions d’utilisateurs actifs hebdomadaires, 50 millions payants. La comparaison en Chine est plus directe — le volume d’appels par token par jour est passé de 100 milliards début 2024 à 140 trillions en 2026, soit une multiplication par 1400. Ce secteur n’est pas du tout saturé. Deuxième : l’intensité d’utilisation. Le volume de tokens traités par OpenAI était de 6 milliards par minute en octobre 2025, il est passé à 15 milliards en avril 2026 — en six mois, multiplié par 2,5. Plus de 40 % des revenus proviennent de la version entreprise, et l’utilisation par les entreprises est plusieurs dizaines de fois plus intense que celle des consommateurs. Troisième : la longueur des dialogues. La longueur du contexte est passée de quelques centaines de tokens dans les premiers temps à 1 million dans la documentation API de DeepSeek V4 Pro / Flash, avec une sortie maximale de 384 000. Plus le contexte est long, plus la consommation de mémoire et de puissance pour un seul raisonnement est élevée. Quatrième : la puissance de calcul nécessaire pour le modèle lui-même augmente. Les modèles de raisonnement comme OpenAI o1, DeepSeek R1, Claude Thinking, avant de répondre, doivent d’abord « réfléchir » en interne sur plusieurs milliers voire dizaines de milliers de tokens. Jensen Huang a mentionné, en prenant DeepSeek R1 comme exemple, que le raisonnement pourrait nécessiter une charge de calcul bien plus grande, jusqu’à cent fois plus. Autrefois, poser une question à l’IA lui faisait obtenir une réponse immédiate ; aujourd’hui, pour une question complexe, l’IA doit d’abord « réfléchir » une demi-minute avant de répondre. Ce « temps de réflexion » supplémentaire correspond à une consommation accrue de puissance. Cinquième : les agents. Une tâche d’agent nécessite généralement 10 à 100 appels au modèle. Le volume hebdomadaire d’OpenAI Codex dépasse déjà 3 millions — ce n’est qu’un produit parmi d’autres d’une seule entreprise. Selon un expert de la chaîne de valeur IA, la consommation totale de puissance des agents intelligents pourrait dépasser de plus de 10 fois celle des grands modèles de langage de même taille. En multipliant ces cinq facteurs, la demande totale en raisonnement pourrait connaître une expansion de plusieurs ordres de grandeur en trois à cinq ans, ce qui n’est pas une exagération mais une tendance de plus en plus majoritaire. En économie, il existe un vieux phénomène appelé le paradoxe de Jevons — lorsque l’efficacité d’utilisation d’un bien s’améliore, la consommation totale augmente en réalité, car le coût baisse, ce qui incite à plus d’usages. Après l’amélioration de l’efficacité de la machine à vapeur, la consommation de charbon en Angleterre a explosé ; après la baisse du prix du token de raisonnement, le nombre d’appels à l’IA a augmenté de façon exponentielle. C’est le même scénario. Selon l’IEA, la consommation électrique mondiale des centres de données passera de 1,5 % de la consommation totale en 2024 à près du double, soit 945 TWh en 2030 — à peu près la consommation annuelle combinée de l’Allemagne et de la France. De plus, les actions concrètes dans l’industrie renforcent cette thèse : Anthropic voit son ARR passer de 1 milliard de dollars fin 2024 à 30 milliards début 2026 — en 14 mois, multiplié par 30. Pour soutenir cette croissance, la société a réservé plus de 11 GW de puissance de calcul fin 2025 à début 2026, incluant une commande de TPU pour 21 milliards de dollars auprès de Broadcom. OpenAI a déjà promis de déployer 10 GW de puces sur mesure. Google a relevé son objectif de livraison de TPU à 6 millions d’unités en 2026, soit une hausse de 50 %. Les dépenses en capital des fournisseurs de cloud sont également très révélatrices. Google prévoit un investissement de 175 à 185 milliards de dollars en 2026, presque le double de 2025 ; Amazon investira 200 milliards de dollars ; Meta prévoit une augmentation de 65 %, atteignant 118 milliards. Au total, les huit principaux fournisseurs de cloud dépenseront plus de 600 milliards de dollars en 2026, soit une croissance annuelle de 40 %. En rassemblant tout cela, la conclusion est simple : la courbe de demande en raisonnement pour l’IA dépasse déjà la capacité d’approvisionnement de tout fournisseur de matériel. C’est la réalité fondamentale du secteur du raisonnement : à l’époque de l’entraînement, on « crée un dieu » ; à l’ère du raisonnement, ce dieu est appelé par des centaines de millions de personnes chaque jour, chaque agent l’utilise 100 fois, chaque fois pour réfléchir sur des dizaines de milliers de tokens. La transition de l’un à l’autre ne se traduit pas par une augmentation linéaire de la consommation, mais par une croissance exponentielle. 2. Quelles actions bénéficieront ? Un secteur vaste ne signifie pas que toutes les entreprises en profiteront, et la domination exclusive de Nvidia commence à s’éroder ! En 2026, la part de marché mondiale des puces d’inférence IA de Nvidia sera d’environ 48,2 %, AMD représentera environ 16,7 %, le camp ASIC totalisera environ 18,5 % (dont Google TPU à 7,8 %, AWS Inferentia à 5,2 %, autres ASIC à 5,5 %), et les puces d’origine nationale représenteront 16,6 %. Nvidia conserve plus de 80 % de parts dans le marché de l’entraînement, mais dans celui de l’inférence, elle ne détient plus que moins de la moitié, à 48,2 %. Pourquoi ce changement ? À l’époque de l’entraînement, Nvidia s’appuyait sur sa force globale — GPU haute performance + interconnexion NVLink + écosystème CUDA. Cette combinaison permettait de dominer le marché de l’entraînement.
0
0
0
0