Les trois couches de la bulle AI qui éclatent : les applications emballées en premier, la consolidation des modèles, seule l’infrastructure conserve une valeur à long terme. Les entreprises doivent approfondir leurs flux de travail et leurs canaux pour survivre. Cet article est une traduction, compilation et synthèse d’un texte de Val Bercovici, long de WEKA AI, par 动区.
(Précédent : J’ai passé une semaine au CES : que de la foutaise déguisée en AI)
(Contexte supplémentaire : Les 25 idées les plus folles du CES 2026, c’est ici)
Table des matières
C’est la question que tout le monde se pose : Sommes-nous en plein dans la bulle AI ? Mais c’est poser la mauvaise question. La vraie question est : dans quelle bulle AI sommes-nous, et quand éclateront-elles toutes ?
Le débat sur le fait que l’IA soit une technologie de transformation ou une bombe à retardement économique est devenu brûlant. Même des leaders technologiques comme Mark Zuckerberg, PDG de Meta, reconnaissent des signes indiquant qu’un bubble spéculatif se forme autour de l’IA. Sam Altman, CEO d’OpenAI, et Bill Gates, co-fondateur de Microsoft, voient aussi des dynamiques de bulle évidentes :
Investisseurs surexcités, valorisations artificiellement gonflées, projets voués à l’échec — mais ils croient tous que l’IA finira par transformer l’économie.
Cependant, considérer « l’IA » comme une seule entité vouée à l’effondrement est fondamentalement trompeur. L’écosystème IA se divise en trois couches très distinctes, chacune avec ses modèles économiques, ses résistances et ses risques. Comprendre ces couches est crucial, car elles ne se briseront pas simultanément.
Les maillons les plus fragiles ne sont pas dans le développement de l’IA, mais dans sa « recondition » ou « emballage ».
Ces sociétés se connectent à l’API d’OpenAI, ajoutent une interface soignée et quelques techniques de prompting, puis facturent 49 dollars par mois pour un produit essentiellement « ChatGPT en version améliorée ». Certaines ont connu un succès rapide, comme Jasper.ai, qui a emballé GPT pour les marketeurs avec une interface conviviale, atteignant environ 42 millions de dollars de revenus récurrents annuels dès la première année.
Mais des fissures apparaissent. Ces entreprises font face à des menaces multiples :
Fonctionnalité intégrée : Microsoft pourra intégrer votre outil d’écriture AI dans Office 365 dès demain. Google pourrait faire de votre assistant email AI une fonction gratuite de Gmail. Salesforce pourrait intégrer votre outil de vente AI directement dans leur CRM. Quand de grandes plateformes considèrent votre produit comme une « fonctionnalité » plutôt qu’un « produit indépendant », votre modèle d’affaires peut disparaître du jour au lendemain.
Piège de la banalisation : Les sociétés en coquille ne font que transmettre des entrées et sorties. Si OpenAI améliore le prompting, la valeur de ces outils diminue immédiatement. Avec la convergence des modèles fondamentaux vers une capacité similaire et la baisse continue des prix, la marge se réduit à zéro.
Coût de transfert nul : La majorité de ces sociétés ne possèdent pas de données propriétaires, de workflows intégrés ou d’intégration profonde. Les clients peuvent changer de fournisseur en quelques minutes ou utiliser directement ChatGPT. Il n’y a pas de barrière à l’entrée, pas d’effet de verrouillage, ni de défense.
Le marché des « AI en marque blanche » illustre cette vulnérabilité. Les entreprises utilisant ces plateformes blanches risquent des dépendances fournisseurs et des limitations API qui entravent l’intégration. Ces sociétés sont bâties sur un terrain loué, que le propriétaire peut changer à tout moment.
Exception : Cursor est une rareté, une véritable société en coquille avec une défense solide. En s’intégrant profondément dans le flux de travail des développeurs, en créant des fonctionnalités propriétaires dépassant la simple API, et en bâtissant un puissant effet de réseau via les habitudes et la personnalisation, Cursor montre comment un outil en coquille peut évoluer vers un produit plus substantiel. Mais de telles sociétés sont rares ; la majorité manque de cette intégration avancée et de cette fidélité utilisateur.
Les entreprises qui développent de grands modèles de langage (LLM) : OpenAI, Anthropic, Mistral, occupent une position plus défensive mais toujours instable.
L’économiste Richard Bernstein, prenant OpenAI en exemple, indique la dynamique de bulle : la société a réalisé environ 1 000 milliards de dollars de transactions AI (incluant 500 milliards de dollars d’infrastructures data), mais ses revenus ne seraient que de 13 milliards de dollars. Bernstein souligne que l’écart entre investissements et gains raisonnables « semble vraiment rempli de bulle ».
Mais ces sociétés disposent d’un vrai avantage technologique : expertise en entraînement de modèles, accès à la puissance de calcul, et performance. La question est de savoir si ces avantages sont durables ou si la banalisation des modèles les réduira à des outils d’infrastructure à faible marge.
La technique déterminera le gagnant : à mesure que les modèles fondamentaux convergent en capacité, l’avantage compétitif viendra de l’« optimisation de l’inférence » et de l’ingénierie système. Les entreprises capables d’exploiter des architectures de cache étendues (Extended KV cache architectures), de dépasser la limite de mémoire, d’obtenir un débit de tokens élevé et de réduire le délai de réponse initiale, pourront obtenir des primes et des parts de marché.
Les gagnants ne seront pas seulement ceux qui ont entraîné les plus gros modèles, mais ceux qui rendent l’inférence AI économiquement viable à grande échelle. Les avancées en gestion de mémoire, stratégies de cache et efficacité de l’infrastructure détermineront quels laboratoires pourront survivre à la vague de consolidation.
Une autre inquiétude concerne la « cyclicité » des investissements. Par exemple, Nvidia investit dans OpenAI pour financer ses data centers, qui à leur tour achètent des puces Nvidia avec cet argent. Nvidia subventionne ainsi l’un de ses plus grands clients, ce qui pourrait artificiellement gonfler la demande réelle d’IA.
Néanmoins, ces sociétés disposent de fonds importants, de compétences technologiques réelles, et de partenariats stratégiques avec les principaux fournisseurs cloud et entreprises. Certaines seront fusionnées, d’autres rachetées, mais cette catégorie perdurera.
Voici une perspective contre-intuitive : la couche infrastructure — Nvidia, centres de données, fournisseurs cloud, systèmes de mémoire et stockage optimisé pour l’IA — est la partie la moins sujette à la bulle dans la frénésie AI.
Oui, les estimations récentes indiquent qu’en 2025, les dépenses mondiales en capital AI et en capital-risque dépasseront 600 milliards de dollars, Gartner estime que toutes les dépenses AI mondiales pourraient dépasser 1,5 trillion de dollars. Cela ressemble à une bulle.
Mais l’infrastructure possède une caractéristique clé : quelle que soit l’application qui finira par réussir, elle conservera de la valeur. Les câbles en fibre déployés lors de la bulle dot-com n’ont pas été gaspillés ; ils ont permis l’émergence de YouTube, Netflix, et du cloud computing.
Il y a vingt-cinq ans, la bulle internet initiale a éclaté après la construction de câbles en fibre optique financés par la dette, mais le futur est finalement arrivé, et l’infrastructure est là, prête à supporter la succès.
Malgré la pression sur les prix, Nvidia a réalisé environ 57 milliards de dollars de revenus au troisième trimestre fiscal 2025, en hausse de 22 % trimestre sur trimestre et de 62 % sur un an, avec environ 51 milliards de dollars issus du secteur data center. Ce ne sont pas des indicateurs de vanité ; ils traduisent une demande réelle pour des investissements fondamentaux.
Les puces, centres de données, systèmes de mémoire et architectures de stockage construits aujourd’hui soutiendront toute application AI réussie à l’avenir, qu’il s’agisse des chatbots actuels, des agents autonomes de demain, ou d’applications encore inimaginables. Contrairement à une banalisation du stockage, l’architecture moderne AI couvre toute la hiérarchie mémoire — du HBM des GPU, à la DRAM, jusqu’aux systèmes de stockage haute performance pour l’inférence. Cette intégration mémoire et stockage représente une innovation architecturale fondamentale, pas une simple course à la commodité.
Le boom actuel de l’IA ne se terminera pas par un effondrement spectaculaire. Au contraire, on assistera à une série d’échecs en chaîne, commençant par les plus vulnérables, avec des signaux d’alerte déjà visibles.
Première étape : sociétés en coquille et entreprises en marque blanche subissent une compression des marges et une intégration des fonctionnalités. Des centaines de startups AI sans différenciation fermeront ou seront vendues à bas prix. Plus de 1 300 startups AI ont une valorisation supérieure à 100 millions de dollars, dont 498 « licornes » valorisées à plus d’un milliard, beaucoup ne pourront justifier ces valorisations.
Deuxième étape : avec la convergence des performances, les modèles fondamentaux seront consolidés, seuls les acteurs les plus riches survivront. On prévoit 3 à 5 grandes acquisitions par des géants technologiques pour absorber des sociétés de modèles prometteurs.
Troisième étape : les dépenses en infrastructure reviendront à la normale, mais resteront élevées. Certaines data centers seront inoccupés pendant plusieurs années (comme en 2002 avec la fibre), mais à mesure que la charge de travail AI s’étendra réellement, ils seront remplis.
Le plus grand risque n’est pas de « devenir » une société en coquille, mais de « rester » en coquille. Si vous maîtrisez l’expérience utilisateur, vous détenez l’utilisateur. Si vous développez au niveau applicatif, vous devez rapidement monter en gamme :
Il est temps d’arrêter de se demander si nous sommes dans « cette » bulle AI. Nous sommes dans plusieurs bulles, avec des caractéristiques et des échéances différentes.
Les sociétés en coquille éclateront en premier, peut-être dans 18 mois. Les modèles fondamentaux seront consolidés dans 2 à 4 ans. Je prévois que les investissements dans l’infrastructure de base finiront par être justifiés à long terme, malgré quelques douleurs de surcapacité à court terme.
Ce n’est pas une raison d’être pessimiste, mais un plan d’action. Comprendre dans quelle couche vous vous trouvez, et dans quelle bulle vous pourriez être entraîné, fait la différence entre devenir une victime et bâtir une entreprise capable de traverser la tempête.
La révolution AI est réelle. Mais toutes les entreprises qui surfent sur la vague ne parviendront pas à l’autre rive.