Tout le monde se concentre sur la bataille des puces GPU, mais les initiés savent que le véritable goulot d'étranglement ne se trouve pas dans les puces, mais dans le Puissance de calcul.
La situation est claire : les GPU de Nvidia sont désormais les leaders, tandis qu'AMD et Broadcom aident les entreprises à concevoir des puces sur mesure. Mais avec le passage de l'IA de l'entraînement (coût unique) à la phase d'inférence (coût continu), celui qui pourra réduire la consommation d'énergie et les coûts sera le gagnant.
Les avantages d'Alphabet sont ici : plus de dix ans de recherche et développement sur les TPU (processeurs de tensors), déjà à la 7e génération, spécialement optimisés pour son framework TensorFlow et Google Cloud. La clé est que les TPU consomment beaucoup moins d'énergie que les GPU. Avec l'explosion de la demande en inférence, cette différence de consommation d'énergie apportera un avantage de coût considérable.
Une méthode encore plus agressive : Alphabet ne vend pas de TPU, mais l'utilise uniquement comme un atout pour Google Cloud. Ainsi, si les utilisateurs souhaitent utiliser des TPU, ils doivent passer par Google Cloud, permettant à Alphabet de gagner de l'argent sur deux fronts : vendre de la puissance de calcul et réduire les coûts en exécutant son modèle Gemini avec ses propres puces.
En comparaison, alors qu'OpenAI et Perplexity continuent de brûler de l'argent avec des GPU, l'intégration verticale d'Alphabet (puce + plateforme cloud + grand modèle + outils d'IA + réseau de fibres optiques) constitue déjà une super forteresse. Même Nvidia s'inquiète – il paraît qu'après avoir entendu qu'OpenAI teste des TPU, Nvidia a rapidement investi dans OpenAI pour limiter les pertes.
Ligne de base : Ce n'est pas une course aux puces, c'est une compétition pour voir quel système est le plus économique. Dans cette optique, la position d'Alphabet est assez solide.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La vérité sur la guerre des puces AI : le coût de la puissance de calcul est la clé, qui rira en dernier ?
Tout le monde se concentre sur la bataille des puces GPU, mais les initiés savent que le véritable goulot d'étranglement ne se trouve pas dans les puces, mais dans le Puissance de calcul.
La situation est claire : les GPU de Nvidia sont désormais les leaders, tandis qu'AMD et Broadcom aident les entreprises à concevoir des puces sur mesure. Mais avec le passage de l'IA de l'entraînement (coût unique) à la phase d'inférence (coût continu), celui qui pourra réduire la consommation d'énergie et les coûts sera le gagnant.
Les avantages d'Alphabet sont ici : plus de dix ans de recherche et développement sur les TPU (processeurs de tensors), déjà à la 7e génération, spécialement optimisés pour son framework TensorFlow et Google Cloud. La clé est que les TPU consomment beaucoup moins d'énergie que les GPU. Avec l'explosion de la demande en inférence, cette différence de consommation d'énergie apportera un avantage de coût considérable.
Une méthode encore plus agressive : Alphabet ne vend pas de TPU, mais l'utilise uniquement comme un atout pour Google Cloud. Ainsi, si les utilisateurs souhaitent utiliser des TPU, ils doivent passer par Google Cloud, permettant à Alphabet de gagner de l'argent sur deux fronts : vendre de la puissance de calcul et réduire les coûts en exécutant son modèle Gemini avec ses propres puces.
En comparaison, alors qu'OpenAI et Perplexity continuent de brûler de l'argent avec des GPU, l'intégration verticale d'Alphabet (puce + plateforme cloud + grand modèle + outils d'IA + réseau de fibres optiques) constitue déjà une super forteresse. Même Nvidia s'inquiète – il paraît qu'après avoir entendu qu'OpenAI teste des TPU, Nvidia a rapidement investi dans OpenAI pour limiter les pertes.
Ligne de base : Ce n'est pas une course aux puces, c'est une compétition pour voir quel système est le plus économique. Dans cette optique, la position d'Alphabet est assez solide.