Всі звертають увагу на битви за GPU-чіпи, але в індустрії знають — справжнє обмеження зовсім не в чіпах, а в Обчислювальна потужність.
Стан справ дуже зрозумілий: GPU Nvidia зараз займає лідируючу позицію, AMD та Broadcom допомагають компаніям створювати власні чіпи. Але з переходом AI з навчання (однократні витрати) до етапу висновку (постійні витрати), хто зможе знизити споживання енергії та витрати, той і виграє.
Переваги Alphabet тут: понад десять років власної розробки TPU (тензорних процесорів), вже сьомого покоління, спеціально оптимізованих для власного фреймворку TensorFlow та Google Cloud. Ключовим є те, що TPU значно економніші в енергоспоживанні, ніж GPU. Оскільки попит на інференцію зростає експоненціально, ця різниця в енергоспоживанні принесе величезні витратні переваги.
Ще жорсткіший крок: Alphabet не продає TPU, а лише надає його в рамках Google Cloud. Таким чином, користувачам, які хочуть використовувати TPU, доведеться звертатися до Google Cloud, і Alphabet одночасно заробляє на двох речах – продаючи Обчислювальну потужність та знижуючи витрати на свій власний чіп для запуску моделі Gemini.
У порівнянні з OpenAI та Perplexity, які досі витрачають гроші на GPU, вертикальна інтеграція Alphabet (чіпи + хмарна платформа + великі моделі + AI інструменти + оптоволоконні мережі) вже є суперзахисним муром. Навіть Nvidia занепокоїлася — чутки, що OpenAI тестує TPU, змусили Nvidia терміново інвестувати в OpenAI, щоб зупинити кровотечу.
Мінімум: Це не змагання чіпів, а змагання, чия система є найдешевшою. З цієї точки зору позиція Alphabet досить стабільна.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Істина війни чіпів штучного інтелекту: обчислювальна потужність є ключовою, хто сміятиметься останнім?
Всі звертають увагу на битви за GPU-чіпи, але в індустрії знають — справжнє обмеження зовсім не в чіпах, а в Обчислювальна потужність.
Стан справ дуже зрозумілий: GPU Nvidia зараз займає лідируючу позицію, AMD та Broadcom допомагають компаніям створювати власні чіпи. Але з переходом AI з навчання (однократні витрати) до етапу висновку (постійні витрати), хто зможе знизити споживання енергії та витрати, той і виграє.
Переваги Alphabet тут: понад десять років власної розробки TPU (тензорних процесорів), вже сьомого покоління, спеціально оптимізованих для власного фреймворку TensorFlow та Google Cloud. Ключовим є те, що TPU значно економніші в енергоспоживанні, ніж GPU. Оскільки попит на інференцію зростає експоненціально, ця різниця в енергоспоживанні принесе величезні витратні переваги.
Ще жорсткіший крок: Alphabet не продає TPU, а лише надає його в рамках Google Cloud. Таким чином, користувачам, які хочуть використовувати TPU, доведеться звертатися до Google Cloud, і Alphabet одночасно заробляє на двох речах – продаючи Обчислювальну потужність та знижуючи витрати на свій власний чіп для запуску моделі Gemini.
У порівнянні з OpenAI та Perplexity, які досі витрачають гроші на GPU, вертикальна інтеграція Alphabet (чіпи + хмарна платформа + великі моделі + AI інструменти + оптоволоконні мережі) вже є суперзахисним муром. Навіть Nvidia занепокоїлася — чутки, що OpenAI тестує TPU, змусили Nvidia терміново інвестувати в OpenAI, щоб зупинити кровотечу.
Мінімум: Це не змагання чіпів, а змагання, чия система є найдешевшою. З цієї точки зору позиція Alphabet досить стабільна.