Ark Invest: Поточний стан і майбутнє інфраструктури штучного інтелекту

Джерело: Frank Downing, Ark Invest; Переклад: GoldFinanceClaw

Витрати на інфраструктуру штучного інтелекту вибухово зростають

За три роки з моменту випуску ChatGPT попит на прискорені обчислення стрімко зростає. Річний дохід NVIDIA майже в 8 разів зріс, з 27 мільярдів доларів у 2022 році до 216 мільярдів у 2025 році, і ринок одностайно очікує ще 62% зростання у 2026 році — до 3500 мільярдів доларів. Глобальні інвестиції у системи дата-центрів (включаючи обчислювальне, мережеве та сховище) зросли з середнього рівня 5% на рік за останнє десятиліття до 30% за останні три роки, і очікується, що до 2026 року вони зростуть ще більш ніж на 30%, до 653 мільярдів доларів.

Дослідження ARK показують, що прискорені обчислення, керовані GPU та спеціалізованими інтегральними схемами для AI (ASIC), вже домінують у серверних інвестиціях, складаючи 86% від продажів серверів для обчислень.

Зниження вартості стимулює використання прискорених обчислень

Драйвером постійного зростання витрат на інфраструктуру для запуску моделей AI є розширення застосувань генеративного AI у споживчому та корпоративному сегментах, а також потреба тренувати більш розумні базові моделі у процесі прагнення до “суперінтелекту”.

Швидке зниження вартості ще більше прискорює попит. За нашими дослідженнями, вартість тренування AI знижується на 75% щороку. Вартість виведення (інференсу) зменшується ще швидше — у базових тестах, що відстежуються Artificial Analysis, понад 50% моделей мають середньорічне зниження вартості понад 95%.

Дві сили разом сприяють значному зниженню вартості: по-перше, галузеві лідери, такі як NVIDIA, щороку випускають нові продукти, підвищуючи продуктивність апаратного забезпечення; по-друге, покращення алгоритмів на рівні програмного забезпечення підвищують ефективність тренування та виведення моделей на однаковому обладнанні.

Сильний попит з боку споживачів і бізнесу

Швидкість впровадження AI у споживачів значно випереджає темпи впровадження інтернету у минулому. Рівень поширення AI за три роки досяг приблизно 20%, що у понад двічі швидше за перехід споживачів до інтернету у минулому.

Попит з боку бізнесу також зростає неймовірними темпами. За даними OpenRouter, з грудня 2024 року попит на токени зріс у 28 разів.

За останні два роки AI-лабораторія Anthropic, яка користується найбільшим попитом у корпоративних клієнтів, показала приголомшливе зростання доходів — приблизно у 100 разів: з 100 мільйонів доларів у 2023 році до оцінки 8-10 мільярдів наприкінці 2025 року. У 2026 році зростання продовжується: у лютому компанія оголосила про річний дохід у 14 мільярдів доларів і завершила раунд фінансування на 30 мільярдів доларів, оцінюючись у 380 мільярдів.

OpenAI, що одночасно конкурує на ринках споживачів і бізнесу, також демонструє сильне зростання серед корпоративних клієнтів — станом на листопад 2025 року у компанії вже понад 1 мільйон корпоративних клієнтів. За словами фінансового директора Сара Фріар, доходи від бізнесу OpenAI зростають швидше, ніж у споживчому сегменті, і у 2026 році вони складуть близько 50% від загального доходу компанії. У січні 2026 року Фріар пояснила необхідність додаткових інвестицій у інфраструктуру: за останні три роки доходи OpenAI пропорційно зросли з обсягом обчислювальної потужності.

Фінансування приватного сектору для розвитку AI

Щоб задовольнити високий попит, необхідні масштабні інвестиції в інфраструктуру. За даними Crunchbase, у 2025 році приватне фінансування лабораторій AI перевищило 200 мільярдів доларів, з яких близько 80 мільярдів спрямовано на розробку базових моделей, таких як OpenAI, Anthropic і xAI. На відкритому ринку гіганти хмарних обчислень використовують свої резерви та шукають інші джерела фінансування для підтримки капіталовкладень у AI — у 2026 році ці витрати можуть сягнути 700 мільярдів доларів.

З повідомлень, угода Meta з Blue Owl на 30 мільярдів доларів є найбільшою приватною угодою у світі. Вона створена у формі спільного підприємства, здебільшого за рахунок боргового фінансування, структура спеціальної цільової компанії (SPV) дозволяє уникнути відображення боргів у балансі Meta, що викликало значний резонанс.

AMD та інші виробники стають серйозними конкурентами NVIDIA

За межами фізичних дата-центрів, чіпи для обчислень залишаються ключовим елементом інвестицій у AI. NVIDIA тримає лідерство у прискорених обчисленнях, але тепер найбільші покупці AI-обчислень прагнуть підвищити ефективність кожного долара інвестицій. З моменту придбання ATI Technologies у 2006 році, AMD постійно конкурує з NVIDIA у сегменті споживчого GPU, а з 2017 року, з випуском серії процесорів EPYC, частка AMD у серверних CPU зросла з майже нуля до 40% у 2025 році.

Щодо малих моделей для інференсу, GPU AMD вже порівнянні з NVIDIA за співвідношенням ціна/продуктивність. Враховуючи початкову ціну (капітальні витрати) та операційні витрати протягом терміну служби, AMD демонструє конкурентоспроможність. Бенчмарки SemiAnalysis з InferenceMax оцінюють продуктивність за кількістю токенів, оброблюваних за секунду, а вартість — за щогодинними капітальними та операційними витратами.

Хоча AMD вже “наздоганяє” NVIDIA у малих моделях, у великих моделях NVIDIA залишається значним лідером, що видно на діаграмі.

Решта ринку — рішення Grace Blackwell NVIDIA, що об’єднує 72 GPU (GB200) у мережу, дозволяє працювати як один великий GPU з спільною пам’яттю. Це підсилює можливості інференсу великих моделей, які вимагають розподілу ваг між кількома GPU та більшого обсягу комунікаційної пропускної здатності. Щоб скоротити відставання від Vera Rubin NVIDIA, AMD планує випустити свою версію у другій половині 2026 року. Вже укладені замовлення у Microsoft, Meta, OpenAI, xAI і Oracle.

Гіганти хмарних сервісів ведуть революцію у створенні кастомних чіпів

Крім постачальників комерційних GPU, гіганти хмарних обчислень і AI-лабораторії прагнуть створювати власні чіпи, щоб зменшити залежність від NVIDIA і знизити вартість AI-обчислень. Вже понад десять років Google розробляє власні спеціалізовані чіпи — тензорні процесори (TPU), оптимізовані для роботи з моделями пошуку та генеративним AI у новому поколінні TPU v7. За оцінками SemiAnalysis, внутрішнє використання TPU дозволяє Google знижувати вартість кожного обчислення на 62% порівняно з NVIDIA. Anthropic і Meta використовують TPU для масштабування своїх обчислень, що підтверджує цю оцінку.

Amazon розробляє свої чіпи Trainium, що є менш просунутими. Після придбання Annapurna Labs у 2015 році Amazon почала створювати власні чіпи для хмарних сервісів, розширюючи ARM-архітектуру Graviton та Nitro DPU для підтримки обчислювальної потужності AWS. У 2025 році Graviton забезпечив понад половину нових CPU для AWS вже третій рік поспіль. Крім TPU, Anthropic використовує AWS і Trainium як основну платформу для тренування моделей.

Microsoft у 2023 році випустила AI-ускорювач Maia 100, але тоді він не був орієнтований на генеративний AI. Зараз компанія готує друге покоління для сценаріїв інференсу.

Бізнес з розробки кастомних чіпів — лідер ринку

Google і Amazon зосереджені на розробці архітектури та функціоналу передніх чіпів, тоді як партнерські компанії займаються перетворенням логіки у кремнієві платки, управлінням передовими упаковками та співпрацею з TSMC. В умовах труднощів у Intel з виробництвом, TSMC стала основним партнером для більшості великих проектів AI-чіпів, а Broadcom — провідним партнером з розробки бекенд-інфраструктури для TPU, Meta MTIA і майбутніх кастомних чіпів OpenAI. Apple традиційно самостійно розробляє всі етапи створення своїх мобільних і ПК-чіпів, але повідомляється, що компанія також співпрацює з Broadcom. Citigroup прогнозує, що доходи Broadcom від AI у найближчі два роки зростуть у п’ять разів — з 20 мільярдів у 2025 до 100 мільярдів у 2027.

Розробка чіпів у стартапах

Наші дослідження показують, що низка стартапів із новими архітектурними підходами може ще більше змінити ринок. Cerebras відомий своїм величезним чіпом на рівні кремнію — “чемпіоном” швидкості обробки токенів у секунду, і планує вихід на ринок цього року. Компанія оголосила про співпрацю з OpenAI для запуску високошвидкісної моделі Codex Spark, а раніше цього року — уклала партнерство з іншими. Groq, завдяки високій швидкості обробки токенів, підписала з NVIDIA угоду на ліцензування технологій на 200 мільярдів доларів, включаючи 90% співробітників і CEO Jonathan Ross. Це фактично поглинання команди та технологій, що стає популярним у M&A для обходу регуляторних обмежень. Інші угоди — Intel, що після невдалих переговорів з купівлі SambaNova, співпрацює з нею. За часів, коли Intel здійснювала чотири купівлі у AI з 2014 року, їй так і не вдалося створити широко визнаний продукт — це викликає розчарування.

Майбутнє: до 2030 року ринок досягне 1,4 трильйона доларів

За нашими оцінками, у найближчі п’ять років попит зростатиме, а продуктивність — покращуватиметься, що сприятиме трьомкратному зростанню витрат на AI-інфраструктуру — з 500 мільярдів у 2025 до майже 1,5 трильйона у 2030 році.

Це базується на історичних даних щодо співвідношення інвестицій у системи дата-центрів і доходів від програмного забезпечення. На початку 2010-х років, з підйомом хмарних обчислень, системні інвестиції становили близько 50% світових витрат на софт. У 2021 році, після пандемії та переінвестицій, цей показник знизився до близько 20%. Наш прогноз у 1,5 трильйона базується на тому, що у 2030 році інвестиції складуть 20% від нашого нейтрального сценарію глобальних витрат на софт у 70 трильйонів доларів. Це враховує потенційний ризик перенасичення ринку та повільніше зростання доходів від софту, але у такому випадку інфраструктурні витрати залишаться високими, як і у 2010-х.

Зростання попиту на обчислювальні ресурси, зумовлений AI, призведе до ще більшого зростання частки кастомних чіпів у витратах — оскільки проектування спеціалізованих чіпів для конкретних задач з часом і масштабами стане більш вигідним. До 2030 року, за нашими оцінками, частка ASIC у ринку обчислень може перевищити третину.

Загалом, наші дослідження свідчать, що нинішні інвестиції у інфраструктуру — це не “пузир”, а платформа для революційних змін. ARK прогнозує, що до 2030 року витрати на AI-інфраструктуру сягнуть 1,5 трильйона доларів, що зумовлено реальним і постійним зростанням попиту з боку споживачів і бізнесу, а також зниженням вартості, що відкриває нові можливості застосування. Ми віримо, що найбільш успішними у найближчі п’ять років будуть ті компанії, які зможуть створити найефективніші чіпи, розробити найпотужніші моделі та масштабувати їх.

Як зазначив генеральний директор NVIDIA Jensen Huang під час фінансової звітної конференції за 4 квартал 2026 фінансового року, справжні корисні AI-агенти тільки починають масштабно впроваджуватися. Вони споживають багато токенів, але мають набагато більший потенціал, ніж більшість раніше знайомих AI-продуктів. Масштабування таких агентів у мільйони підприємств — надзвичайно ресурсоємне завдання, але, на нашу думку, підвищення продуктивності від цього цілком виправдане.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити