AmazonのTrainiumチップは、次世代の解決策のようです。2015年にAnnapurna Labsを買収した後、Amazonはクラウドビジネスのためにカスタムチップを最初に開発し、ARMアーキテクチャに基づくGraviton CPUとNitroデータ処理ユニット(DPU)を拡張し、Amazon Web Services(AWS)の重要な計算能力を支えています。最近Amazonは、2025年のGravitonがAWSの新規CPU計算能力の半分以上を三年連続で提供したと発表しました。TPUを使用するだけでなく、AnthropicはAWSとTrainiumをその主要な訓練プラットフォームとしても使用しています。
Ark Invest:AIインフラの現状と未来
出典:Frank Downing、Ark Invest;翻訳:金色财经Claw
AI基盤インフラ支出が爆発的に増加
ChatGPTのリリースからの3年間で、加速計算の需要は爆発的に増加しています。**NVIDIAの年収は2022年の270億ドルから2025年には2160億ドルに近い8倍の急増を見せ、2026年にはさらに62%の増加が見込まれ、3500億ドルに達するという市場の一致した予測があります。**世界のデータセンターシステムへの投資(計算、ネットワーク、ストレージハードウェアを含む)の成長率は、2022年までの10年間の年平均5%から過去3年間の30%へと加速しており、2026年にはさらに30%以上の成長が予測され、6530億ドルに達する見込みです。
ARKの研究によれば、GPUおよびAI専用集積回路(ASIC)による加速計算(汎用CPUに対して)は現在、サーバー投資を支配しており、計算サーバーの売上の86%を占めています。
コストの急落が加速を促進
AIモデルを実行するために必要な加速計算インフラストラクチャ支出の持続的な増加を促す要因は、生成AIの消費者および企業での使用シーンの拡大と、「スーパーインテリジェンス」を追求する過程でよりスマートな基盤モデルを訓練する需要から来ています。
コストの急速な低下が需要の成長をさらに加速させています。私たちの研究によると、AI訓練コストは毎年75%低下しています。推論コストはさらに早く低下しており、Artificial Analysisが追跡するベンチマークでは、スコアが50%を超えるモデルの中位コストは年率で95%の低下を示しています。
二つの力がコストの大幅な低下を促進しています。一つは、NVIDIAを代表とする業界のリーダーが毎年新製品を投入し、世代ごとのハードウェア性能向上をもたらしていることです。もう一つは、ソフトウェアレベルでのアルゴリズム改善により、同じハードウェア上での訓練および推論の効率が不断に向上していることです。
消費者と企業の双方が強い需要信号を発信
消費者のAI採用速度は、かつてのインターネット採用速度を大きく上回っています。AIの普及率は3年で約20%に達し、これは消費者がインターネットに移行する速度の2倍以上です。
企業の需要も驚異的な速度で成長しています。OpenRouterのデータによると、2024年12月以降、トークンの需要は28倍に増加しました。
過去2年間で、企業顧客に最も人気のあるAIラボであるAnthropicは、2023年末の年換算運営収入1億ドルから2025年末には推定80億から100億ドルに達する驚異的な収益成長を実現しました。Anthropicは2026年の成長を維持し、今年2月には年換算収入が140億ドルに達し、300億ドルの資金調達を完了し、評価額は3800億ドルに達しました。
消費者と企業の両方の戦線で競争するOpenAIも、企業ユーザーの間で強力な成長を遂げており、2025年11月までに100万の企業顧客を獲得しています。最高財務責任者のSarah Friarによると、OpenAIの企業収入の成長率は消費者ビジネスを上回り、2026年には同社の総収入の50%を占めると予測されています。Friarは2026年1月のブログで、インフラへのさらなる投資の理由を明示しました:過去3年間、OpenAIの収入はその計算能力に対して正比例して増加しています。
プライベート市場がAI構築に資金を提供
強力な需要信号に応えるためには、大規模なインフラ投資が必要となっています。Crunchbaseのデータによれば、2025年にはプライベートAIラボへの資金調達が2000億ドルを超え、そのうち約800億ドルがOpenAI、Anthropic、xAIなどの基盤モデル開発者に流入しています。公開市場では、超大規模クラウド企業が現金準備を活用し、AI資本支出計画を支えるための他の資金調達手段を模索しています——2026年にはその支出規模が7000億ドルに達する可能性があります。
報道によれば、MetaとBlue Owlとの300億ドルの取引は史上最大のプライベート資本取引です。この取引は合弁会社形式で構築され、主に債務ファイナンスによるものであり、その特別目的ビークル(SPV)構造により、プロジェクトの債務はMetaのバランスシートに現れないようになっています。この動きはかなりの議論を引き起こしています。
AMDや他のメーカーがNVIDIAに対する強力な挑戦者に
物理データセンターを超えて、計算チップはAI資本支出の中心であり続けています。NVIDIAは加速計算の時代の最前線に立っていますが、現在最大のAIチップの調達者は、投資の1ドルあたりのAI演算能力を向上させようとしています。2006年にATI Technologiesを買収して以来、Advanced Micro Devices(AMD)はNVIDIAと並んで消費市場でGPUを販売しており、現在は企業市場でも新興の競争相手となっています。2017年にEPYCシリーズプロセッサを発表して以来、AMDのサーバーCPU市場でのシェアは2017年のほぼゼロから2025年には40%に成長しています。
小型モデルの推論に関しては、AMDのGPUは総保有コスト(TCO)の相対性能においてNVIDIAと同等になっています。TCOは、チップの初期購入コスト(資本支出)とチップの使用寿命中の運用コスト(運用支出)を同時に考慮します。性能ベンチマークはSemiAnalysisのInferenceMax指標を使用し、スループットを最適化する際に各GPUが1秒あたりに処理するトークン数を基準にしています。コストベンチマークはSemiAnalysisによる1時間あたりの資本支出と運用支出の推定値を使用しています。
AMDは小型モデル性能において「追いついてきている」ものの、大型モデル性能においては依然としてNVIDIAが顕著なリードを保っています。以下の図を参照してください。
NVIDIAのラックマウント型ソリューションGrace Blackwellは72個のGrace Blackwell GPU(GB200)をネットワークに接続し、共有メモリの超大規模GPUのように動作させます。このようなチップ間の緊密な相互接続は、大型モデルの推論能力を強化します——大型モデルは、モデルの重みを複数のGPUに分散させる必要があり、小型モデルよりも多くの通信帯域幅を必要とします。NVIDIAのVera Rubinのリリース前にギャップを縮小するために、AMDのラックマウント型ソリューションは2026年下半期に市場投入される予定です。これまでに、AMDはMicrosoft、Meta、OpenAI、xAI、Oracleなどの顧客から受注を獲得しています。
超大規模クラウド企業がカスタムチップ革命をリード
商用GPU供給者に加えて、超大規模クラウド企業やAIラボもNVIDIAの影響力を制御し、AI計算コストを削減するために自社開発チップを希望しています。十年以上にわたり、Googleは自社のAI専用集積回路——テンソル処理ユニット(TPU)を設計しており、検索業務の推奨モデルを運用するために使用し、最新世代のTPU v7では生成AIに対して性能を最適化しています。SemiAnalysisは、Googleが自社開発のTPUで内部ワークロードを処理することで、NVIDIAに比べて計算1回あたりのコストを62%削減できると推定しています。AnthropicとMetaはGoogleのTPUを使用して計算能力を拡張しており、これは62%の推定が実際の状況と近いことを示唆しています。
AmazonのTrainiumチップは、次世代の解決策のようです。2015年にAnnapurna Labsを買収した後、Amazonはクラウドビジネスのためにカスタムチップを最初に開発し、ARMアーキテクチャに基づくGraviton CPUとNitroデータ処理ユニット(DPU)を拡張し、Amazon Web Services(AWS)の重要な計算能力を支えています。最近Amazonは、2025年のGravitonがAWSの新規CPU計算能力の半分以上を三年連続で提供したと発表しました。TPUを使用するだけでなく、AnthropicはAWSとTrainiumをその主要な訓練プラットフォームとしても使用しています。
Microsoftは2023年に遅れを取ってカスタムチップの分野に参入し、AIアクセラレーターMaia 100を発表しましたが、その時点では生成AIに焦点を当てておらず、現在その第二世代製品が発売されており、AI推論シーンを主攻としています。
Broadcomがカスタムチップサービス市場を主導
GoogleとAmazonはフロントエンドのチップ設計(アーキテクチャと機能)に注力しており、バックエンド設計パートナーはその論理をシリコンチップに変換し、高度なパッケージングを管理し、TSMCなどのファウンドリと調整して生産を行います。Intelのファウンドリビジネスが課題に直面する中で、TSMCはほとんどの主要なAIチッププロジェクトの選ばれたパートナーとなっていますが、BroadcomはGoogle TPU、Meta MTIA、OpenAIが2026年に発売予定のカスタムチップの主要なバックエンド設計パートナーとなっています。Appleは通常、自社のスマートフォンやPCチップの全プロセス設計を自ら行いますが、報道によれば、AppleもBroadcomと協力してAIチップを開発している可能性があります。Citigroupは、BroadcomのAI収入が今後2年で5倍に成長し、2025年の200億ドルから2027年には1000億ドルに達する可能性があると予測しています。
AmazonのTrainiumの開発経路は、業界内で非常に特異です——報道によると、Trainium 2はMarvellと協力し、その後Marvellの業務執行が不十分なためTrainium 3とTrainium 4はAlchipと協力することになりました。Amazonがバックエンドのパートナーを変更できることは、垂直統合がBroadcomのような企業にとって一定のリスクがあることを示しています。注目すべきは、AppleとTeslaが直接ファウンドリと協力している点です。GoogleのTPU v8も同様になる可能性があります——この製品には2つのSKUがあり、一つはBroadcomと共同設計され、もう一つはGoogleがMediaTekの支援を受けて自主設計し、管理しています。
チップスタートアップの活動が活発化
私たちの研究によると、新しいアーキテクチャのパラダイムを試みているスタートアップ企業の一群が、既存のチップメーカーの市場地位にさらなる挑戦をもたらす可能性があります。Cerebrasはそのウエハサイズのエンジン(単一のシリコンウエハで作られ、ピザボックスの大きさの巨大チップ)で知られ、市場で最も速い毎秒トークン処理速度を提供し、今年中に発売する計画です。同社は最近、OpenAIと高速プログラミングモデルCodex Sparkを共同で発表することを発表しました。両者は今年1月に協力協定を結んでいました。Groqも毎秒トークン処理速度の優れた性能で、最近NVIDIAと200億ドルの非独占的知的財産ライセンス契約を結びました。この契約にはGroqの90%の従業員とCEO兼TPU共同創設者のJonathan Rossが含まれています。これは実質的にGroqチームと技術の買収であり、この取引構造はテクノロジー大手が規制審査による遅延を回避するためにますます人気を集めています。他の買収の動向としては、Intelが最近の買収交渉が失敗した後、SambaNovaとの提携を結ぶことに転じました。Intelは2014年以降、AI分野で4回の買収を行いましたが、市場で広く認められるAI製品を発売することができていないという記録は非常に残念です。
将来展望:2030年には規模が1.4兆ドルに達する
私たちの研究によれば、今後5年間での需要の持続的な成長と性能の不断の向上がAIソフトウェアとクラウドサービスの発展を促進し、AI基盤インフラ支出は今後5年間で3倍に増加する——2025年の5000億ドルから2030年には約1.5兆ドルに達するでしょう。
私たちの予測は、データセンターシステムへの投資がソフトウェア収益に対してどのように歴史的に観察されてきたかに基づいています。2010年代初期、クラウドコンピューティングの台頭に伴い、システム投資は世界のソフトウェア支出の約50%を占めていました。2021年には、コロナウイルスのパンデミック後の過剰な投資と顧客の最適化により、システム投資のソフトウェア支出に対する割合は20%台の低水準に低下しました。私たちの1.5兆ドルの予測は、2030年の投資額が私たちの世界のソフトウェア支出に対する中立的な予測シナリオ(すなわち2030年に7兆ドル)に対して20%であるという仮定に基づいており、この割合は昨年のブログで詳細に説明しました。私たちは20%の水準が2030年までの潜在的な過剰投資リスクやソフトウェア収益の成長が中立的な予測シナリオを下回る可能性を十分に考慮していると考えています——後者の場合、基盤投資は引き続き高成長を維持すると私たちは考えています。
AI駆動の計算能力需要が持続的に増加する中で、私たちはカスタムチップの計算支出における割合がますます高まっていくと予測しています——特定のワークロード向けのチップを設計するために必要な時間と資金の投入が、スケール化時にますます重要な1ドルあたりの性能上の利点をもたらすでしょう。2030年までに、カスタムASICが計算市場において3分の1を超える割合を占める可能性があると私たちは考えています。
総じて、私たちの研究は、現在進行中のインフラ構築が破裂するバブルではなく、千載一遇のプラットフォーム級の変革の基礎であることを示しています。ARKは2030年にAI基盤インフラの年支出が1.5兆ドルに達することを予測しており、この市場は消費者と企業からの真実かつ持続的な加速する需要によって推進され、コストの継続的な低下も新しい使用シーンを証明し開放しています。私たちは、今後5年間で突出する企業は、最も効率的なチップを設計し、最も強力なモデルを構築し、両者を大規模に展開できる企業であると信じています。
NVIDIAのCEOである黄仁勲が2026会計年度第4四半期の決算電話会議で述べたように、真に実用的なAIエージェントは過去数ヶ月でようやく大規模に実装され始めたばかりです。これらはトークンの消費量が膨大ですが、その能力はほとんどのユーザーが以前に慣れ親しんだAI製品をはるかに超えています。これらのエージェントを数百万の企業に拡大することは非常に計算集約的な作業であり、私たちの観点では、この結果として得られる生産性向上はこれらの投資に見合うものになるでしょう。