NVIDIA、Rubinを発表:次世代AIスーパーコンピュータを支える新たに6つのチップ

要点

NvidiaはCES 2026でRubinプラットフォームを発表し、6つの新しいチップを統合した統一型AIスーパーコンピュータを構築し、Blackwellシリーズの5倍のトレーニング計算能力を実現しました。

NVIDIA Unveils Rubin: Six New Chips Power Next-Gen AI Supercomputer

テクノロジー企業NVIDIAはCES 2026でRubinプラットフォームを発表し、6つの新しいチップから構成される統一型AIスーパーコンピュータを導入しました。これにより、Blackwellシリーズの5倍のトレーニング計算能力を提供します。このプラットフォームは、大規模AIシステムの構築、展開、セキュリティの新たな基準を設定し、コストを最小限に抑えつつAI技術の普及を支援することを目的としています。

Rubinプラットフォームは、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 Switch、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6 Ethernet Switchの6つのコンポーネント間の密接な共同設計によって性能を実現しています。この統合アプローチにより、トレーニング時間が短縮され、推論トークンのコストも削減されます。

Rubinは、次世代NVLinkインターコネクト、Transformer Engine、Confidential Computing、RAS Engine、NVIDIA Vera CPUなどの5つの主要な革新を導入しています。これらの進歩により、エージェント型AI、高度な推論、大規模なMixture-of-Experts (MoE)モデルの推論を、Blackwellプラットフォームと比較してトークンあたりコストを最大10分の1に抑えて実現可能にしています。このシステムは、GPUを4倍少なくしてMoEモデルのトレーニングを行うこともでき、AIの普及をさらに加速させます。

このプラットフォームは、Amazon Web Services (AWS)、Anthropic、Black Forest Labs、Cisco、Cohere、CoreWeave、Cursor、Dell Technologies、Google、Harvey、HPE、Lambda、Lenovo、Meta、Microsoft、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、Oracle Cloud Infrastructure (OCI)、Perplexity、Runway、Supermicro、Thinking Machines Lab、xAIなどの主要なAI研究所、クラウドサービス提供者、ハードウェアメーカー、スタートアップによって展開される見込みです。

AIネイティブストレージとAI工場向けソフトウェア定義インフラの発表

NVIDIA Rubinは、大規模AIワークロードを効率的にサポートするために設計されたAIネイティブストレージと安全なソフトウェア定義インフラを導入します。BlueField-4搭載のNVIDIA Inference Context Memory Storage Platformは、キーとバリューのキャッシュデータを迅速に共有・再利用でき、多ターンのエージェント型AIアプリケーションのスループットとエネルギー効率を向上させます。BlueField-4には、Advanced Secure Trusted Resource Architecture (ASTRA)も含まれ、ベアメタルやマルチテナントAI環境において、安全なプロビジョニングと隔離を行うための信頼できるコントロールポイントを提供します。

このプラットフォームは、Vera Rubin NVL72(72個のRubin GPU、36個のVera CPU、NVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPUを統合)や、x86ベースの生成AIプラットフォームをサポートする8つのRubin GPUをリンクするHGX Rubin NVL8など、複数の構成で提供されます。NVIDIA DGX SuperPODは、Rubinシステムを大規模に展開するためのリファレンスアーキテクチャとして、計算、ネットワーキング、管理ソフトウェアを組み合わせています。

次世代のネットワークとストレージは、Spectrum-6とSpectrum-X Ethernetプラットフォームによって提供され、これらはコ-packaged光学素子、AI最適化されたファブリック、高速200G SerDes通信を特徴とします。これらの革新により、信頼性、エネルギー効率、スケーラビリティが向上し、RubinベースのAI工場が複数のサイトで統合された環境として運用できるほか、将来的な百万GPUインフラの構築も支援します。

NVIDIA Rubin、本格生産開始、クラウドやAI研究所への展開準備完了

新しいプラットフォームは本格的に生産に入り、Rubinベースのシステムは2026年後半にパートナーを通じて利用可能になる見込みです。主要なクラウド事業者(AWS、Google Cloud、Microsoft、OCI)や、NVIDIA Cloud PartnersのCoreWeave、Lambda、Nebius、Nscaleなどが最初にRubin搭載インスタンスを展開します。Microsoftは、次世代AIデータセンターにNVIDIA Vera Rubin NVL72ラックスケールシステムを統合し、将来のFairwater AIスーパーファクトリーサイトを含む、企業、研究、消費者向けの高度なトレーニングと推論ワークロードの基盤を形成する予定です。

CoreWeaveは、AIクラウドプラットフォームにRubinシステムを組み込み、複数のアーキテクチャをサポートし、トレーニング、推論、エージェント型AIワークロードの最適化されたパフォーマンスを実現します。Cisco、Dell、HPE、Lenovo、Supermicroも、Rubin製品を基にしたサーバーを提供する見込みです。Anthropic、Cohere、OpenAI、Metaなどの主要AI研究所は、より大きく、より高性能なモデルのトレーニングや、長いコンテキスト、多モーダルシステムのサポートにRubinを採用し、遅延とコストを従来のGPU世代より削減しています。

IBM、NetApp、Nutanix、Pure Storage、SUSE、VAST Dataなどのインフラ・ストレージパートナーは、次世代Rubinプラットフォームの設計に協力しています。Rubinは、NVIDIAの第3世代ラックスケールアーキテクチャであり、80以上のMGXエコシステムパートナーによって支えられています。Red Hatは、Rubin向けに最適化されたAIスタックを提供するための拡張コラボレーションを発表し、Red Hat Enterprise Linux、OpenShift、Red Hat AIを含むハイブリッドクラウドポートフォリオを活用しています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン