Nvidia giới thiệu nền tảng Rubin tại CES 2026, kết hợp sáu chip mới thành một siêu máy tính AI thống nhất cung cấp gấp 5 lần khả năng đào tạo của dòng Blackwell.
Công ty công nghệ NVIDIA giới thiệu nền tảng Rubin tại CES 2026, ra mắt một siêu máy tính AI thống nhất được xây dựng từ sáu chip mới, mang lại khả năng đào tạo gấp năm lần so với dòng Blackwell. Nền tảng này được thiết kế để thiết lập một tiêu chuẩn mới trong việc xây dựng, triển khai và bảo mật các hệ thống AI quy mô lớn đồng thời giảm thiểu chi phí để thúc đẩy việc ứng dụng rộng rãi công nghệ AI.
Nền tảng Rubin đạt được hiệu suất của mình thông qua quá trình thiết kế chặt chẽ giữa sáu thành phần: CPU NVIDIA Vera, GPU NVIDIA Rubin, Switch NVIDIA NVLink 6, SuperNIC NVIDIA ConnectX-9, DPU NVIDIA BlueField-4, và Switch Ethernet NVIDIA Spectrum-6. Phương pháp tích hợp này giúp giảm thời gian đào tạo và giảm chi phí token dự đoán.
Rubin giới thiệu năm đổi mới chính, bao gồm các kết nối NVLink thế hệ tiếp theo, Transformer Engine, Tính toán Bí mật, RAS Engine, và CPU NVIDIA Vera. Những tiến bộ này cho phép AI có khả năng hành động, suy luận nâng cao, và dự đoán mô hình hỗn hợp chuyên gia (MoE) quy mô lớn với chi phí thấp hơn gấp mười lần trên mỗi token so với nền tảng Blackwell. Hệ thống có thể đào tạo các mô hình MoE với ít GPU hơn gấp bốn lần, thúc đẩy nhanh hơn nữa việc ứng dụng AI.
Nền tảng dự kiến sẽ được triển khai bởi các phòng thí nghiệm AI hàng đầu, nhà cung cấp dịch vụ đám mây, nhà sản xuất phần cứng, và các startup, bao gồm Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab, và xAI.
Ra mắt lưu trữ gốc AI và hạ tầng phần mềm định nghĩa cho nhà máy AI
NVIDIA Rubin giới thiệu một hệ thống lưu trữ gốc AI và hạ tầng an toàn, phần mềm định nghĩa nhằm hỗ trợ các khối lượng công việc AI quy mô lớn một cách hiệu quả. Nền tảng Bộ nhớ Tương tác Dự đoán của NVIDIA, được trang bị BlueField-4, cho phép chia sẻ nhanh chóng và tái sử dụng dữ liệu cache key-value, nâng cao khả năng xử lý và hiệu quả năng lượng cho các ứng dụng AI hành động nhiều vòng. BlueField-4 còn bao gồm Kiến trúc Tài nguyên Tin cậy An toàn Nâng cao (ASTRA), cung cấp một điểm kiểm soát tin cậy duy nhất cho việc cung cấp và cô lập an toàn trong các môi trường AI bare-metal và đa thuê.
Nền tảng này được cung cấp dưới nhiều cấu hình, bao gồm Vera Rubin NVL72, tích hợp 72 GPU Rubin, 36 CPU Vera, NVLink 6, SuperNIC ConnectX-9, và DPU BlueField-4, và HGX Rubin NVL8, kết nối tám GPU Rubin để hỗ trợ các nền tảng AI tạo sinh dựa trên x86. NVIDIA DGX SuperPOD đóng vai trò như một kiến trúc tham khảo để triển khai hệ thống Rubin quy mô lớn, kết hợp khả năng tính toán, mạng lưới và phần mềm quản lý.
Mạng lưới và lưu trữ thế hệ tiếp theo được cung cấp bởi các nền tảng Ethernet Spectrum-6 và Spectrum-X, có tính năng quang học tích hợp, mạng tối ưu cho AI, và truyền thông SerDes tốc độ cao 200G. Những đổi mới này mang lại độ tin cậy cao hơn, hiệu quả năng lượng và khả năng mở rộng, cho phép các nhà máy AI dựa trên Rubin hoạt động trên nhiều địa điểm như một môi trường thống nhất và hỗ trợ hạ tầng hàng triệu GPU trong tương lai.
NVIDIA Rubin đã chính thức sản xuất, sẵn sàng triển khai trên đám mây và các phòng thí nghiệm AI
Nền tảng mới đã bước vào giai đoạn sản xuất toàn diện, các hệ thống dựa trên Rubin dự kiến sẽ có sẵn thông qua các đối tác trong nửa cuối năm 2026. Các nhà cung cấp đám mây lớn, bao gồm AWS, Google Cloud, Microsoft, và OCI, cùng với các Đối tác Đám mây của NVIDIA như CoreWeave, Lambda, Nebius, và Nscale, là những đơn vị đầu tiên triển khai các phiên bản chạy Rubin. Microsoft dự kiến tích hợp các hệ thống rack-scale NVIDIA Vera Rubin NVL72 vào các trung tâm dữ liệu AI thế hệ tiếp theo, bao gồm các nhà máy AI Fairwater trong tương lai, tạo nền tảng cho các khối lượng công việc đào tạo và suy luận nâng cao trong doanh nghiệp, nghiên cứu và ứng dụng tiêu dùng.
CoreWeave sẽ tích hợp các hệ thống Rubin vào nền tảng đám mây AI của mình, hỗ trợ nhiều kiến trúc và tối ưu hóa hiệu suất cho đào tạo, suy luận và các khối lượng công việc AI hành động. Cisco, Dell, HPE, Lenovo, và Supermicro cũng dự kiến cung cấp các máy chủ dựa trên sản phẩm Rubin. Các phòng thí nghiệm AI hàng đầu, bao gồm Anthropic, Cohere, OpenAI, Meta, và các đơn vị khác, đang áp dụng Rubin để đào tạo các mô hình lớn hơn, có khả năng hơn và hỗ trợ hệ thống đa phương thức, đa ngữ cảnh với độ trễ và chi phí thấp hơn so với các thế hệ GPU trước.
Các đối tác hạ tầng và lưu trữ, như IBM, NetApp, Nutanix, Pure Storage, SUSE, và VAST Data, đang hợp tác với NVIDIA để thiết kế các nền tảng Rubin thế hệ tiếp theo. Rubin đại diện cho kiến trúc rack-scale thế hệ thứ ba của NVIDIA, được hỗ trợ bởi hơn 80 đối tác hệ sinh thái MGX. Red Hat đã công bố mở rộng hợp tác để cung cấp một hệ thống AI hoàn chỉnh tối ưu hóa cho Rubin, tận dụng danh mục đám mây lai của mình bao gồm Red Hat Enterprise Linux, OpenShift, và Red Hat AI, được sử dụng rộng rãi trong các công ty thuộc Fortune Global 500.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
NVIDIA Ra mắt Rubin: Sáu chip mới cung cấp sức mạnh cho siêu máy tính AI thế hệ tiếp theo
Tóm tắt ngắn gọn
Nvidia giới thiệu nền tảng Rubin tại CES 2026, kết hợp sáu chip mới thành một siêu máy tính AI thống nhất cung cấp gấp 5 lần khả năng đào tạo của dòng Blackwell.
Công ty công nghệ NVIDIA giới thiệu nền tảng Rubin tại CES 2026, ra mắt một siêu máy tính AI thống nhất được xây dựng từ sáu chip mới, mang lại khả năng đào tạo gấp năm lần so với dòng Blackwell. Nền tảng này được thiết kế để thiết lập một tiêu chuẩn mới trong việc xây dựng, triển khai và bảo mật các hệ thống AI quy mô lớn đồng thời giảm thiểu chi phí để thúc đẩy việc ứng dụng rộng rãi công nghệ AI.
Nền tảng Rubin đạt được hiệu suất của mình thông qua quá trình thiết kế chặt chẽ giữa sáu thành phần: CPU NVIDIA Vera, GPU NVIDIA Rubin, Switch NVIDIA NVLink 6, SuperNIC NVIDIA ConnectX-9, DPU NVIDIA BlueField-4, và Switch Ethernet NVIDIA Spectrum-6. Phương pháp tích hợp này giúp giảm thời gian đào tạo và giảm chi phí token dự đoán.
Rubin giới thiệu năm đổi mới chính, bao gồm các kết nối NVLink thế hệ tiếp theo, Transformer Engine, Tính toán Bí mật, RAS Engine, và CPU NVIDIA Vera. Những tiến bộ này cho phép AI có khả năng hành động, suy luận nâng cao, và dự đoán mô hình hỗn hợp chuyên gia (MoE) quy mô lớn với chi phí thấp hơn gấp mười lần trên mỗi token so với nền tảng Blackwell. Hệ thống có thể đào tạo các mô hình MoE với ít GPU hơn gấp bốn lần, thúc đẩy nhanh hơn nữa việc ứng dụng AI.
Nền tảng dự kiến sẽ được triển khai bởi các phòng thí nghiệm AI hàng đầu, nhà cung cấp dịch vụ đám mây, nhà sản xuất phần cứng, và các startup, bao gồm Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab, và xAI.
Ra mắt lưu trữ gốc AI và hạ tầng phần mềm định nghĩa cho nhà máy AI
NVIDIA Rubin giới thiệu một hệ thống lưu trữ gốc AI và hạ tầng an toàn, phần mềm định nghĩa nhằm hỗ trợ các khối lượng công việc AI quy mô lớn một cách hiệu quả. Nền tảng Bộ nhớ Tương tác Dự đoán của NVIDIA, được trang bị BlueField-4, cho phép chia sẻ nhanh chóng và tái sử dụng dữ liệu cache key-value, nâng cao khả năng xử lý và hiệu quả năng lượng cho các ứng dụng AI hành động nhiều vòng. BlueField-4 còn bao gồm Kiến trúc Tài nguyên Tin cậy An toàn Nâng cao (ASTRA), cung cấp một điểm kiểm soát tin cậy duy nhất cho việc cung cấp và cô lập an toàn trong các môi trường AI bare-metal và đa thuê.
Nền tảng này được cung cấp dưới nhiều cấu hình, bao gồm Vera Rubin NVL72, tích hợp 72 GPU Rubin, 36 CPU Vera, NVLink 6, SuperNIC ConnectX-9, và DPU BlueField-4, và HGX Rubin NVL8, kết nối tám GPU Rubin để hỗ trợ các nền tảng AI tạo sinh dựa trên x86. NVIDIA DGX SuperPOD đóng vai trò như một kiến trúc tham khảo để triển khai hệ thống Rubin quy mô lớn, kết hợp khả năng tính toán, mạng lưới và phần mềm quản lý.
Mạng lưới và lưu trữ thế hệ tiếp theo được cung cấp bởi các nền tảng Ethernet Spectrum-6 và Spectrum-X, có tính năng quang học tích hợp, mạng tối ưu cho AI, và truyền thông SerDes tốc độ cao 200G. Những đổi mới này mang lại độ tin cậy cao hơn, hiệu quả năng lượng và khả năng mở rộng, cho phép các nhà máy AI dựa trên Rubin hoạt động trên nhiều địa điểm như một môi trường thống nhất và hỗ trợ hạ tầng hàng triệu GPU trong tương lai.
NVIDIA Rubin đã chính thức sản xuất, sẵn sàng triển khai trên đám mây và các phòng thí nghiệm AI
Nền tảng mới đã bước vào giai đoạn sản xuất toàn diện, các hệ thống dựa trên Rubin dự kiến sẽ có sẵn thông qua các đối tác trong nửa cuối năm 2026. Các nhà cung cấp đám mây lớn, bao gồm AWS, Google Cloud, Microsoft, và OCI, cùng với các Đối tác Đám mây của NVIDIA như CoreWeave, Lambda, Nebius, và Nscale, là những đơn vị đầu tiên triển khai các phiên bản chạy Rubin. Microsoft dự kiến tích hợp các hệ thống rack-scale NVIDIA Vera Rubin NVL72 vào các trung tâm dữ liệu AI thế hệ tiếp theo, bao gồm các nhà máy AI Fairwater trong tương lai, tạo nền tảng cho các khối lượng công việc đào tạo và suy luận nâng cao trong doanh nghiệp, nghiên cứu và ứng dụng tiêu dùng.
CoreWeave sẽ tích hợp các hệ thống Rubin vào nền tảng đám mây AI của mình, hỗ trợ nhiều kiến trúc và tối ưu hóa hiệu suất cho đào tạo, suy luận và các khối lượng công việc AI hành động. Cisco, Dell, HPE, Lenovo, và Supermicro cũng dự kiến cung cấp các máy chủ dựa trên sản phẩm Rubin. Các phòng thí nghiệm AI hàng đầu, bao gồm Anthropic, Cohere, OpenAI, Meta, và các đơn vị khác, đang áp dụng Rubin để đào tạo các mô hình lớn hơn, có khả năng hơn và hỗ trợ hệ thống đa phương thức, đa ngữ cảnh với độ trễ và chi phí thấp hơn so với các thế hệ GPU trước.
Các đối tác hạ tầng và lưu trữ, như IBM, NetApp, Nutanix, Pure Storage, SUSE, và VAST Data, đang hợp tác với NVIDIA để thiết kế các nền tảng Rubin thế hệ tiếp theo. Rubin đại diện cho kiến trúc rack-scale thế hệ thứ ba của NVIDIA, được hỗ trợ bởi hơn 80 đối tác hệ sinh thái MGX. Red Hat đã công bố mở rộng hợp tác để cung cấp một hệ thống AI hoàn chỉnh tối ưu hóa cho Rubin, tận dụng danh mục đám mây lai của mình bao gồm Red Hat Enterprise Linux, OpenShift, và Red Hat AI, được sử dụng rộng rãi trong các công ty thuộc Fortune Global 500.