Samsung Merilis HBM4E dan Memperdalam Kerjasama dengan NVIDIA, Perlombaan "Storage Computing Power" AI Semakin Cepat

robot
Pembuatan abstrak sedang berlangsung

Dalam konteks permintaan daya komputasi AI yang terus meningkat, teknologi penyimpanan sedang menjadi hambatan utama yang menentukan kinerja pusat data generasi berikutnya. Pada hari Senin, tanggal 16 waktu setempat di California, dalam acara tahunan pengembang GTC yang diselenggarakan oleh Samsung Electronics Korea dan Nvidia, pertama kali dipamerkan chip penyimpanan bandwidth tinggi generasi berikutnya, HBM4E, serta penekanan pada kerjasama mereka dengan Nvidia di platform komputasi AI.

HBM4E yang dipamerkan oleh Samsung kali ini dianggap sebagai titik penting dalam peta jalan memori AI generasi berikutnya mereka: produk ini diperkirakan memiliki kecepatan pin tunggal hingga 16Gbps, bandwidth total mencapai 4TB/s, dan ditujukan untuk akselerator AI masa depan dan pusat data berskala besar. Secara umum, industri menganggap peluncuran ini menandai bahwa kolaborasi antara “daya komputasi—penyimpanan” dalam ekosistem chip AI memasuki tahap baru, sekaligus memperkuat persaingan antara Samsung dan SK Hynix serta produsen lain di pasar HBM.

Pertama kali memamerkan HBM4E secara terbuka: bandwidth penyimpanan AI meningkat lagi

Dalam acara GTC Nvidia tahun ini, Samsung secara resmi memamerkan chip HBM4E fisik, yaitu teknologi memori bandwidth tinggi generasi ketujuh mereka (HBM). HBM4E diklasifikasikan sebagai versi upgrade dari HBM4, bertujuan menyediakan bandwidth lebih tinggi dan latensi lebih rendah untuk akselerator AI generasi berikutnya.

Berdasarkan informasi yang diungkapkan oleh Samsung, HBM4E diperkirakan akan mencapai:

  • Kecepatan transfer pin tunggal 16Gbps
  • Bandwidth per stack hingga sekitar 4TB/s
  • Ditujukan untuk sistem AI dan komputasi berkinerja tinggi generasi berikutnya

Dibandingkan dengan produk HBM sebelumnya, tingkat performa ini secara signifikan meningkatkan kapasitas throughput data yang diperlukan untuk pelatihan dan inferensi model AI, dan dianggap sebagai infrastruktur kunci yang mendukung ekspansi model dengan triliunan parameter dan pusat data AI.

Teknologi HBM menggunakan metode tumpukan 3D yang menghubungkan beberapa chip DRAM secara vertikal, secara drastis meningkatkan bandwidth memori dan menurunkan konsumsi daya. Saat ini, teknologi ini telah menjadi komponen inti dari GPU dan akselerator AI.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan