Jakarta, Gizmologi – Hewlett Packard Enterprise (HPE) baru saja mengumumkan bahwa mereka telah mengirimkan solusi pertama berbasis keluarga NVIDIA Blackwell, yaitu NVIDIA GB200 NVL72. Sistem rack-scale ini dirancang khusus untuk membantu penyedia layanan AI dan perusahaan besar dalam menerapkan klaster AI yang sangat besar dan kompleks dengan solusi pendinginan cair langsung yang canggih. Teknologi ini tidak hanya meningkatkan efisiensi tetapi juga memastikan performa optimal dalam pengolahan model AI berskala besar.
Dalam era di mana model AI semakin besar dan kompleks, kebutuhan akan sistem yang mampu menangani miliaran hingga triliunan parameter menjadi semakin mendesak. NVIDIA GB200 NVL72 hadir dengan arsitektur memori bersama yang memiliki latensi rendah, memungkinkan integrasi seamless antara CPU, GPU, dan infrastruktur jaringan. Dengan kombinasi ini, sistem ini dapat menangani beban kerja yang sangat paralel seperti pelatihan dan inferensi model AI generatif dengan performa ekstrem.
HPE, dengan pengalaman lebih dari lima dekade dalam teknologi pendinginan cair, menghadirkan solusi yang tidak hanya mendukung efisiensi daya tetapi juga memudahkan penerapan cepat di pusat data skala besar. Keahlian ini telah memungkinkan HPE untuk menghadirkan delapan dari 15 superkomputer paling hemat energi di dunia yang terdaftar dalam Green500, membuktikan kepemimpinannya dalam teknologi pendinginan cair langsung.
Baca Juga: IBM dan Lenovo Dorong Kemajuan AI Generatif di Arab Saudi
Keunggulan NVIDIA GB200 NVL72 dalam Kinerja AI

Salah satu fitur unggulan NVIDIA GB200 NVL72 adalah integrasi 72 GPU NVIDIA Blackwell dan 36 CPU NVIDIA Grace, yang dihubungkan dengan teknologi NVLink berkecepatan tinggi. Dengan kapasitas memori HBM3e hingga 13,5 TB dan bandwidth mencapai 576 TB/detik, sistem ini mampu menangani beban kerja AI yang sangat besar dengan latensi minimal dan efisiensi maksimal.
Arsitektur yang dikembangkan dalam GB200 NVL72 memungkinkan pengguna untuk menangani model AI berskala besar tanpa kendala infrastruktur. Dengan kombinasi CPU dan GPU yang dioptimalkan, sistem ini memberikan daya komputasi luar biasa untuk pengolahan data secara real-time dan kompleksitas model yang semakin meningkat. Hal ini sangat penting bagi penyedia layanan AI yang perlu menawarkan solusi cepat dan efisien kepada pelanggan mereka.
Selain itu, GB200 NVL72 memanfaatkan teknologi pendinginan cair langsung dari HPE, yang tidak hanya meningkatkan efisiensi energi tetapi juga memperpanjang umur perangkat keras. Dengan teknologi ini, sistem dapat beroperasi dengan kinerja tinggi tanpa khawatir akan overheating, memberikan stabilitas lebih baik untuk pusat data skala besar yang menangani beban kerja berat.
Dukungan Layanan Terbaik dari HPE
HPE tidak hanya menawarkan perangkat keras unggulan tetapi juga menyediakan layanan kelas dunia untuk memastikan pengguna mendapatkan pengalaman terbaik dalam mengelola sistem mereka. Layanan onsite engineering memungkinkan pelanggan mendapatkan dukungan langsung dari insinyur berpengalaman yang bekerja sama dengan tim TI internal untuk memastikan kinerja optimal.
Selain itu, HPE menyediakan layanan benchmarking dan tuning performa untuk mengoptimalkan solusi AI sepanjang masa pakai sistem. Tim ahli industri akan membantu menyesuaikan konfigurasi perangkat keras dan perangkat lunak agar sesuai dengan kebutuhan spesifik pelanggan, memastikan investasi yang dilakukan memberikan nilai maksimal.
HPE juga menekankan pentingnya keberlanjutan melalui layanan sustainability mereka. Dengan fitur pemantauan energi dan pelatihan tentang efisiensi sumber daya, pelanggan dapat mengurangi dampak lingkungan sambil tetap mempertahankan kinerja tinggi. Dengan semua fitur ini, NVIDIA GB200 NVL72 yang dikembangkan oleh HPE menjadi solusi komputasi AI yang tidak hanya kuat tetapi juga ramah lingkungan.
Dengan peluncuran solusi terbaru ini, HPE semakin menegaskan posisinya sebagai pemimpin dalam infrastruktur AI dan HPC. NVIDIA GB200 NVL72 bukan hanya sekadar sistem superkomputer, tetapi juga sebuah langkah besar menuju masa depan AI yang lebih cepat, efisien, dan dapat diandalkan. Untuk para ilmuwan, insinyur, dan penyedia layanan AI, ini adalah inovasi yang akan membuka peluang baru dalam pengembangan teknologi kecerdasan buatan.
Eksplorasi konten lain dari Gizmologi.id
Berlangganan untuk dapatkan pos terbaru lewat email.




