Perlumbaan pengkomputeran AI terus memecut apabila Nvidia mendedahkan generasi seterusnya perkakasan yang direka untuk memacu beban kerja kecerdasan buatan yang paling menuntut. Membina berdasarkan seni bina Blackwell yang sudah mengesankan, syarikat itu telah mengumumkan peningkatan yang ketara dengan Blackwell Ultra GB300, menjanjikan peningkatan prestasi yang besar dan kapasiti memori yang diperluaskan untuk mengendalikan model AI yang semakin kompleks.
![]() |
---|
Nvidia Blackwell Ultra GB300 mewakili peningkatan penting dalam teknologi pengkomputeran AI |
Blackwell Ultra GB300: Lonjakan Prestasi untuk Pengkomputeran AI
Blackwell Ultra GB300 yang baru diumumkan oleh Nvidia mewakili evolusi besar platform pengkomputeran AI syarikat itu. Dijadualkan untuk dihantar pada separuh kedua 2025, GB300 mengekalkan prestasi AI 20 petaflops yang sama bagi setiap cip seperti Blackwell asal tetapi meningkatkan kapasiti memori secara ketara kepada 288GB memori HBM3e, meningkat daripada 192GB dalam versi standard. Peningkatan memori sebanyak 50% ini membolehkan pengendalian model AI yang lebih besar dan beban kerja yang lebih kompleks. Penyelesaian skala rak GB300 NVL72 menghubungkan 72 GPU Blackwell Ultra dengan 36 CPU berasaskan Arm Neoverse, berfungsi sebagai satu GPU besar yang mampu memberikan prestasi pengkomputeran FP4 sebanyak 1.1 exaflops.
Spesifikasi Utama Nvidia Blackwell Ultra (GB300):
- Prestasi AI: 20 petaflops setiap cip (sama seperti Blackwell standard)
- Memori: 288GB HBM3e (peningkatan 50% daripada 192GB)
- Prestasi Rak GB300 NVL72: 1.1 exaflops pengiraan FP4
- Memori GB300 NVL72: 20TB memori HBM, 40TB "memori pantas"
- Jalur Lebar NVLink: 130TB/saat
- Rangkaian: 14.4 TB/saat
- Garis Masa Pelancaran: Separuh kedua 2025
Keupayaan Penaakulan AI yang Dipertingkatkan
Salah satu kemajuan paling ketara dalam Blackwell Ultra adalah keupayaannya untuk mempercepatkan tugas penaakulan AI. Menurut Nvidia, konfigurasi GB300 NVL72 boleh menjalankan salinan interaktif DeepSeek-R1 671B dan memberikan jawapan dalam masa hanya sepuluh saat, berbanding dengan 1.5 minit yang diperlukan oleh generasi sebelumnya, H100. Peningkatan dramatik ini berpunca daripada keupayaan untuk memproses 1,000 token sesaat, sepuluh kali kadar cip Nvidia 2022. Peningkatan ini membolehkan model AI meneroka pelbagai laluan penyelesaian dan memecahkan permintaan kompleks kepada beberapa langkah, menghasilkan respons berkualiti lebih tinggi.
Perbandingan Prestasi:
- Blackwell Ultra berbanding H100: 11x lebih pantas untuk inferens pada model bahasa besar
- Blackwell Ultra berbanding H100: 7x lebih banyak pengkomputeran
- Blackwell Ultra berbanding H100: 4x memori yang lebih besar
- Pemprosesan token Blackwell Ultra: 1,000 token/saat (10x lebih pantas daripada cip 2022)
- Rak Rubin Ultra berbanding rak Blackwell Ultra: 14x peningkatan prestasi
Memperluaskan Akses dengan DGX Station
Dalam perubahan menarik berbanding pelancaran perkakasan AI berteknologi tinggi sebelum ini, Nvidia akan menjadikan cip Blackwell Ultra tunggal tersedia dalam format desktop yang dipanggil DGX Station. Stesen kerja yang berkuasa ini mempunyai satu GPU GB300 Blackwell Ultra, 784GB memori sistem bersatu, dan rangkaian Nvidia 800Gbps terbina dalam. Pengeluar utama termasuk Asus, Dell, HP, Boxx, Lambda, dan Supermicro akan menawarkan versi sistem desktop ini, membawa keupayaan pengkomputeran AI berskala rak sebelumnya kepada stesen kerja individu.
Peta Jalan Masa Depan: Vera Rubin dan Seterusnya
Melihat ke hadapan, Nvidia juga mendedahkan seni bina Vera Rubin yang akan datang, dijadualkan pada separuh kedua 2026, yang akan menawarkan prestasi FP4 50 petaflops bagi setiap cip—2.5 kali ganda prestasi Blackwell Ultra. Ini akan diikuti oleh Rubin Ultra pada separuh kedua 2027, yang secara efektif mengandungi dua GPU Rubin yang dihubungkan bersama untuk memberikan prestasi FP4 100 petaflops dan hampir empat kali ganda memori pada 1TB. Rak penuh NVL576 Rubin Ultra dijangka menyediakan 15 exaflops inferens FP4 dan 5 exaflops latihan FP8, mewakili peningkatan prestasi sebanyak 14 kali ganda berbanding rak Blackwell Ultra tahun ini.
Pelan Hala Tuju GPU Nvidia:
- Blackwell Ultra (GB300): Separuh kedua 2025, 288GB HBM3e
- Vera Rubin: Separuh kedua 2026, 50 petaflops FP4
- Rubin Ultra: Separuh kedua 2027, 100 petaflops FP4, 1TB memori
- Feynman: 2028
Kesan Pasaran dan Permintaan Industri
Ketua Pegawai Eksekutif Nvidia, Jensen Huang, menekankan semasa pengumuman bahawa industri memerlukan 100 kali ganda lebih daripada yang kita fikir kita perlukan pada masa ini tahun lepas untuk mengikuti permintaan pengkomputeran AI. Kenyataan ini dibuat semasa Nvidia mendedahkan bahawa mereka telah menghantar perkakasan Blackwell bernilai USD $11 bilion, dengan empat pembeli teratas sahaja membeli 1.8 juta cip Blackwell setakat ini pada 2025. Angka-angka ini menggariskan pertumbuhan pesat dalam keperluan pengkomputeran AI dan kedudukan dominan Nvidia dalam membekalkan perkakasan yang diperlukan.
Melihat Lebih Jauh ke Hadapan
Melangkaui Vera Rubin, Nvidia mengumumkan bahawa seni bina 2028 mereka akan dinamakan Feynman, mungkin sempena ahli fizik teori terkenal Richard Feynman. Peta jalan berterusan ini menunjukkan komitmen Nvidia untuk mengekalkan kedudukan kepimpinannya dalam perkakasan pengkomputeran AI untuk masa depan yang boleh diramalkan, dengan setiap generasi menjanjikan peningkatan prestasi yang ketara untuk memenuhi permintaan beban kerja kecerdasan buatan yang berkembang pesat.