Beberapa pihak di Wall Street mengkhawatirkan bahwa persaingan terhadap Nvidia semakin ketat — dan bahwa pengeluaran untuk AI tidak dapat terus berlanjut dengan kecepatan saat ini.
Operator pusat data juga sedang mengembangkan akselerator AI mereka sendiri. Namun, Nvidia tetap mempertahankan proyeksi jangka panjang yang optimis, yang menunjuk pada pasar total senilai triliunan dolar.
Rubin adalah akselerator terbaru Nvidia dan 3,5 kali lebih baik dalam pelatihan serta 5 kali lebih baik dalam menjalankan software AI dibandingkan pendahulunya, Blackwell, kata perusahaan tersebut.
Prosesor pusat baru ini memiliki 88 core — elemen utama untuk pemrosesan data — dan memberikan kinerja dua kali lipat dibandingkan komponen yang digantikannya.
Nvidia mengumumkan detail produk barunya lebih awal dari biasanya — sebagai bagian dari upaya untuk menjaga industri tetap bergantung pada hardware-nya, yang telah menjadi pendorong ledakan penggunaan AI. Nvidia biasanya membahas detail produk di acara GTC musim semi di San Jose, California.
Meskipun mempromosikan penawaran baru, Nvidia mengatakan generasi produk sebelumnya masih berkinerja baik. Mereka melihat permintaan kuat dari pelanggan di China untuk chip H200, yang dikatakan oleh pemerintahan Trump akan dipertimbangkan untuk diizinkan dikirim ke negara tersebut.
Permohonan lisensi telah diajukan, dan pemerintah AS sedang memutuskan apa yang akan dilakukan dengan permohonan tersebut, kata CFO Colette Kress kepada analis.
Terlepas dari tingkat persetujuan lisensi, Kress mengatakan, Nvidia memiliki pasokan yang cukup untuk melayani pelanggan di negara Asia tersebut tanpa mengganggu kemampuan perusahaan untuk mengirimkan produk ke pelanggan di belahan dunia lain.
Bagi Huang, CES adalah titik tolak dalam rangkaian penampilannya di berbagai acara, di mana dirinya mengumumkan produk, kemitraan, dan investasi yang bertujuan untuk mempercepat penerapan sistem AI.
Rekannya sekaligus pimpinan produsen chip AMD, Lisa Su, dijadwalkan memberikan presentasi utama di acara tersebut pada Senin sore.
Perangkat baru, yang juga mencakup komponen jaringan dan konektivitas, akan menjadi bagian dari superkomputer DGX SuperPod perusahaan tersebut sambil juga tersedia sebagai produk terpisah bagi pelanggan untuk digunakan secara lebih modular.
Peningkatan kinerja ini diperlukan karena AI telah beralih ke jaringan model yang lebih spesifik, yang tidak hanya memproses jumlah input yang besar tetapi juga perlu menyelesaikan masalah tertentu melalui proses bertahap.
Perusahaan menekankan bahwa sistem berbasis Rubin akan lebih murah untuk dioperasikan dibandingkan versi Blackwell karena akan menghasilkan hasil yang sama dengan menggunakan jumlah komponen yang lebih sedikit.
Microsoft Corp. dan penyedia komputasi jarak jauh besar lainnya akan menjadi yang pertama mengimplementasikan perangkat baru ini pada paruh kedua tahun ini, kata Nvidia.
Saat ini, sebagian besar pengeluaran untuk komputer berbasis Nvidia berasal dari anggaran belanja modal sejumlah pelanggan, termasuk Microsoft, Google Cloud milik Alphabet Inc., dan AWS milik Amazon.com Inc.
Khusus Nvidia, ini tengah mendorong software dan perangkat hardware yang bertujuan memperluas adopsi AI di seluruh ekonomi, termasuk robotika, perawatan kesehatan, dan industri berat.
Sebagai bagian dari upaya tersebut, Nvidia mengumumkan sekelompok alat yang dirancang untuk mempercepat pengembangan kendaraan otonom dan robot.
(bbn)






























