Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Tidak ada yang lebih memahami "komputasi AI generasi berikutnya" daripada NVIDIA
Sumber: Geek Park
Tulis artikel: Xu Shan
「Saya yakin ini adalah pesta teknologi. Hari ini di sini, setiap orang mewakili ekosistem Nvidia.」Di acara pembukaan GTC 2026, pria yang selalu mengenakan jaket kulit hitam itu—黄仁勋—langsung naik ke panggung dengan kepercayaan diri khasnya.
Berbeda dari pembukaan tahun-tahun sebelumnya, tahun ini adalah peringatan 20 tahun ekosistem CUDA. Sejak awal, 黄仁勋 menceritakan bagaimana Nvidia berkembang dari Geforce ke ray tracing, lalu ke AI cerdas, membangun parit pelindungnya secara bertahap. 「Sekarang ekosistem CUDA telah membentuk roda data yang berputar cepat.」Dalam ceritanya, kita bisa melihat bahwa ekosistem CUDA yang dia bangun sendiri telah menjadi kerajaan bisnis.
Dalam konferensi ini, 黄仁勋 memperkenalkan Vera Rubin, chip khusus untuk AI agen cerdas, dengan daya komputasi mencapai 3,6 EFLOPS floating point. Dengan rack terbaru yang diluncurkan, throughput daya komputasi per megawatt meningkat 35 kali lipat. Selain itu, dia juga meluncurkan CPU Vera CPU yang dirancang untuk performa thread tunggal sangat tinggi.
Yang lebih penting, Nvidia juga meluncurkan solusi referensi perusahaan OpenClaw, NemoClaw. Kamu bisa langsung mengunduh, menggunakan, mengembangkan, dan mengintegrasikannya dengan semua perusahaan SaaS di seluruh dunia. Dibandingkan itu, tahun ini Nvidia mengurangi fokus pada robot, kendaraan otomatis, dan komputasi kuantum dalam pidato utama mereka.
Setelah mendengar pidato ini, kamu akan merasa bahwa kita berada di awal revolusi platform komputasi baru. Seperti lahirnya Google dan Amazon dalam gelombang revolusi sebelumnya, dalam ledakan besar AI ini, sekelompok “raksasa AI” yang mengubah dunia sedang berkembang.
黄仁勋 dengan daftar panjang perusahaan yang dia pegang di setiap tahap adalah bukti kepercayaan dirinya. Dia tidak hanya mendefinisikan komputasi, tetapi juga memanfaatkan AI sebagai poros utama, secara paksa menarik seluruh dunia ke dalam “Era AI” yang didominasi GPU—dari keuangan, kesehatan, manufaktur, hingga ritel.
Sekali lagi, Nvidia melihat masa depan AI, dan saat ini, mereka menarik seluruh dunia untuk ikut melompat ke dalamnya.
01 Vera Rubin: 7 chip revolusioner, 5 sistem rack, 1 superkomputer
「Hanya dalam sepuluh tahun, daya komputasi melonjak 40 juta kali lipat.」Nvidia meninjau pertumbuhan pesat daya komputasi selama 10 tahun terakhir berdasarkan tiga hukum pengembangan utama, dari pra-pelatihan, fine-tuning, inferensi, hingga sistem kecerdasan umum saat ini, kebutuhan komputasi tetap meningkat secara eksponensial.
Dalam era AI Agen, Nvidia memperkenalkan Vera Rubin. Dirancang untuk seluruh siklus hidup AI agen, dari tingkat chip hingga mendefinisikan ulang CPU, penyimpanan, jaringan, dan keamanan yang dibutuhkan oleh AI cerdas.
Dari segi parameter, Vera Rubin dilengkapi NVLink 6, dengan daya komputasi total mencapai 3,6 EFLOPS, menjadi mesin utama penggerak era AI agen. Tidak hanya itu, dibandingkan generasi sebelumnya, sistem Vera Rubin sepenuhnya menggunakan pendinginan cair 100%, menghilangkan semua kabel konvensional.
Secara konfigurasi, rack Vera CPU saat ini dirancang khusus untuk orkestrasi dan beban kerja umum. Sementara rack STX berbasis BlueField-4 dibangun untuk penyimpanan AI asli. Dengan teknologi optik Spectrum-6 yang terintegrasi secara horizontal, efisiensi energi dan keandalannya meningkat secara signifikan.
Selain itu, rack Groq 3 LPX terhubung secara mendalam dengan Vera Rubin, dengan LPU Groq yang mengintegrasikan 230MB SRAM on-chip, menambah kecepatan komputasi secara keseluruhan.
Seluruh sistem ini, dengan tujuh chip dan lima sistem rack, meningkatkan throughput daya komputasi per megawatt hingga 35 kali lipat. Tidak diragukan lagi, platform Vera Rubin, dengan tujuh chip dan lima sistem rack, menciptakan superkomputer AI revolusioner yang ditujukan untuk kecerdasan umum.
Saat menjelaskan ide desain produk, 黄仁勋 berpendapat bahwa model bahasa besar akan menjadi semakin besar, jumlah token yang dihasilkan akan semakin banyak dan cepat, agar mampu berpikir lebih cepat. Tetapi, mereka juga harus sering mengakses memori, yang memberi tekanan besar pada memori, termasuk cache KV, data terstruktur QDF, data tidak terstruktur QVS, dan lain-lain. Oleh karena itu, sistem penyimpanan harus ditulis ulang secara radikal.
Menuju era Agentic, AI akan menggunakan berbagai alat dan membutuhkan kecepatan tinggi untuk browser web dan alat PC virtual. Oleh karena itu, PC dan node komputasi ini harus lebih cepat. Nvidia menciptakan CPU Vera CPU yang dirancang khusus untuk performa thread tunggal sangat tinggi, dengan output data yang tinggi, efisiensi data yang kuat, dan efisiensi energi yang baik. Menurut pengumuman, ini adalah CPU pusat data satu-satunya di dunia yang menggunakan LPDFR5X, dengan performa thread tunggal dan per watt yang optimal.
Vera Rubin series|Sumber: Nvidia
「Kami membuat CPU ini untuk mendukung seluruh rangkaian rack dalam menangani tugas AI agen. Produk ini juga sudah diproduksi massal. Kami tidak pernah berniat menjual CPU secara terpisah, tetapi sekarang penjualan CPU independen kami sangat signifikan. Ini pasti akan menjadi bisnis bernilai miliaran dolar. Saya sangat puas dengan tim arsitektur CPU kami.」kata 黄仁勋.
黄仁勋 juga memamerkan Rubin Ultra secara langsung. Berbeda dari Rubin biasa yang dipasang secara horizontal, Rubin Ultra menggunakan rack Groq baru yang dipasang secara vertikal. 「Rack Groq ini sangat berat, saya pasti tidak bisa mengangkatnya, jadi saya tidak akan mencobanya.」
Groq rack|Sumber: Nvidia
Di bagian belakang papan tengah, Nvidia tidak lagi menggunakan kabel tembaga konvensional. Mereka berpendapat bahwa kabel tembaga memiliki batas jarak transmisi, dan menggantinya dengan sistem baru yang menghubungkan 144 GPU. Inilah NVLink generasi baru. Sistem ini juga dipasang secara vertikal, terhubung ke papan belakang. Di bagian depan adalah komputasi, di belakang adalah switch NVLink, membentuk satu komputer raksasa.
Kembali ke pertanyaan utama, berapa banyak manfaat nyata yang bisa diberikan arsitektur chip baru ini? 黄仁勋 menyebutkan bahwa chip akhirnya akan mempengaruhi posisi pasar dan penetapan harga token di masa depan.
「Token adalah komoditas besar yang baru. Seperti semua barang, setelah melewati titik balik dan matang, akan terbagi menjadi lapisan dan tingkatan.」Dia membagi token masa depan menjadi beberapa kategori:
「Semakin besar modelnya, semakin tinggi tingkat kecerdasannya; semakin panjang konteks input token, semakin akurat dan relevan hasilnya; semakin cepat, semakin lengkap proses berpikir dan iterasi, AI akan semakin pintar. Semakin cerdas modelnya, setiap kenaikan level akan meningkatkan harga. Misalnya, menjadi sekitar 45 dolar per paket.」Dia yakin konsumsi token di masa depan akan mengubah segalanya.
Dalam visinya, jika seorang peneliti menggunakan 50 juta token setiap hari, dengan harga 150 dolar per juta token, ini sebenarnya sangat terjangkau untuk sebuah tim riset. 「Ini adalah masa depan AI.」Dari sudut pandang pelanggan, dia membayangkan mengalokasikan seluruh sumber daya komputasi: 25% daya untuk paket gratis, 25% untuk paket menengah, 25% untuk paket tinggi, dan 25% untuk paket premium. Jika pusat data mereka hanya menggunakan 1 GW daya, pelanggan bisa memutuskan bagaimana membagi sumber daya ini. Paket gratis menarik lebih banyak pengguna, paket tinggi melayani pelanggan paling bernilai. Kombinasi ini akhirnya menentukan pendapatan mereka.
Berdasarkan model sederhana ini, dia menyatakan bahwa dengan platform Blackwell, pendapatan bisa meningkat 5 kali lipat dibanding Hopper. Dan Vera Rubin bisa meningkatkan pendapatan 5 kali lipat dibanding Blackwell.
Vera Rubin|Sumber: Nvidia
Sistem komputasi Groq adalah prosesor aliran data deterministik, menggunakan arsitektur kompilasi statis dan penjadwalan compiler. Artinya, semua penjadwalan waktu, seperti kapan data ditransfer, kapan perhitungan dilakukan, dan bagaimana sinkronisasi data, sudah direncanakan sebelumnya oleh compiler secara statis, melalui penjadwalan perangkat lunak, tanpa penjadwalan dinamis. Arsitektur ini dilengkapi HBM berkapasitas besar, khusus untuk beban kerja inferensi.
Saat ini, Groq 3 LPU sudah memasuki tahap produksi massal, diperkirakan akan mulai dikirim pada kuartal ketiga tahun ini.
Sedangkan Vera Rubin, meskipun prototipe awal Grace Blackwell sangat kompleks dan membutuhkan simulasi 72 jalur interkoneksi, sampel Vera Rubin telah selesai diuji, dan rangka Vera Rubin pertama sudah berjalan di Microsoft Azure.
Saat ini, Nvidia sedang memproduksi secara penuh rack Vera Rubin dan rack GB300, dengan rantai pasokan yang mampu memproduksi ribuan sistem setiap minggu.
Platform chip Nvidia berikutnya bernama arsitektur Feynman.
Selain itu, baik Groq maupun Vera Rubin akan menjadi komponen inti dari pabrik AI Nvidia.
Satu chip Groq hanya memiliki 500MB penyimpanan; sementara satu chip GPU Rubin akan memiliki memori sebesar 288GB HBM4.
Model parameter triliunan harus disimpan di chip Groq, yang membutuhkan banyak chip untuk memastikan kapasitas penyimpanan. Tetapi jika ditempatkan di samping Vera Rubin, dapat menyimpan cache KV besar yang dibutuhkan sistem AIGC.
Oleh karena itu, Nvidia merestrukturisasi alokasi sumber daya inferensi AI—menyerahkan pekerjaan yang paling cocok ke chip yang paling sesuai.
Dalam visi 黄仁勋, bagian Attention dalam decoding model, yang membutuhkan banyak perhitungan, dapat diselesaikan di Vera Rubin; sementara bagian generasi token decoding dapat dilakukan di chip Groq.
Dengan penggabungan mode Ethernet khusus yang terintegrasi erat, kedua chip ini dapat mengurangi latensi Alpamayo hampir separuh. Dengan bantuan perangkat lunak pengaturan dan integrasi Nvidia Dynamo, arsitektur Vera Rubin yang dipadukan dengan Groq LPU meningkatkan performa inferensi tingkat tinggi hingga 35 kali lipat.
02 NemoClaw: Referensi komersial AIOS
「OpenClaw adalah proyek open-source paling populer dalam sejarah manusia, dan hanya dalam beberapa minggu mencapai prestasi ini. Kecepatan pengembangannya bahkan melampaui Linux saat itu.」黄仁勋 menyebutkan, OpenClaw dapat berinteraksi dengan modal apa pun dan memahami semuanya; dapat mengirim pesan, SMS, email. Ia memiliki kemampuan IO lengkap.
「OpenClaw membuka sistem operasi komputer agen cerdas. Ini seperti Windows yang memungkinkan kita menciptakan PC pribadi di masa lalu, sekarang OpenClaw memungkinkan kita menciptakan agen cerdas pribadi.」
黄仁勋 berpendapat bahwa bagi setiap perusahaan, CEO perusahaan perangkat lunak, dan perusahaan teknologi, pertanyaan terpenting saat ini adalah: apa strategi OpenClaw Anda?
「Seperti kita semua membutuhkan strategi Linux, strategi HTTP, HTML—yang membuka era internet; membutuhkan strategi Kubernetes—yang menciptakan era cloud mobile. Saat ini, setiap perusahaan di dunia harus memiliki strategi OpenClaw, yaitu strategi sistem agen cerdas. Ini adalah komputer generasi baru.」
Dia yakin bahwa cara kerja dan bahkan sistem pembayaran gaji perusahaan di masa depan akan berubah.
Sebelum OpenClaw, model IT perusahaan adalah “pusat data”, karena di ruang besar dan gedung itu tersimpan data, dokumen, dan data terstruktur perusahaan. Data mengalir melalui perangkat lunak alat, sistem pencatatan, dan alur kerja yang tertanam dalam IT, akhirnya menjadi alat bagi manusia dan pekerja digital. Dalam industri IT lama, perusahaan perangkat lunak membuat alat, menyimpan file, dan konsultan IT membantu perusahaan menggunakan dan mengintegrasikan alat tersebut.
Struktur perusahaan masa depan|Sumber: Nvidia
Namun, di era OpenClaw dan era agen cerdas, setiap perusahaan IT, perusahaan, dan SaaS akan menjadi “perusahaan layanan agen” (Agent-as-a-Service, AAS).
Namun, ada masalah penting yang belum terselesaikan—sistem agen di jaringan perusahaan dapat mengakses informasi sensitif, menjalankan kode, dan berkomunikasi dengan luar. Mereka bisa saja mengakses data karyawan, rantai pasokan, rahasia keuangan, dan data sensitif lainnya, lalu mengirim data tersebut keluar, menimbulkan risiko keamanan.
Selanjutnya, Nvidia meluncurkan solusi referensi NVIDIA OpenClaw—Open NemoClaw.
NemoClaw|Sumber: Nvidia
Ini dilengkapi dengan rangkaian lengkap alat AI agen, salah satu teknologi intinya adalah modul OpenShell, yang sudah terintegrasi penuh ke dalam OpenClaw. Pengguna dapat langsung mengunduh, menggunakan, mengembangkan, dan mengintegrasikannya dengan strategi semua SaaS di seluruh dunia.
Selain itu, pengguna dapat menghubungkan strategi ini, menerapkan kebijakan keamanan, mengatur penghalang jaringan, menjalankan routing privasi, dan melindungi lingkungan internal perusahaan, sehingga agen dapat berjalan secara aman dan terkendali. Open NemoClaw juga mendukung pengguna membangun agen kustom dengan model eksklusif mereka sendiri.
NemoClaw yang dilengkapi model Nvidia dalam daftar produk serupa OpenClaw|Sumber: Nvidia
Dia berpendapat bahwa salah satu metode perekrutan di Silicon Valley di masa depan adalah: 「Berapa banyak token yang disediakan untuk pekerjaan ini?」
Pada saat itu, gaji pokok karyawan mungkin puluhan ribu dolar, dan perusahaan akan memberikan setengah gaji mereka dalam bentuk token, sehingga produktivitas mereka akan meningkat 10 kali lipat.
Setiap perusahaan perangkat lunak di masa depan akan didorong oleh agen cerdas. Mereka akan menjadi produsen token, pengguna token, dan juga penyedia token untuk semua pelanggan.
03 AI fisik: BYD, Geely bergabung dalam komunitas Robotaxi Nvidia, Disney Snow White tampil sebagai penutup
Setelah membahas perubahan di tingkat aplikasi, 黄仁勋 beralih ke arah AI fisik dan memperkenalkan keluarga AI fisik mereka.
Pengaturan AI fisik Nvidia|Sumber: Nvidia
Saat ini Nvidia memiliki tiga jenis komputer: untuk pelatihan, untuk sintesis data dan simulasi, dan komputer onboard kendaraan robot.
Nvidia juga mengumumkan banyak mitra baru. 「Waktu ChatGPT untuk mengemudi otomatis telah tiba. Sekarang kami yakin, mobil bisa mencapai otomatis penuh yang sukses.」kata 黄仁勋.
Nvidia mengumumkan empat mitra baru untuk platform taksi otomatis NVIDIA (Robotaxi): BYD, Hyundai, Nissan, Geely. Produsen ini memproduksi total 18 juta mobil per tahun. Ditambah mitra yang sudah bergabung seperti Mercedes-Benz, Toyota, GM, jumlah mobil yang mendukung Robotaxi akan sangat besar. Nvidia juga mengumumkan akan mengintegrasikan kendaraan yang mendukung Robotaxi ini ke jaringan operasional mitra di berbagai kota.
Di masa depan, menara radio konvensional akan berubah menjadi stasiun dasar pintar NVIDIA Aerial AI RIM. Mereka akan menjadi “menara radio Robotaxi”. Pada saat itu, perusahaan dapat memahami kondisi lalu lintas, secara cerdas menyesuaikan beamforming, memaksimalkan fidelitas, dan menghemat energi sebanyak mungkin.
Dia juga menyebutkan bahwa berkat Alpamayo Nvidia, kendaraan kini memiliki kemampuan inferensi, dapat berjalan aman dan cerdas dalam berbagai skenario. Kita bisa membuat kendaraan menjelaskan proses pengambilan keputusan dan berpikir mereka, serta langsung mengikuti perintah suara.
Misalnya, kita berkata ke mobil: 「Hey Mercedes, bisakah kita mempercepat sedikit?」, mobil akan menjawab: 「Tentu, saya akan mempercepat sekarang.」Dengan menggabungkan simulasi tradisional dan neuro-simulasi, mereka menghasilkan data sintetik dalam jumlah besar dan melatih model strategi secara massal.
Kali ini, Nvidia juga membuat berbagai alat sumber terbuka: Isaac Lab untuk pelatihan dan evaluasi robot dalam simulasi; Newton, mesin simulasi fisika diferensial yang dapat diperluas dan dipercepat GPU; Cosmos, model dunia untuk simulasi neural; GR00T, model dasar robot sumber terbuka untuk inferensi dan aksi robot.
Di akhir pidato utama, robot Snow White dari Disney tampil di panggung, saat ini robot Disney sedang dilatih menggunakan simulasi Nvidia. 「Saya pribadi sangat menantikan robot dari Disney.」kata 黄仁勋.
黄仁勋 dan Snow White melambaikan tangan mengucapkan selamat tinggal di GTC|Sumber: Nvidia
Tahun ini, apa yang disampaikan 黄仁勋 di GTC bukan lagi sekadar arahan dan slogan, tetapi satu rangkaian alat yang benar-benar bisa langsung digunakan oleh pengusaha AI saat ini.
Dari chip AI, ekosistem AI agen OpenClaw, hingga AI fisik, robot, dan penerapan skala besar kendaraan otomatis. Ia memberikan jawaban tentang jalan yang harus ditempuh industri AI dalam beberapa tahun ke depan, masalah paling sulit, dan hambatan terbesar. Setiap perusahaan dan pengembang dapat menemukan tempat mereka dalam kerangka baru ini.
Mulai tahun ini, AI tidak lagi sekadar mengumpulkan parameter, mengandalkan kekuatan komputasi, dan bercerita, tetapi mulai menyasar perusahaan dan praktik nyata. Mungkin ini bukan kemenangan satu perusahaan, tetapi awal dari roda penggerak AI yang benar-benar mulai berputar.