Saya belum mengatasi kekurangan besar ini.
Masih menghantui saya karena itu adalah taruhan paling jelas bagi siapa saja yang memperhatikan, namun saya tidak menginvestasikan satu dolar pun.
Tidak, ini bukan pembunuh Solana berikutnya atau memecoin dengan anjing yang mengenakan topi lucu.
Itu adalah… NVIDIA.
Harga saham NVDA sepanjang tahun. Sumber: Google
Hanya dalam satu tahun, NVDA melonjak 3x, melonjak dari kapitalisasi pasar $1T menjadi $3T. Bahkan melebihi kinerja Bitcoin selama periode yang sama.
Tentu saja, sebagian dari itu adalah hipe AI. Tetapi sebagian besar dari itu didasarkan pada kenyataan. NVIDIA melaporkan pendapatan sebesar $60 miliar untuk FY2024, peningkatan yang mencengangkan sebesar 126% dari tahun 2023. Pertumbuhan ini didorong oleh Big Tech yang mengambil GPU dalam perlombaan senjata AI global menuju AGI.
Jadi mengapa saya melewatinya?
Selama dua tahun, saya sangat fokus pada kripto dan tidak melihat ke arah luar untuk melihat apa yang terjadi di bidang kecerdasan buatan. Itu adalah kesalahan besar, dan itu masih mengganggu saya.
Tapi saya tidak membuat kesalahan yang sama dua kali.
Hari ini, Crypto AI terasa sangat mirip. Kita berada di ambang ledakan inovasi. Paralel dengan Demam Emas California pada pertengahan abad ke-19 sulit diabaikan - industri dan kota tumbuh dalam semalam, infrastruktur maju dengan kecepatan tinggi, dan kekayaan dibuat oleh mereka yang berani melompat.
Seperti NVIDIA pada awalnya, Kripto AI akan terasa jelas ketika dilihat ke belakang.
Di Bagian I dari tesis saya, Saya menjelaskan mengapa Kripto AI adalah peluang underdog paling menarik untuk para investor dan pembangun saat ini.
Berikut adalah ringkasan singkat:
Pada intinya, Crypto AI adalah AI dengan infrastruktur kripto yang disusun di atasnya. Ini berarti lebih mungkin untuk melacak lintasan pertumbuhan eksponensial AI daripada pasar kripto secara keseluruhan. Jadi, untuk tetap unggul, Anda harus membiasakan diri dengan penelitian AI terbaru di Arxiv dan berbicara dengan para pendiri yang yakin bahwa mereka sedang membangun sesuatu yang besar berikutnya.
Di Bagian II tesis saya, saya akan menyelami empat subsektor paling menjanjikan dalam Kripto AI:
Potongan ini mewakili puncak dari berbulan-bulan penelitian mendalam dan percakapan dengan pendiri dan tim di berbagai bidang Crypto AI. Ini tidak dirancang untuk menjadi panduan mendalam yang lengkap untuk setiap sektor - itu adalah lubang kelinci untuk hari lain.
Sebagai gantinya, anggaplah itu sebagai peta jalan tingkat tinggi yang dirancang untuk memancing rasa ingin tahu, mempertajam riset Anda, dan membimbing pemikiran investasi.
Saya membayangkan tumpukan AI terdesentralisasi sebagai ekosistem berlapis: dimulai dengan komputasi terdesentralisasi dan jaringan data terbuka di satu ujung, yang menggerakkan pelatihan model AI terdesentralisasi.
Setiap inferensi kemudian diverifikasi - baik input maupun output - menggunakan kombinasi kriptografi, insentif kriptoekonomi, dan jaringan evaluasi. Output yang diverifikasi ini mengalir ke agen AI yang dapat beroperasi secara mandiri on-chain, serta aplikasi AI konsumen dan perusahaan yang pengguna benar-benar bisa percaya.
Jaringan koordinasi mengikat semuanya menjadi satu, memungkinkan komunikasi dan kolaborasi tanpa hambatan di seluruh ekosistem.
Dalam visi ini, siapa pun yang membangun di bidang kecerdasan buatan dapat menggunakan satu atau lebih lapisan dari tumpukan ini, tergantung pada kebutuhan spesifik mereka. Baik itu memanfaatkan komputasi terdesentralisasi untuk pelatihan model atau menggunakan jaringan evaluasi untuk memastikan keluaran berkualitas tinggi, tumpukan ini menawarkan berbagai pilihan.
Berkat komposabilitas alami blockchain, saya percaya kita secara alami bergerak menuju masa depan modular. Setiap lapisan menjadi sangat khusus, dengan protokol yang dioptimalkan untuk fungsi yang berbeda daripada pendekatan terpadu yang all-in-one.
Sumber: topology.vc
Telah terjadi ledakan Kambrion dari startup yang membangun di setiap lapisan tumpukan AI terdesentralisasi, kebanyakan didirikan hanya dalam 1 - 3 tahun terakhir. Jelas: kita masih awal.
Peta paling komprehensif dan terkini dari lanskap startup Crypto AI yang pernah saya lihat dikelola oleh Casey dan timnya di gate.iotopology.vc. Ini adalah sumber daya yang sangat berharga bagi siapa pun yang melacak ruang ini.
Ketika saya mempelajari subsektor Crypto AI, saya selalu bertanya pada diri sendiri: seberapa besar peluang di sini? Saya tidak tertarik dengan taruhan kecil - saya mencari pasar yang dapat berkembang menjadi ratusan miliar.
Mari kita mulai dengan ukuran pasar. Ketika mengevaluasi subsektor, saya bertanya pada diri sendiri: apakah itu menciptakan pasar baru atau mengganggu yang sudah ada?
Ambillah komputasi terdesentralisasi sebagai contoh. Ini merupakan kategori yang mengganggu yang potensinya dapat diperkirakan dengan melihat pasar komputasi awan yang mapan, senilai ~$680B hari inidan diperkirakan akan mencapai $2.5T pada tahun 2032.
Pasar-pasar baru tanpa preseden, seperti agen AI, lebih sulit untuk diperkirakan. Tanpa data historis, menentukan ukurannya melibatkan campuran perkiraan yang berpendidikan dan pengecekan insting terhadap masalah yang mereka selesaikan. Dan jebakan nya adalah bahwa terkadang, apa yang terlihat seperti pasar baru sebenarnya hanya solusi yang mencari masalah.
Waktu adalah segalanya. Teknologi cenderung membaik dan menjadi lebih murah dari waktu ke waktu, tetapi laju kemajuan bervariasi.
Seberapa matang teknologi dalam subsektor tertentu? Apakah sudah siap untuk berkembang, atau masih dalam tahap penelitian, dengan aplikasi praktis beberapa tahun lagi? Waktu menentukan apakah suatu sektor layak mendapat perhatian segera atau sebaiknya dibiarkan dalam kategori “tunggu dan lihat”.
Ambil Enkripsi Fully Homomorfik (FHE) sebagai contoh: potensinya tidak terbantahkan, tetapi saat ini masih terlalu lambat untuk digunakan secara luas. Kemungkinan kita masih beberapa tahun lagi sebelum melihatnya mencapai kelayakan mainstream. Dengan memfokuskan pada sektor yang lebih dekat dengan skala pertama, saya dapat menghabiskan waktu dan energi saya di mana momentum—dan peluang—sedang dibangun.
Jika saya harus memetakan kategori-kategori ini dalam grafik ukuran vs. waktu, maka akan terlihat seperti ini. Ingatlah bahwa ini lebih berupa sketsa konseptual daripada panduan yang pasti. Ada banyak nuansa—misalnya, dalam inferensi yang dapat diverifikasi, pendekatan yang berbeda seperti zkML dan opML berada pada tingkat kesiapan yang berbeda untuk digunakan.
Dengan begitu, saya yakin bahwa skala AI akan sangat besar sehingga bahkan apa pun yang terlihat “niche” hari ini bisa berkembang menjadi pasar yang signifikan.
Sangat penting untuk dicatat bahwa kemajuan teknologi tidak selalu mengikuti garis lurus - seringkali terjadi dalam loncatan. Pandangan saya tentang waktu dan ukuran pasar akan berubah ketika terjadi terobosan yang muncul.
Dengan kerangka ini dalam pikiran, mari kitauraikan masing-masing sub-sektor.
Beberapa tim AI Kripto sedang memposisikan diri untuk mendapatkan keuntungan dari kurangnya GPU dibandingkan dengan permintaan dengan membangun jaringan terdesentralisasi yang memanfaatkan kekuatan komputasi laten global.
Proposisi nilai inti bagi pasar GPU adalah 3-fold:
Untuk mengatasi sisi pasokan pasar, pasar ini mendapatkan komputasi dari:
Di sisi lain, permintaan untuk komputasi terdesentralisasi hari ini berasal dari:
Hal kunci yang perlu diingat: pengembang selalu mengutamakan biaya dan keandalan.
Start-up di ruang ini sering menonjolkan ukuran jaringan pasokan GPU mereka sebagai tanda kesuksesan. Tetapi ini menyesatkan - ini hanyalah metrik kesombongan pada tingkat terbaik.
Kendala sebenarnya bukan pasokan tetapi permintaan. Metrik kunci yang harus dilacak bukanlah jumlah GPU yang tersedia, tetapi tingkat pemanfaatan dan jumlah GPU yang benar-benar disewakan.
Token sangat baik dalam memulai sisi pasokan, menciptakan insentif yang diperlukan untuk cepat berkembang. Namun, secara inheren mereka tidak memecahkan masalah permintaan. Ujian sebenarnya adalah membuat produk mencapai kondisi yang cukup baik sehingga permintaan laten muncul.
Haseeb Qureshi (Dragonfly) menempatkan yang terbaik:
Berbeda dengan kepercayaan populer, hambatan terbesar bagi pasar GPU terdistribusi web3 saat ini hanyalah membuatnya berfungsi dengan baik.
Ini bukan masalah yang sepele.
Mengatur GPU di seluruh jaringan terdistribusi adalah kompleks, dengan berbagai tantangan—alokasi sumber daya, skala beban kerja dinamis, keseimbangan beban di antara node dan GPU, pengelolaan waktu tunda, transfer data, toleransi kesalahan, dan penanganan perangkat keras yang beragam yang tersebar di berbagai wilayah geografis. Saya bisa terus berbicara.
Hal ini memerlukan rekayasa yang serius dan arsitektur jaringan yang kokoh dan dirancang dengan baik.
Untuk memberikan gambaran, pertimbangkan Kubernetes milik Google. Ini secara luas dianggap sebagai standar emas untuk orkestrasi kontainer, mengotomatisasi proses seperti penyeimbangan beban dan penskalaan di lingkungan terdistribusi—tantangan yang sangat mirip dengan yang dihadapi oleh jaringan GPU terdistribusi. Kubernetes sendiri dibangun dari pengalaman Google selama lebih dari satu dekade, dan bahkan pada saat itu, dibutuhkan bertahun-tahun iterasi tanpa henti untuk mendapatkan yang benar.
Beberapa pasar komputasi GPU yang sudah berjalan saat ini dapat menangani beban kerja skala kecil, tetapi kelemahan mulai terlihat begitu mereka mencoba untuk meningkatkan skala. Saya curiga hal ini terjadi karena mereka dibangun di atas fondasi arsitektur yang buruk.
Tantangan / peluang lain bagi jaringan komputasi terdesentralisasi adalah memastikan kepercayaan: memverifikasi bahwa setiap node benar-benar menyediakan daya komputasi yang mereka klaim. Saat ini, ini bergantung pada reputasi jaringan, dan dalam beberapa kasus, penyedia komputasi diberi peringkat berdasarkan skor reputasi. Blockchain tampaknya cocok dengan sistem verifikasi tanpa kepercayaan. Startup seperti GensyndanSpheronmendorong pendekatan tanpa kepercayaan untuk memecahkan masalah ini.
Hari ini, banyak tim web3 masih berusaha menavigasi tantangan-tantangan ini, artinya peluangnya masih terbuka lebar.
Seberapa besar pasar untuk jaringan komputasi terdesentralisasi?
Hari ini, mungkin hanya sebagian kecil dari industri komputasi awan senilai $680 miliar - $2,5 triliun. Namun, meskipun ada gesekan tambahan bagi pengguna, akan selalu ada permintaan selama biaya tetap lebih rendah dibandingkan penyedia tradisional.
Saya percaya biaya akan tetap lebih rendah dalam jangka waktu dekat hingga menengah karena campuran subsidi token dan pembebasan pasokan dari pengguna yang tidak sensitif terhadap harga (misalnya, jika saya bisa menyewakan laptop gaming saya untuk uang tambahan, saya senang apakah itu $20 atau $50 per bulan).
Namun potensi pertumbuhan sebenarnya untuk jaringan komputasi terdesentralisasi—dan ekspansi nyata dari TAM mereka—akan datang saat:
Komputasi terdesentralisasi dan tanpa izin menjadi lapisan dasar — infrastruktur dasar — untuk ekosistem AI terdesentralisasi.
Meskipun terjadi ekspansi yang berkelanjutan dalam rantai pasokan untuk silikon (yaitu GPU), saya percaya bahwa kita baru saja memasuki era Inteligensi umat manusia. Akan ada permintaan yang tak terpuaskan untuk komputasi.
Perhatikan titik balik yang dapat memicu perubahan penilaian besar-besaran dari semua pasar GPU yang bekerja. Kemungkinan besar akan segera datang.
Bayangkan ini: sebuah model AI yang besar dan mengubah dunia, tidak dikembangkan di laboratorium elit yang penuh rahasia tetapi dibuat hidup oleh jutaan orang biasa. Para gamer, yang GPU-nya biasanya menghasilkan ledakan sinematik Call of Duty, sekarang menyumbangkan perangkat keras mereka untuk sesuatu yang lebih besar—sebuah model AI open-source yang dimiliki secara kolektif tanpa ada penjaga pusat.
Di masa depan ini, model skala fondasi bukan hanya domain dari laboratorium AI teratas.
Namun mari kita dasarkan visi ini pada keadaan saat ini. Saat ini, sebagian besar pelatihan AI yang berat tetap terpusat di pusat data, dan ini kemungkinan akan menjadi norma untuk beberapa waktu.
Perusahaan seperti OpenAI meningkatkan kluster besar mereka. Elon Musk baru-baru ini Mengumumkan bahwa xAI hampir menyelesaikan pusat data yang memiliki setara dengan 200.000 GPU H100.
Tapi ini bukan hanya tentang jumlah GPU mentah. Utilisasi FLOPS Model (MFU) - metrik yang diperkenalkan di Google’s makalah PaLMpada 2022—memonitor seberapa efektif kapasitas maksimum GPU digunakan. Mencengangkan, MFU seringkali berada di sekitar 35-40%.
Kenapa begitu rendah? Sementara kinerja GPU telah melonjak selama bertahun-tahun mengikuti hukum Moore, peningkatan jaringan, memori, dan penyimpanan jauh tertinggal, menciptakan bottleneck. Sebagai hasilnya, GPU sering menganggur, menunggu data.
Pelatihan kecerdasan buatan tetap sangat terpusat saat ini karena satu kata — Efisiensi.
Pelatihan model-model besar bergantung pada teknik seperti:
• Paralelisme data: Membagi dataset di beberapa GPU untuk melakukan operasi secara paralel, mempercepat proses pelatihan.
• Paralelisme model: Mendistribusikan bagian-bagian model di antara GPU untuk menghindari batasan memori.
Metode-metode ini memerlukan GPU untuk terus-menerus bertukar data, sehingga kecepatan interkoneksi—yaitu laju transfer data antar komputer dalam jaringan—sangatlah penting.
Ketika pelatihan model AI frontier bisa mencapai biaya lebih dari $1 miliar, setiap keuntungan efisiensi penting.
Dengan koneksi interkoneksi berkecepatan tinggi mereka, pusat data terpusat memungkinkan transfer data cepat antara GPU dan menciptakan penghematan biaya substansial selama waktu pelatihan yang setup terdesentralisasi tidak dapat mencocokkan…namun.
Jika Anda berbicara dengan orang-orang yang bekerja di bidang AI, banyak yang akan mengatakan bahwa pelatihan terdesentralisasi tidak akan berhasil.
Dalam pengaturan terdesentralisasi, kelompok GPU tidak terletak di tempat yang sama secara fisik, sehingga transfer data antara mereka lebih lambat dan menjadi bottleneck. Pelatihan membutuhkan GPU untuk melakukan sinkronisasi dan pertukaran data pada setiap langkah. Semakin jauh mereka terpisah, semakin tinggi laten. Laten yang lebih tinggi berarti kecepatan pelatihan yang lebih lambat dan biaya yang lebih tinggi.
Apa yang mungkin memerlukan beberapa hari di pusat data terpusat bisa memakan waktu dua minggu dengan pendekatan terdesentralisasi dengan biaya yang lebih tinggi. Itu hanya tidak layak.
Tapi ini akan berubah.
Kabar baiknya adalah bahwa telah terjadi lonjakan minat besar dalam penelitian seputar pelatihan terdistribusi. Para peneliti sedang mengeksplorasi beberapa pendekatan secara bersamaan, seperti yang terbukti dari banyaknya studi dan makalah yang diterbitkan. Kemajuan ini akan saling menumpuk dan mempercepat kemajuan di bidang ini.
Ini juga tentang pengujian di produksi dan melihat sejauh mana kita dapat mendorong batasan.
Beberapa teknik pelatihan terdesentralisasi sudah dapat menangani model-model yang lebih kecil di lingkungan interkoneksi yang lambat. Sekarang, penelitian terdepan sedang mendorong untuk memperluas metode ini ke model-model yang semakin besar.
Tantangan lainnya adalah mengelola berbagai jenis perangkat keras GPU, termasuk GPU berkapasitas memori terbatas yang umumnya digunakan dalam jaringan terdesentralisasi. Teknik seperti paralelisme model (memecah lapisan model di antara perangkat) dapat membantu membuat hal ini layak dilakukan.
Metode pelatihan terdesentralisasi saat ini masih terbatas pada ukuran model yang jauh di bawah frontier (GPT-4 dilaporkan berada dekat dengan triliun parameter, 100x lebih besar dari model 10B Prime Intellect). Untuk benar-benar berkembang, kita akan memerlukan terobosan dalam arsitektur model, infrastruktur jaringan yang lebih baik, dan pembagian tugas yang lebih cerdas di seluruh perangkat.
Dan kita bisa bermimpi besar. Bayangkan dunia di mana pelatihan terdesentralisasi mengumpulkan lebih banyak kekuatan komputasi GPU daripada pusat data terpusat terbesar yang pernah bisa diumpamakan.
Pluralis Penelitian(tim yang tajam dalam pelatihan terdesentralisasi, salah satu yang patut diperhatikan) berpendapat bahwa ini bukan hanya mungkin - itu tak terhindarkan. Pusat data terpusat terikat oleh kendala fisik seperti ruang danketersediaan tenagaSementara jaringan terdesentralisasi dapat mengakses sumber daya global yang efektif tanpa batas.
Bahkan Jensen Huang dari NVIDIA telah mengakui bahwa pelatihan desentralisasi asyncdapat membuka potensi sebenarnya dari skalabilitas AI. Jaringan pelatihan terdistribusi juga lebih toleran terhadap kesalahan.
Jadi, dalam satu masa depan potensial, model AI terkuat di dunia akan dilatih secara terdesentralisasi.
Ini adalah prospek yang menarik, tetapi saya belum sepenuhnya yakin. Kami membutuhkan bukti yang lebih kuat bahwa pelatihan terdesentralisasi dari model terbesar secara teknis dan ekonomis layak.
Inilah tempat di mana saya melihat janji yang besar: Titik manis pelatihan terdesentralisasi bisa terletak pada model-model kecil, khusus, open-source yang dirancang untuk kasus penggunaan tertentu, bukan bersaing dengan model-model perbatasan ultra-besar yang didorong oleh AGI. Beberapa arsitektur, terutama model non-transformer, sudah membuktikan kecocokan alami untuk pengaturan terdesentralisasi.
Dan ada lagi bagian lain dari teka-teki ini: token. Begitu pelatihan terdesentralisasi menjadi layak secara besar-besaran, token dapat memainkan peran penting dalam memberikan insentif dan penghargaan kepada kontributor, secara efektif memulai jaringan-jaringan ini.
Jalan menuju visi ini panjang, tetapi kemajuan ini sangat menggembirakan. Kemajuan dalam pelatihan terdesentralisasi akan menguntungkan semua orang, bahkan perusahaan teknologi besar dan laboratorium riset AI tingkat atas, karena skala model masa depan akan melebihi kapasitas satu pusat data.
Masa depan didistribusikan. Dan ketika suatu teknologi memiliki potensi yang begitu luas, sejarah menunjukkan bahwa selalu menjadi lebih baik, lebih cepat, dari yang diharapkan siapapun.
Saat ini, sebagian besar kekuatan komputasi dalam AI diarahkan ke pelatihan model-model massif. Laboratorium AI teratas sedang dalam perlombaan senjata untuk mengembangkan model-model dasar terbaik dan pada akhirnya mencapai AGI.
Tapi ini pendapat saya: fokus komputasi intensif pada pelatihan akan beralih ke inferensi dalam beberapa tahun mendatang. Seiring AI semakin terintegrasi dalam aplikasi yang kita gunakan sehari-hari - dari perawatan kesehatan hingga hiburan - sumber daya komputasi yang diperlukan untuk mendukung inferensi akan sangat besar.
Dan ini bukan hanya spekulasi. Skala komputasi waktu inferensi adalah kata yang sedang tren dalam AI. Baru-baru ini, OpenAI merilis versi pratinjau/mini dari model terbaru mereka, o1 (kode nama: Strawberry), dan pergeseran besar? Ia meluangkan waktu untuk berpikir dengan pertama-tama bertanya kepada dirinya sendiri langkah-langkah apa yang harus diambil untuk menjawab pertanyaan tersebut, kemudian melalui setiap langkah tersebut.
Model ini dirancang untuk tugas yang lebih kompleks dan membutuhkan perencanaan yang intensif—seperti memecahkan teka-teki silang—dan menangani masalah-masalah yang memerlukan pemikiran yang lebih dalam. Anda akan melihat bahwa ini lebih lambat, memerlukan lebih banyak waktu untuk menghasilkan tanggapan, tetapi hasilnya jauh lebih dipikirkan dan halus. Ini juga jauh lebih mahal untuk dijalankan ( 25x biaya dari GPT-4)
Pergeseran fokusnya jelas: lonjakan berikutnya dalam kinerja AI tidak hanya akan datang dari pelatihan model yang lebih besar tetapi juga dari peningkatan penggunaan komputasi selama inferensi.
Jika Anda ingin membaca lebih banyak, beberapa penelitian kertasdemonstrasikan:
Setelah model-model yang kuat dilatih, tugas inferensi mereka - di mana model-model melakukan tugas-tugas tertentu - dapat dialihkan ke jaringan komputasi terdesentralisasi. Ini sangat masuk akal karena:
Pikirkan inferensi terdesentralisasi seperti CDN (jaringan pengiriman konten) untuk kecerdasan buatan: alih-alih mengirimkan situs web dengan cepat dengan menghubungkan ke server terdekat, inferensi terdesentralisasi memanfaatkan daya komputasi lokal untuk memberikan respons kecerdasan buatan dalam waktu rekam. Dengan merangkul inferensi terdesentralisasi, aplikasi kecerdasan buatan menjadi lebih efisien, responsif, dan dapat diandalkan.
Trennya jelas. Chip baru M4 Pro Apple menandingi NVIDIARTX 3070 Ti—sebuah GPU yang, hingga baru-baru ini, merupakan domain para gamer hardcore. Perangkat keras yang kita miliki saat ini semakin mampu menangani beban kerja AI yang canggih.
Untuk jaringan inferensi terdesentralisasi berhasil, harus ada insentif ekonomi yang menarik untuk berpartisipasi. Node-node dalam jaringan perlu diberi kompensasi atas kontribusi komputasi mereka. Sistem harus memastikan distribusi imbalan yang adil dan efisien. Keragaman geografis sangat penting, mengurangi laten untuk tugas-tugas inferensi, dan meningkatkan toleransi kesalahan.
Dan cara terbaik untuk membangun jaringan terdesentralisasi? Kripto.
Token menyediakan mekanisme yang kuat untuk menyelaraskan kepentingan peserta, memastikan semua orang bekerja menuju tujuan yang sama: memperluas jaringan dan meningkatkan nilai token.
Token juga mempercepat pertumbuhan jaringan. Mereka membantu menyelesaikan masalah klasik ayam dan telur yang menghambat sebagian besar jaringan dengan memberi hadiah kepada pengguna awal dan mendorong partisipasi sejak hari pertama.
Keberhasilan Bitcoin dan Ethereum membuktikan hal ini—mereka sudah mengumpulkan kekuatan komputasi terbesar di planet ini.
Jaringan inferensi terdesentralisasi berikutnya dalam antrian. Dengan keragaman geografis, mereka mengurangi laten, meningkatkan toleransi kesalahan, dan mendekatkan KI kepada pengguna. Dan dengan insentif yang didukung kripto, mereka akan berkembang lebih cepat dan lebih baik daripada jaringan tradisional sebelumnya.
Saya belum mengatasi kekurangan besar ini.
Masih menghantui saya karena itu adalah taruhan paling jelas bagi siapa saja yang memperhatikan, namun saya tidak menginvestasikan satu dolar pun.
Tidak, ini bukan pembunuh Solana berikutnya atau memecoin dengan anjing yang mengenakan topi lucu.
Itu adalah… NVIDIA.
Harga saham NVDA sepanjang tahun. Sumber: Google
Hanya dalam satu tahun, NVDA melonjak 3x, melonjak dari kapitalisasi pasar $1T menjadi $3T. Bahkan melebihi kinerja Bitcoin selama periode yang sama.
Tentu saja, sebagian dari itu adalah hipe AI. Tetapi sebagian besar dari itu didasarkan pada kenyataan. NVIDIA melaporkan pendapatan sebesar $60 miliar untuk FY2024, peningkatan yang mencengangkan sebesar 126% dari tahun 2023. Pertumbuhan ini didorong oleh Big Tech yang mengambil GPU dalam perlombaan senjata AI global menuju AGI.
Jadi mengapa saya melewatinya?
Selama dua tahun, saya sangat fokus pada kripto dan tidak melihat ke arah luar untuk melihat apa yang terjadi di bidang kecerdasan buatan. Itu adalah kesalahan besar, dan itu masih mengganggu saya.
Tapi saya tidak membuat kesalahan yang sama dua kali.
Hari ini, Crypto AI terasa sangat mirip. Kita berada di ambang ledakan inovasi. Paralel dengan Demam Emas California pada pertengahan abad ke-19 sulit diabaikan - industri dan kota tumbuh dalam semalam, infrastruktur maju dengan kecepatan tinggi, dan kekayaan dibuat oleh mereka yang berani melompat.
Seperti NVIDIA pada awalnya, Kripto AI akan terasa jelas ketika dilihat ke belakang.
Di Bagian I dari tesis saya, Saya menjelaskan mengapa Kripto AI adalah peluang underdog paling menarik untuk para investor dan pembangun saat ini.
Berikut adalah ringkasan singkat:
Pada intinya, Crypto AI adalah AI dengan infrastruktur kripto yang disusun di atasnya. Ini berarti lebih mungkin untuk melacak lintasan pertumbuhan eksponensial AI daripada pasar kripto secara keseluruhan. Jadi, untuk tetap unggul, Anda harus membiasakan diri dengan penelitian AI terbaru di Arxiv dan berbicara dengan para pendiri yang yakin bahwa mereka sedang membangun sesuatu yang besar berikutnya.
Di Bagian II tesis saya, saya akan menyelami empat subsektor paling menjanjikan dalam Kripto AI:
Potongan ini mewakili puncak dari berbulan-bulan penelitian mendalam dan percakapan dengan pendiri dan tim di berbagai bidang Crypto AI. Ini tidak dirancang untuk menjadi panduan mendalam yang lengkap untuk setiap sektor - itu adalah lubang kelinci untuk hari lain.
Sebagai gantinya, anggaplah itu sebagai peta jalan tingkat tinggi yang dirancang untuk memancing rasa ingin tahu, mempertajam riset Anda, dan membimbing pemikiran investasi.
Saya membayangkan tumpukan AI terdesentralisasi sebagai ekosistem berlapis: dimulai dengan komputasi terdesentralisasi dan jaringan data terbuka di satu ujung, yang menggerakkan pelatihan model AI terdesentralisasi.
Setiap inferensi kemudian diverifikasi - baik input maupun output - menggunakan kombinasi kriptografi, insentif kriptoekonomi, dan jaringan evaluasi. Output yang diverifikasi ini mengalir ke agen AI yang dapat beroperasi secara mandiri on-chain, serta aplikasi AI konsumen dan perusahaan yang pengguna benar-benar bisa percaya.
Jaringan koordinasi mengikat semuanya menjadi satu, memungkinkan komunikasi dan kolaborasi tanpa hambatan di seluruh ekosistem.
Dalam visi ini, siapa pun yang membangun di bidang kecerdasan buatan dapat menggunakan satu atau lebih lapisan dari tumpukan ini, tergantung pada kebutuhan spesifik mereka. Baik itu memanfaatkan komputasi terdesentralisasi untuk pelatihan model atau menggunakan jaringan evaluasi untuk memastikan keluaran berkualitas tinggi, tumpukan ini menawarkan berbagai pilihan.
Berkat komposabilitas alami blockchain, saya percaya kita secara alami bergerak menuju masa depan modular. Setiap lapisan menjadi sangat khusus, dengan protokol yang dioptimalkan untuk fungsi yang berbeda daripada pendekatan terpadu yang all-in-one.
Sumber: topology.vc
Telah terjadi ledakan Kambrion dari startup yang membangun di setiap lapisan tumpukan AI terdesentralisasi, kebanyakan didirikan hanya dalam 1 - 3 tahun terakhir. Jelas: kita masih awal.
Peta paling komprehensif dan terkini dari lanskap startup Crypto AI yang pernah saya lihat dikelola oleh Casey dan timnya di gate.iotopology.vc. Ini adalah sumber daya yang sangat berharga bagi siapa pun yang melacak ruang ini.
Ketika saya mempelajari subsektor Crypto AI, saya selalu bertanya pada diri sendiri: seberapa besar peluang di sini? Saya tidak tertarik dengan taruhan kecil - saya mencari pasar yang dapat berkembang menjadi ratusan miliar.
Mari kita mulai dengan ukuran pasar. Ketika mengevaluasi subsektor, saya bertanya pada diri sendiri: apakah itu menciptakan pasar baru atau mengganggu yang sudah ada?
Ambillah komputasi terdesentralisasi sebagai contoh. Ini merupakan kategori yang mengganggu yang potensinya dapat diperkirakan dengan melihat pasar komputasi awan yang mapan, senilai ~$680B hari inidan diperkirakan akan mencapai $2.5T pada tahun 2032.
Pasar-pasar baru tanpa preseden, seperti agen AI, lebih sulit untuk diperkirakan. Tanpa data historis, menentukan ukurannya melibatkan campuran perkiraan yang berpendidikan dan pengecekan insting terhadap masalah yang mereka selesaikan. Dan jebakan nya adalah bahwa terkadang, apa yang terlihat seperti pasar baru sebenarnya hanya solusi yang mencari masalah.
Waktu adalah segalanya. Teknologi cenderung membaik dan menjadi lebih murah dari waktu ke waktu, tetapi laju kemajuan bervariasi.
Seberapa matang teknologi dalam subsektor tertentu? Apakah sudah siap untuk berkembang, atau masih dalam tahap penelitian, dengan aplikasi praktis beberapa tahun lagi? Waktu menentukan apakah suatu sektor layak mendapat perhatian segera atau sebaiknya dibiarkan dalam kategori “tunggu dan lihat”.
Ambil Enkripsi Fully Homomorfik (FHE) sebagai contoh: potensinya tidak terbantahkan, tetapi saat ini masih terlalu lambat untuk digunakan secara luas. Kemungkinan kita masih beberapa tahun lagi sebelum melihatnya mencapai kelayakan mainstream. Dengan memfokuskan pada sektor yang lebih dekat dengan skala pertama, saya dapat menghabiskan waktu dan energi saya di mana momentum—dan peluang—sedang dibangun.
Jika saya harus memetakan kategori-kategori ini dalam grafik ukuran vs. waktu, maka akan terlihat seperti ini. Ingatlah bahwa ini lebih berupa sketsa konseptual daripada panduan yang pasti. Ada banyak nuansa—misalnya, dalam inferensi yang dapat diverifikasi, pendekatan yang berbeda seperti zkML dan opML berada pada tingkat kesiapan yang berbeda untuk digunakan.
Dengan begitu, saya yakin bahwa skala AI akan sangat besar sehingga bahkan apa pun yang terlihat “niche” hari ini bisa berkembang menjadi pasar yang signifikan.
Sangat penting untuk dicatat bahwa kemajuan teknologi tidak selalu mengikuti garis lurus - seringkali terjadi dalam loncatan. Pandangan saya tentang waktu dan ukuran pasar akan berubah ketika terjadi terobosan yang muncul.
Dengan kerangka ini dalam pikiran, mari kitauraikan masing-masing sub-sektor.
Beberapa tim AI Kripto sedang memposisikan diri untuk mendapatkan keuntungan dari kurangnya GPU dibandingkan dengan permintaan dengan membangun jaringan terdesentralisasi yang memanfaatkan kekuatan komputasi laten global.
Proposisi nilai inti bagi pasar GPU adalah 3-fold:
Untuk mengatasi sisi pasokan pasar, pasar ini mendapatkan komputasi dari:
Di sisi lain, permintaan untuk komputasi terdesentralisasi hari ini berasal dari:
Hal kunci yang perlu diingat: pengembang selalu mengutamakan biaya dan keandalan.
Start-up di ruang ini sering menonjolkan ukuran jaringan pasokan GPU mereka sebagai tanda kesuksesan. Tetapi ini menyesatkan - ini hanyalah metrik kesombongan pada tingkat terbaik.
Kendala sebenarnya bukan pasokan tetapi permintaan. Metrik kunci yang harus dilacak bukanlah jumlah GPU yang tersedia, tetapi tingkat pemanfaatan dan jumlah GPU yang benar-benar disewakan.
Token sangat baik dalam memulai sisi pasokan, menciptakan insentif yang diperlukan untuk cepat berkembang. Namun, secara inheren mereka tidak memecahkan masalah permintaan. Ujian sebenarnya adalah membuat produk mencapai kondisi yang cukup baik sehingga permintaan laten muncul.
Haseeb Qureshi (Dragonfly) menempatkan yang terbaik:
Berbeda dengan kepercayaan populer, hambatan terbesar bagi pasar GPU terdistribusi web3 saat ini hanyalah membuatnya berfungsi dengan baik.
Ini bukan masalah yang sepele.
Mengatur GPU di seluruh jaringan terdistribusi adalah kompleks, dengan berbagai tantangan—alokasi sumber daya, skala beban kerja dinamis, keseimbangan beban di antara node dan GPU, pengelolaan waktu tunda, transfer data, toleransi kesalahan, dan penanganan perangkat keras yang beragam yang tersebar di berbagai wilayah geografis. Saya bisa terus berbicara.
Hal ini memerlukan rekayasa yang serius dan arsitektur jaringan yang kokoh dan dirancang dengan baik.
Untuk memberikan gambaran, pertimbangkan Kubernetes milik Google. Ini secara luas dianggap sebagai standar emas untuk orkestrasi kontainer, mengotomatisasi proses seperti penyeimbangan beban dan penskalaan di lingkungan terdistribusi—tantangan yang sangat mirip dengan yang dihadapi oleh jaringan GPU terdistribusi. Kubernetes sendiri dibangun dari pengalaman Google selama lebih dari satu dekade, dan bahkan pada saat itu, dibutuhkan bertahun-tahun iterasi tanpa henti untuk mendapatkan yang benar.
Beberapa pasar komputasi GPU yang sudah berjalan saat ini dapat menangani beban kerja skala kecil, tetapi kelemahan mulai terlihat begitu mereka mencoba untuk meningkatkan skala. Saya curiga hal ini terjadi karena mereka dibangun di atas fondasi arsitektur yang buruk.
Tantangan / peluang lain bagi jaringan komputasi terdesentralisasi adalah memastikan kepercayaan: memverifikasi bahwa setiap node benar-benar menyediakan daya komputasi yang mereka klaim. Saat ini, ini bergantung pada reputasi jaringan, dan dalam beberapa kasus, penyedia komputasi diberi peringkat berdasarkan skor reputasi. Blockchain tampaknya cocok dengan sistem verifikasi tanpa kepercayaan. Startup seperti GensyndanSpheronmendorong pendekatan tanpa kepercayaan untuk memecahkan masalah ini.
Hari ini, banyak tim web3 masih berusaha menavigasi tantangan-tantangan ini, artinya peluangnya masih terbuka lebar.
Seberapa besar pasar untuk jaringan komputasi terdesentralisasi?
Hari ini, mungkin hanya sebagian kecil dari industri komputasi awan senilai $680 miliar - $2,5 triliun. Namun, meskipun ada gesekan tambahan bagi pengguna, akan selalu ada permintaan selama biaya tetap lebih rendah dibandingkan penyedia tradisional.
Saya percaya biaya akan tetap lebih rendah dalam jangka waktu dekat hingga menengah karena campuran subsidi token dan pembebasan pasokan dari pengguna yang tidak sensitif terhadap harga (misalnya, jika saya bisa menyewakan laptop gaming saya untuk uang tambahan, saya senang apakah itu $20 atau $50 per bulan).
Namun potensi pertumbuhan sebenarnya untuk jaringan komputasi terdesentralisasi—dan ekspansi nyata dari TAM mereka—akan datang saat:
Komputasi terdesentralisasi dan tanpa izin menjadi lapisan dasar — infrastruktur dasar — untuk ekosistem AI terdesentralisasi.
Meskipun terjadi ekspansi yang berkelanjutan dalam rantai pasokan untuk silikon (yaitu GPU), saya percaya bahwa kita baru saja memasuki era Inteligensi umat manusia. Akan ada permintaan yang tak terpuaskan untuk komputasi.
Perhatikan titik balik yang dapat memicu perubahan penilaian besar-besaran dari semua pasar GPU yang bekerja. Kemungkinan besar akan segera datang.
Bayangkan ini: sebuah model AI yang besar dan mengubah dunia, tidak dikembangkan di laboratorium elit yang penuh rahasia tetapi dibuat hidup oleh jutaan orang biasa. Para gamer, yang GPU-nya biasanya menghasilkan ledakan sinematik Call of Duty, sekarang menyumbangkan perangkat keras mereka untuk sesuatu yang lebih besar—sebuah model AI open-source yang dimiliki secara kolektif tanpa ada penjaga pusat.
Di masa depan ini, model skala fondasi bukan hanya domain dari laboratorium AI teratas.
Namun mari kita dasarkan visi ini pada keadaan saat ini. Saat ini, sebagian besar pelatihan AI yang berat tetap terpusat di pusat data, dan ini kemungkinan akan menjadi norma untuk beberapa waktu.
Perusahaan seperti OpenAI meningkatkan kluster besar mereka. Elon Musk baru-baru ini Mengumumkan bahwa xAI hampir menyelesaikan pusat data yang memiliki setara dengan 200.000 GPU H100.
Tapi ini bukan hanya tentang jumlah GPU mentah. Utilisasi FLOPS Model (MFU) - metrik yang diperkenalkan di Google’s makalah PaLMpada 2022—memonitor seberapa efektif kapasitas maksimum GPU digunakan. Mencengangkan, MFU seringkali berada di sekitar 35-40%.
Kenapa begitu rendah? Sementara kinerja GPU telah melonjak selama bertahun-tahun mengikuti hukum Moore, peningkatan jaringan, memori, dan penyimpanan jauh tertinggal, menciptakan bottleneck. Sebagai hasilnya, GPU sering menganggur, menunggu data.
Pelatihan kecerdasan buatan tetap sangat terpusat saat ini karena satu kata — Efisiensi.
Pelatihan model-model besar bergantung pada teknik seperti:
• Paralelisme data: Membagi dataset di beberapa GPU untuk melakukan operasi secara paralel, mempercepat proses pelatihan.
• Paralelisme model: Mendistribusikan bagian-bagian model di antara GPU untuk menghindari batasan memori.
Metode-metode ini memerlukan GPU untuk terus-menerus bertukar data, sehingga kecepatan interkoneksi—yaitu laju transfer data antar komputer dalam jaringan—sangatlah penting.
Ketika pelatihan model AI frontier bisa mencapai biaya lebih dari $1 miliar, setiap keuntungan efisiensi penting.
Dengan koneksi interkoneksi berkecepatan tinggi mereka, pusat data terpusat memungkinkan transfer data cepat antara GPU dan menciptakan penghematan biaya substansial selama waktu pelatihan yang setup terdesentralisasi tidak dapat mencocokkan…namun.
Jika Anda berbicara dengan orang-orang yang bekerja di bidang AI, banyak yang akan mengatakan bahwa pelatihan terdesentralisasi tidak akan berhasil.
Dalam pengaturan terdesentralisasi, kelompok GPU tidak terletak di tempat yang sama secara fisik, sehingga transfer data antara mereka lebih lambat dan menjadi bottleneck. Pelatihan membutuhkan GPU untuk melakukan sinkronisasi dan pertukaran data pada setiap langkah. Semakin jauh mereka terpisah, semakin tinggi laten. Laten yang lebih tinggi berarti kecepatan pelatihan yang lebih lambat dan biaya yang lebih tinggi.
Apa yang mungkin memerlukan beberapa hari di pusat data terpusat bisa memakan waktu dua minggu dengan pendekatan terdesentralisasi dengan biaya yang lebih tinggi. Itu hanya tidak layak.
Tapi ini akan berubah.
Kabar baiknya adalah bahwa telah terjadi lonjakan minat besar dalam penelitian seputar pelatihan terdistribusi. Para peneliti sedang mengeksplorasi beberapa pendekatan secara bersamaan, seperti yang terbukti dari banyaknya studi dan makalah yang diterbitkan. Kemajuan ini akan saling menumpuk dan mempercepat kemajuan di bidang ini.
Ini juga tentang pengujian di produksi dan melihat sejauh mana kita dapat mendorong batasan.
Beberapa teknik pelatihan terdesentralisasi sudah dapat menangani model-model yang lebih kecil di lingkungan interkoneksi yang lambat. Sekarang, penelitian terdepan sedang mendorong untuk memperluas metode ini ke model-model yang semakin besar.
Tantangan lainnya adalah mengelola berbagai jenis perangkat keras GPU, termasuk GPU berkapasitas memori terbatas yang umumnya digunakan dalam jaringan terdesentralisasi. Teknik seperti paralelisme model (memecah lapisan model di antara perangkat) dapat membantu membuat hal ini layak dilakukan.
Metode pelatihan terdesentralisasi saat ini masih terbatas pada ukuran model yang jauh di bawah frontier (GPT-4 dilaporkan berada dekat dengan triliun parameter, 100x lebih besar dari model 10B Prime Intellect). Untuk benar-benar berkembang, kita akan memerlukan terobosan dalam arsitektur model, infrastruktur jaringan yang lebih baik, dan pembagian tugas yang lebih cerdas di seluruh perangkat.
Dan kita bisa bermimpi besar. Bayangkan dunia di mana pelatihan terdesentralisasi mengumpulkan lebih banyak kekuatan komputasi GPU daripada pusat data terpusat terbesar yang pernah bisa diumpamakan.
Pluralis Penelitian(tim yang tajam dalam pelatihan terdesentralisasi, salah satu yang patut diperhatikan) berpendapat bahwa ini bukan hanya mungkin - itu tak terhindarkan. Pusat data terpusat terikat oleh kendala fisik seperti ruang danketersediaan tenagaSementara jaringan terdesentralisasi dapat mengakses sumber daya global yang efektif tanpa batas.
Bahkan Jensen Huang dari NVIDIA telah mengakui bahwa pelatihan desentralisasi asyncdapat membuka potensi sebenarnya dari skalabilitas AI. Jaringan pelatihan terdistribusi juga lebih toleran terhadap kesalahan.
Jadi, dalam satu masa depan potensial, model AI terkuat di dunia akan dilatih secara terdesentralisasi.
Ini adalah prospek yang menarik, tetapi saya belum sepenuhnya yakin. Kami membutuhkan bukti yang lebih kuat bahwa pelatihan terdesentralisasi dari model terbesar secara teknis dan ekonomis layak.
Inilah tempat di mana saya melihat janji yang besar: Titik manis pelatihan terdesentralisasi bisa terletak pada model-model kecil, khusus, open-source yang dirancang untuk kasus penggunaan tertentu, bukan bersaing dengan model-model perbatasan ultra-besar yang didorong oleh AGI. Beberapa arsitektur, terutama model non-transformer, sudah membuktikan kecocokan alami untuk pengaturan terdesentralisasi.
Dan ada lagi bagian lain dari teka-teki ini: token. Begitu pelatihan terdesentralisasi menjadi layak secara besar-besaran, token dapat memainkan peran penting dalam memberikan insentif dan penghargaan kepada kontributor, secara efektif memulai jaringan-jaringan ini.
Jalan menuju visi ini panjang, tetapi kemajuan ini sangat menggembirakan. Kemajuan dalam pelatihan terdesentralisasi akan menguntungkan semua orang, bahkan perusahaan teknologi besar dan laboratorium riset AI tingkat atas, karena skala model masa depan akan melebihi kapasitas satu pusat data.
Masa depan didistribusikan. Dan ketika suatu teknologi memiliki potensi yang begitu luas, sejarah menunjukkan bahwa selalu menjadi lebih baik, lebih cepat, dari yang diharapkan siapapun.
Saat ini, sebagian besar kekuatan komputasi dalam AI diarahkan ke pelatihan model-model massif. Laboratorium AI teratas sedang dalam perlombaan senjata untuk mengembangkan model-model dasar terbaik dan pada akhirnya mencapai AGI.
Tapi ini pendapat saya: fokus komputasi intensif pada pelatihan akan beralih ke inferensi dalam beberapa tahun mendatang. Seiring AI semakin terintegrasi dalam aplikasi yang kita gunakan sehari-hari - dari perawatan kesehatan hingga hiburan - sumber daya komputasi yang diperlukan untuk mendukung inferensi akan sangat besar.
Dan ini bukan hanya spekulasi. Skala komputasi waktu inferensi adalah kata yang sedang tren dalam AI. Baru-baru ini, OpenAI merilis versi pratinjau/mini dari model terbaru mereka, o1 (kode nama: Strawberry), dan pergeseran besar? Ia meluangkan waktu untuk berpikir dengan pertama-tama bertanya kepada dirinya sendiri langkah-langkah apa yang harus diambil untuk menjawab pertanyaan tersebut, kemudian melalui setiap langkah tersebut.
Model ini dirancang untuk tugas yang lebih kompleks dan membutuhkan perencanaan yang intensif—seperti memecahkan teka-teki silang—dan menangani masalah-masalah yang memerlukan pemikiran yang lebih dalam. Anda akan melihat bahwa ini lebih lambat, memerlukan lebih banyak waktu untuk menghasilkan tanggapan, tetapi hasilnya jauh lebih dipikirkan dan halus. Ini juga jauh lebih mahal untuk dijalankan ( 25x biaya dari GPT-4)
Pergeseran fokusnya jelas: lonjakan berikutnya dalam kinerja AI tidak hanya akan datang dari pelatihan model yang lebih besar tetapi juga dari peningkatan penggunaan komputasi selama inferensi.
Jika Anda ingin membaca lebih banyak, beberapa penelitian kertasdemonstrasikan:
Setelah model-model yang kuat dilatih, tugas inferensi mereka - di mana model-model melakukan tugas-tugas tertentu - dapat dialihkan ke jaringan komputasi terdesentralisasi. Ini sangat masuk akal karena:
Pikirkan inferensi terdesentralisasi seperti CDN (jaringan pengiriman konten) untuk kecerdasan buatan: alih-alih mengirimkan situs web dengan cepat dengan menghubungkan ke server terdekat, inferensi terdesentralisasi memanfaatkan daya komputasi lokal untuk memberikan respons kecerdasan buatan dalam waktu rekam. Dengan merangkul inferensi terdesentralisasi, aplikasi kecerdasan buatan menjadi lebih efisien, responsif, dan dapat diandalkan.
Trennya jelas. Chip baru M4 Pro Apple menandingi NVIDIARTX 3070 Ti—sebuah GPU yang, hingga baru-baru ini, merupakan domain para gamer hardcore. Perangkat keras yang kita miliki saat ini semakin mampu menangani beban kerja AI yang canggih.
Untuk jaringan inferensi terdesentralisasi berhasil, harus ada insentif ekonomi yang menarik untuk berpartisipasi. Node-node dalam jaringan perlu diberi kompensasi atas kontribusi komputasi mereka. Sistem harus memastikan distribusi imbalan yang adil dan efisien. Keragaman geografis sangat penting, mengurangi laten untuk tugas-tugas inferensi, dan meningkatkan toleransi kesalahan.
Dan cara terbaik untuk membangun jaringan terdesentralisasi? Kripto.
Token menyediakan mekanisme yang kuat untuk menyelaraskan kepentingan peserta, memastikan semua orang bekerja menuju tujuan yang sama: memperluas jaringan dan meningkatkan nilai token.
Token juga mempercepat pertumbuhan jaringan. Mereka membantu menyelesaikan masalah klasik ayam dan telur yang menghambat sebagian besar jaringan dengan memberi hadiah kepada pengguna awal dan mendorong partisipasi sejak hari pertama.
Keberhasilan Bitcoin dan Ethereum membuktikan hal ini—mereka sudah mengumpulkan kekuatan komputasi terbesar di planet ini.
Jaringan inferensi terdesentralisasi berikutnya dalam antrian. Dengan keragaman geografis, mereka mengurangi laten, meningkatkan toleransi kesalahan, dan mendekatkan KI kepada pengguna. Dan dengan insentif yang didukung kripto, mereka akan berkembang lebih cepat dan lebih baik daripada jaringan tradisional sebelumnya.