Dalam pos sebelumnya, kami mengeksplorasi Sejarah Desain AplikasiPada Bagian 1 dari seri Agentic AI kedua kami, kami meneliti lanskap AI Web2 saat ini beserta tren utama, platform, dan teknologinya. Di Bagian 2, kami menjelajahi bagaimana blockchain dan verifikasi tanpa kepercayaan memungkinkan evolusi agen AI menjadi sistem yang benar-benar agentic.
Gambar 1. Lanskap Agen AI Web2 E2B.
Lanskap kecerdasan buatan kontemporer secara dominan ditandai oleh platform dan layanan terpusat yang dikendalikan oleh perusahaan teknologi besar. Perusahaan seperti OpenAI, Anthropic, Google, dan Microsoft menyediakan model bahasa besar (LLM) dan menjaga infrastruktur cloud penting serta layanan API yang menggerakkan sebagian besar agen kecerdasan buatan.
Kemajuan terbaru dalam infrastruktur AI telah secara mendasar mengubah bagaimana pengembang membuat agen AI. Alih-alih mengkodekan interaksi tertentu, pengembang sekarang dapat menggunakan bahasa alami untuk mendefinisikan perilaku dan tujuan agen, yang mengarah pada sistem yang lebih dapat beradaptasi dan canggih.
Gambar 2. Infrastruktur Agen AI Segmentasi.
Kemajuan kunci dalam area berikut telah mengarah pada proliferasi agen AI:
figure_3_ai_business_models1920×1080 178 KB
Gambar 3. Model Bisnis AI.
Perusahaan AI Web2 tradisional sebagian besar menggunakan langganan bertingkat dan layanan konsultasi sebagai model bisnis mereka.
Model bisnis yang muncul untuk agen AI termasuk:
Sementara sistem AI Web2 saat ini telah membawa masuk suatu era baru teknologi dan efisiensi, mereka menghadapi beberapa tantangan.
Kendala utama Web2 AI—sentralisasi, kepemilikan data, dan transparansi—sedang ditangani dengan blockchain dan tokenisasi. Web3 menawarkan solusi berikut:
Tumpukan agen AI Web2 dan Web3 berbagi komponen inti seperti koordinasi model dan sumber daya, alat dan layanan lainnya, serta sistem memori untuk retensi konteks. Namun, penggabungan teknologi blockchain Web3 memungkinkan desentralisasi sumber daya komputasi, token untuk memberi insentif pada berbagi data dan kepemilikan pengguna, eksekusi tanpa kepercayaan melalui kontrak pintar, dan jaringan koordinasi bootstrap.
figure_4_web3_ai_agent_stack1920×3627 407 KB
Gambar 4. Tumpukan Agen AI Web3.
Lapisan Data adalah dasar dari tumpukan agen AI Web3 dan mencakup semua aspek data. Ini mencakup sumber data, pelacakan asal usul dan verifikasi keaslian, sistem label, alat kecerdasan data untuk analitik dan penelitian, dan solusi penyimpanan untuk berbagai kebutuhan retensi data.
Lapisan Komputasi menyediakan infrastruktur pemrosesan yang diperlukan untuk menjalankan operasi kecerdasan buatan. Sumber daya komputasi dapat dibagi menjadi beberapa kategori: infrastruktur pelatihan untuk pengembangan model, sistem inferensi untuk eksekusi model dan operasi agen, dan komputasi tepi untuk pemrosesan lokal terdesentralisasi.
Sumber daya komputasi terdistribusi menghilangkan ketergantungan pada jaringan awan terpusat dan meningkatkan keamanan, mengurangi masalah titik kegagalan tunggal, dan memungkinkan perusahaan kecerdasan buatan kecil untuk memanfaatkan sumber daya komputasi berlebihan.
1. Pelatihan. Pelatihan model AI memerlukan komputasi yang mahal dan intensif. Komputasi pelatihan terdesentralisasi mendemokrasikan pengembangan AI sambil meningkatkan privasi dan keamanan karena data sensitif dapat diproses secara lokal tanpa kontrol terpusat.
BittensordanJaringan Golemadalah pasar terdesentralisasi untuk sumber daya pelatihan AI.Jaringan AkashdanPhala menyediakan sumber daya komputasi terdesentralisasi dengan TEE. Jaringan Rendermengalihfungsikan jaringan GPU grafisnya untuk menyediakan komputasi untuk tugas AI.
2. Inferensi. Komputasi inferensi mengacu pada sumber daya yang dibutuhkan oleh model untuk menghasilkan output baru atau oleh aplikasi dan agen AI untuk beroperasi. Aplikasi real-time yang memproses data atau agen dalam jumlah besar yang memerlukan banyak operasi menggunakan daya komputasi inferensi dalam jumlah yang lebih besar.
Hyperbolik, Dfinitydan Hyperspacemenawarkan komputasi inferensi secara khusus. Inference LabsʻsOmronadalah pasar inferensi dan verifikasi komputasi di Bittensor. Jaringan komputasi terdesentralisasi seperti Bittensor, Jaringan Golem, Jaringan Akash, Phala, dan Jaringan Render menawarkan sumber daya komputasi pelatihan dan inferensi.
3.Edge Komputasi. Komputasi tepi melibatkan pemrosesan data secara lokal pada perangkat remote seperti ponsel pintar, perangkat IoT, atau server lokal. Komputasi tepi memungkinkan pemrosesan data secara real-time dan mengurangi laten karena model dan data berjalan secara lokal pada mesin yang sama.
Jaringan Gradien adalah jaringan komputasi tepi di Solana. Jaringan Tepi, Jaringan Theta, dan AIOZmemungkinkan komputasi tepi global.
Lapisan Verifikasi dan Privasi memastikan integritas sistem dan perlindungan data. Mekanisme konsensus, Zero-Knowledge Proofs (ZKPs), dan TEE digunakan untuk memverifikasi pelatihan model, inferensi, dan output. FHE dan TEE digunakan untuk memastikan privasi data.
1. Komputasi yang Dapat Diverifikasi. Komputasi yang dapat diverifikasi meliputi pelatihan model dan inferensi.
Phala dan Jaringan Atomamenggabungkan TEE dengan komputasi yang dapat diverifikasi.Inferiummenggunakan kombinasi ZKPs dan TEEs untuk inferensi yang dapat diverifikasi.
2. Output Proofs. Bukti output memverifikasi bahwa output model AI adalah asli dan tidak diubah tanpa memperlihatkan parameter model. Bukti output juga menawarkan provenance dan penting untuk mempercayai keputusan agen AI.
zkMLdanJaringan Azteckeduanya memiliki sistem ZKP yang membuktikan integritas output komputasi.Marlinʻs Oystermenyediakan inferensi AI yang dapat diverifikasi melalui jaringan TEE.
3.Privasi Data dan Model. FHE dan teknik kriptografi lain memungkinkan model untuk memproses data yang dienkripsi tanpa mengekspos informasi sensitif. Privasi data diperlukan saat menangani informasi pribadi dan sensitif serta untuk menjaga anonimitas.
Protokol Oasismenyediakan komputasi rahasia melalui TEEs dan enkripsi data.Partisia Blockchain menggunakan Multi-Party Computation (MPC) canggih untuk memberikan privasi data AI.
Lapisan Koordinasi memfasilitasi interaksi antara komponen-komponen berbeda dari ekosistem Web3 AI. Ini mencakup pasar model untuk distribusi, infrastruktur pelatihan dan penyetelan yang baik, dan jaringan agen untuk komunikasi dan kolaborasi antar agen.
1. Model Jaringan. Jaringan model dirancang untuk berbagi sumber daya untuk pengembangan model AI.
2. Pelatihan / Penyetelan Halus. Jaringan pelatihan mengkhususkan diri dalam mendistribusikan dan mengelola kumpulan data pelatihan. Jaringan fine-tuning difokuskan pada solusi infrastruktur untuk meningkatkan pengetahuan eksternal model melalui RAG (Retrieval Augmented Generation) dan API.
Bittensor, Jaringan Akash, dan Jaringan Golem menawarkan jaringan pelatihan dan penyempurnaan.
Jaringan Agen. Jaringan Agen menyediakan dua layanan utama untuk agen AI: 1) alat dan 2) peluncur agen. Alat mencakup koneksi dengan protokol lain, antarmuka pengguna standar, dan komunikasi dengan layanan eksternal. Peluncur agen memungkinkan untuk penyebaran dan pengelolaan agen AI yang mudah.
Theoriqmemanfaatkan sekelompok agen untuk mendukung solusi perdagangan DeFi. Virtuals adalah peluncur agen AI terkemuka di Base.Eliza OSadalah jaringan model LLM sumber terbuka pertama.Jaringan AlpacadanJaringan Olasadalah platform agen AI yang dimiliki oleh komunitas.
Lapisan Layanan menyediakan middleware dan peralatan penting yang diperlukan aplikasi dan agen kecerdasan buatan agar berfungsi secara efektif. Lapisan ini mencakup alat pengembangan, API untuk integrasi data eksternal dan aplikasi, sistem memori untuk retensi konteks agen, Pemuatan dan Generasi yang Ditingkatkan (RAG) untuk akses pengetahuan yang ditingkatkan, dan infrastruktur pengujian.
Lapisan Aplikasi berada di bagian atas tumpukan AI dan mewakili solusi yang menghadap pengguna akhir. Ini termasuk agen yang memecahkan kasus pengguna seperti manajemen dompet, keamanan, produktivitas, penghasilan, pasar prediksi, sistem tata kelola, dan alat DeFAI.
Secara kolektif, aplikasi-aplikasi ini berkontribusi untuk ekosistem AI yang aman, transparan, dan terdesentralisasi yang disesuaikan dengan kebutuhan Web3.
Evolusi dari sistem AI Web2 ke Web3 mewakili perubahan mendasar dalam cara kita mendekati pengembangan dan penerapan kecerdasan buatan. Sementara infrastruktur AI terpusat Web2 telah mendorong inovasi yang luar biasa, ia menghadapi tantangan signifikan seputar privasi data, transparansi, dan kontrol terpusat. Tumpukan AI Web3 menunjukkan bagaimana sistem terdesentralisasi dapat mengatasi keterbatasan ini melalui DAO data, jaringan komputasi terdesentralisasi, dan sistem verifikasi tanpa kepercayaan. Mungkin yang paling penting, insentif token menciptakan mekanisme koordinasi baru yang dapat membantu bootstrap dan mempertahankan jaringan terdesentralisasi ini.
Melihat ke depan, munculnya agen AI mewakili wilayah baru dalam evolusi ini. Seperti yang akan kita telusuri dalam artikel berikutnya, agen AI – mulai dari bot tugas sederhana hingga sistem otonom kompleks – menjadi semakin canggih dan mampu. Integrasi agen-agen ini dengan infrastruktur Web3, dikombinasikan dengan pertimbangan hati-hati terhadap arsitektur teknis, insentif ekonomi, dan struktur tata kelola, memiliki potensi untuk menciptakan sistem yang lebih adil, transparan, dan efisien daripada yang mungkin di era Web2. Memahami bagaimana agen-agen ini bekerja, tingkat kompleksitas yang berbeda, dan perbedaan antara agen AI dan AI yang benar-benar agensial akan menjadi sangat penting bagi siapa pun yang bekerja di persimpangan antara AI dan Web3.
Dalam pos sebelumnya, kami mengeksplorasi Sejarah Desain AplikasiPada Bagian 1 dari seri Agentic AI kedua kami, kami meneliti lanskap AI Web2 saat ini beserta tren utama, platform, dan teknologinya. Di Bagian 2, kami menjelajahi bagaimana blockchain dan verifikasi tanpa kepercayaan memungkinkan evolusi agen AI menjadi sistem yang benar-benar agentic.
Gambar 1. Lanskap Agen AI Web2 E2B.
Lanskap kecerdasan buatan kontemporer secara dominan ditandai oleh platform dan layanan terpusat yang dikendalikan oleh perusahaan teknologi besar. Perusahaan seperti OpenAI, Anthropic, Google, dan Microsoft menyediakan model bahasa besar (LLM) dan menjaga infrastruktur cloud penting serta layanan API yang menggerakkan sebagian besar agen kecerdasan buatan.
Kemajuan terbaru dalam infrastruktur AI telah secara mendasar mengubah bagaimana pengembang membuat agen AI. Alih-alih mengkodekan interaksi tertentu, pengembang sekarang dapat menggunakan bahasa alami untuk mendefinisikan perilaku dan tujuan agen, yang mengarah pada sistem yang lebih dapat beradaptasi dan canggih.
Gambar 2. Infrastruktur Agen AI Segmentasi.
Kemajuan kunci dalam area berikut telah mengarah pada proliferasi agen AI:
figure_3_ai_business_models1920×1080 178 KB
Gambar 3. Model Bisnis AI.
Perusahaan AI Web2 tradisional sebagian besar menggunakan langganan bertingkat dan layanan konsultasi sebagai model bisnis mereka.
Model bisnis yang muncul untuk agen AI termasuk:
Sementara sistem AI Web2 saat ini telah membawa masuk suatu era baru teknologi dan efisiensi, mereka menghadapi beberapa tantangan.
Kendala utama Web2 AI—sentralisasi, kepemilikan data, dan transparansi—sedang ditangani dengan blockchain dan tokenisasi. Web3 menawarkan solusi berikut:
Tumpukan agen AI Web2 dan Web3 berbagi komponen inti seperti koordinasi model dan sumber daya, alat dan layanan lainnya, serta sistem memori untuk retensi konteks. Namun, penggabungan teknologi blockchain Web3 memungkinkan desentralisasi sumber daya komputasi, token untuk memberi insentif pada berbagi data dan kepemilikan pengguna, eksekusi tanpa kepercayaan melalui kontrak pintar, dan jaringan koordinasi bootstrap.
figure_4_web3_ai_agent_stack1920×3627 407 KB
Gambar 4. Tumpukan Agen AI Web3.
Lapisan Data adalah dasar dari tumpukan agen AI Web3 dan mencakup semua aspek data. Ini mencakup sumber data, pelacakan asal usul dan verifikasi keaslian, sistem label, alat kecerdasan data untuk analitik dan penelitian, dan solusi penyimpanan untuk berbagai kebutuhan retensi data.
Lapisan Komputasi menyediakan infrastruktur pemrosesan yang diperlukan untuk menjalankan operasi kecerdasan buatan. Sumber daya komputasi dapat dibagi menjadi beberapa kategori: infrastruktur pelatihan untuk pengembangan model, sistem inferensi untuk eksekusi model dan operasi agen, dan komputasi tepi untuk pemrosesan lokal terdesentralisasi.
Sumber daya komputasi terdistribusi menghilangkan ketergantungan pada jaringan awan terpusat dan meningkatkan keamanan, mengurangi masalah titik kegagalan tunggal, dan memungkinkan perusahaan kecerdasan buatan kecil untuk memanfaatkan sumber daya komputasi berlebihan.
1. Pelatihan. Pelatihan model AI memerlukan komputasi yang mahal dan intensif. Komputasi pelatihan terdesentralisasi mendemokrasikan pengembangan AI sambil meningkatkan privasi dan keamanan karena data sensitif dapat diproses secara lokal tanpa kontrol terpusat.
BittensordanJaringan Golemadalah pasar terdesentralisasi untuk sumber daya pelatihan AI.Jaringan AkashdanPhala menyediakan sumber daya komputasi terdesentralisasi dengan TEE. Jaringan Rendermengalihfungsikan jaringan GPU grafisnya untuk menyediakan komputasi untuk tugas AI.
2. Inferensi. Komputasi inferensi mengacu pada sumber daya yang dibutuhkan oleh model untuk menghasilkan output baru atau oleh aplikasi dan agen AI untuk beroperasi. Aplikasi real-time yang memproses data atau agen dalam jumlah besar yang memerlukan banyak operasi menggunakan daya komputasi inferensi dalam jumlah yang lebih besar.
Hyperbolik, Dfinitydan Hyperspacemenawarkan komputasi inferensi secara khusus. Inference LabsʻsOmronadalah pasar inferensi dan verifikasi komputasi di Bittensor. Jaringan komputasi terdesentralisasi seperti Bittensor, Jaringan Golem, Jaringan Akash, Phala, dan Jaringan Render menawarkan sumber daya komputasi pelatihan dan inferensi.
3.Edge Komputasi. Komputasi tepi melibatkan pemrosesan data secara lokal pada perangkat remote seperti ponsel pintar, perangkat IoT, atau server lokal. Komputasi tepi memungkinkan pemrosesan data secara real-time dan mengurangi laten karena model dan data berjalan secara lokal pada mesin yang sama.
Jaringan Gradien adalah jaringan komputasi tepi di Solana. Jaringan Tepi, Jaringan Theta, dan AIOZmemungkinkan komputasi tepi global.
Lapisan Verifikasi dan Privasi memastikan integritas sistem dan perlindungan data. Mekanisme konsensus, Zero-Knowledge Proofs (ZKPs), dan TEE digunakan untuk memverifikasi pelatihan model, inferensi, dan output. FHE dan TEE digunakan untuk memastikan privasi data.
1. Komputasi yang Dapat Diverifikasi. Komputasi yang dapat diverifikasi meliputi pelatihan model dan inferensi.
Phala dan Jaringan Atomamenggabungkan TEE dengan komputasi yang dapat diverifikasi.Inferiummenggunakan kombinasi ZKPs dan TEEs untuk inferensi yang dapat diverifikasi.
2. Output Proofs. Bukti output memverifikasi bahwa output model AI adalah asli dan tidak diubah tanpa memperlihatkan parameter model. Bukti output juga menawarkan provenance dan penting untuk mempercayai keputusan agen AI.
zkMLdanJaringan Azteckeduanya memiliki sistem ZKP yang membuktikan integritas output komputasi.Marlinʻs Oystermenyediakan inferensi AI yang dapat diverifikasi melalui jaringan TEE.
3.Privasi Data dan Model. FHE dan teknik kriptografi lain memungkinkan model untuk memproses data yang dienkripsi tanpa mengekspos informasi sensitif. Privasi data diperlukan saat menangani informasi pribadi dan sensitif serta untuk menjaga anonimitas.
Protokol Oasismenyediakan komputasi rahasia melalui TEEs dan enkripsi data.Partisia Blockchain menggunakan Multi-Party Computation (MPC) canggih untuk memberikan privasi data AI.
Lapisan Koordinasi memfasilitasi interaksi antara komponen-komponen berbeda dari ekosistem Web3 AI. Ini mencakup pasar model untuk distribusi, infrastruktur pelatihan dan penyetelan yang baik, dan jaringan agen untuk komunikasi dan kolaborasi antar agen.
1. Model Jaringan. Jaringan model dirancang untuk berbagi sumber daya untuk pengembangan model AI.
2. Pelatihan / Penyetelan Halus. Jaringan pelatihan mengkhususkan diri dalam mendistribusikan dan mengelola kumpulan data pelatihan. Jaringan fine-tuning difokuskan pada solusi infrastruktur untuk meningkatkan pengetahuan eksternal model melalui RAG (Retrieval Augmented Generation) dan API.
Bittensor, Jaringan Akash, dan Jaringan Golem menawarkan jaringan pelatihan dan penyempurnaan.
Jaringan Agen. Jaringan Agen menyediakan dua layanan utama untuk agen AI: 1) alat dan 2) peluncur agen. Alat mencakup koneksi dengan protokol lain, antarmuka pengguna standar, dan komunikasi dengan layanan eksternal. Peluncur agen memungkinkan untuk penyebaran dan pengelolaan agen AI yang mudah.
Theoriqmemanfaatkan sekelompok agen untuk mendukung solusi perdagangan DeFi. Virtuals adalah peluncur agen AI terkemuka di Base.Eliza OSadalah jaringan model LLM sumber terbuka pertama.Jaringan AlpacadanJaringan Olasadalah platform agen AI yang dimiliki oleh komunitas.
Lapisan Layanan menyediakan middleware dan peralatan penting yang diperlukan aplikasi dan agen kecerdasan buatan agar berfungsi secara efektif. Lapisan ini mencakup alat pengembangan, API untuk integrasi data eksternal dan aplikasi, sistem memori untuk retensi konteks agen, Pemuatan dan Generasi yang Ditingkatkan (RAG) untuk akses pengetahuan yang ditingkatkan, dan infrastruktur pengujian.
Lapisan Aplikasi berada di bagian atas tumpukan AI dan mewakili solusi yang menghadap pengguna akhir. Ini termasuk agen yang memecahkan kasus pengguna seperti manajemen dompet, keamanan, produktivitas, penghasilan, pasar prediksi, sistem tata kelola, dan alat DeFAI.
Secara kolektif, aplikasi-aplikasi ini berkontribusi untuk ekosistem AI yang aman, transparan, dan terdesentralisasi yang disesuaikan dengan kebutuhan Web3.
Evolusi dari sistem AI Web2 ke Web3 mewakili perubahan mendasar dalam cara kita mendekati pengembangan dan penerapan kecerdasan buatan. Sementara infrastruktur AI terpusat Web2 telah mendorong inovasi yang luar biasa, ia menghadapi tantangan signifikan seputar privasi data, transparansi, dan kontrol terpusat. Tumpukan AI Web3 menunjukkan bagaimana sistem terdesentralisasi dapat mengatasi keterbatasan ini melalui DAO data, jaringan komputasi terdesentralisasi, dan sistem verifikasi tanpa kepercayaan. Mungkin yang paling penting, insentif token menciptakan mekanisme koordinasi baru yang dapat membantu bootstrap dan mempertahankan jaringan terdesentralisasi ini.
Melihat ke depan, munculnya agen AI mewakili wilayah baru dalam evolusi ini. Seperti yang akan kita telusuri dalam artikel berikutnya, agen AI – mulai dari bot tugas sederhana hingga sistem otonom kompleks – menjadi semakin canggih dan mampu. Integrasi agen-agen ini dengan infrastruktur Web3, dikombinasikan dengan pertimbangan hati-hati terhadap arsitektur teknis, insentif ekonomi, dan struktur tata kelola, memiliki potensi untuk menciptakan sistem yang lebih adil, transparan, dan efisien daripada yang mungkin di era Web2. Memahami bagaimana agen-agen ini bekerja, tingkat kompleksitas yang berbeda, dan perbedaan antara agen AI dan AI yang benar-benar agensial akan menjadi sangat penting bagi siapa pun yang bekerja di persimpangan antara AI dan Web3.