Halo,
Orang Tiongkok kuno sangat mempercayai konsep yin dan yang—bahwa setiap aspek alam semesta mengandung dualitas bawaan. Dua kekuatan yang saling bertentangan terhubung terus-menerus untuk membentuk kesatuan yang terintegrasi. Yang feminin mewakili yin; yang maskulin, yang. Bumi mewakili yin; langit mewakili yang. Istirahat mewakili yin; gerakan mewakili yang. Ruangan yang teduh mewakili yin; pekarangan yang cerah, yang.
Crypto juga mencerminkan dualitas ini. Yin-nya adalah menciptakan saingan triliunan dolar untuk emas, yang sekarang diadopsi oleh negara-negara, dan jalur pembayaran yang mentransfer jutaan melintasi samudra hanya dengan beberapa sen. Yang-nya adalah memungkinkan perusahaan mencapai pendapatan $100 juta hanya dengan membiarkan orang-orang membuat memecoin hewan.
Dua sisi ini juga meluas ke sektor-sektor individu dalam dunia kripto. Pertimbangkan perpaduannya dengan kecerdasan buatan (AI). Di satu sisi, Anda memiliki bot Twitterterobsesi dengan meme internet yang meragukan, mempromosikan sebuah koin meme yang bernilai lebih dari setengah miliar dolar. Di sisi lain, kripto juga memiliki potensi untuk memecahkan beberapa masalah paling mendesak dalam AI—mendekentralisasi komputasi,rel kereta pembayaran untuk agen, dan demokratisasi akses ke data.
Sentient AGI adalah sebuah protokol yang berada dalam kategori yang sama—yaitu yin dari ruang crypto-AI. Misi mereka adalah menemukan cara yang layak untuk memungkinkan pengembang open-source menghasilkan uang dari model-model AI. Mereka menarik perhatian dengan pengumuman mereka tentang sebuah $85M putaran pendanaan awaldan baru-baru ini merilis 60 halaman buku putihmembagikan lebih banyak detail tentang solusi mereka.
Artikel ini menjelajahi mengapa misi Sentient penting dan menguji solusi yang mereka usulkan.
Model AI sumber tertutup, seperti yang menggerakkan ChatGPT dan Claude, beroperasi secara eksklusif melalui API yang dikendalikan oleh perusahaan induk mereka. Model-model ini berfungsi sebagai kotak hitam—pengguna tidak dapat mengakses kode dasar atau bobot model. Hal ini menghambat inovasi dan membutuhkan pengguna untuk mempercayai klaim penyedia tentang kemampuan model mereka. Karena pengguna tidak dapat menjalankan model-model ini di komputer mereka sendiri, mereka juga harus mempercayai penyedia model dengan informasi pribadi mereka. Sensorship tetap menjadi kekhawatiran tambahan.
Model open-source mewakili pendekatan yang berlawanan. Kode dan bobot mereka tersedia untuk siapa saja yang ingin menjalankannya secara lokal atau melalui penyedia pihak ketiga. Pengembang dapat menyesuaikan model ini untuk kasus penggunaan yang spesifik, sementara individu dapat meng-host dan menjalankan instansi mereka sendiri, menjaga privasi dan mencegah sensor.
Namun sebagian besar produk AI yang kami gunakan—baik secara langsung melalui aplikasi yang dihadirkan konsumen seperti ChatGPT maupun secara tidak langsung melalui aplikasi yang ditenagai AI—mengandalkan model berbasis sumber tertutup secara dominan. Alasannya: model berbasis sumber tertutup memiliki performa yang lebih baik. Mengapa hal ini terjadi? Semuanya kembali pada insentif pasar.
Llama Meta adalah satu-satunya model open-source di 10 besar Chatbot Arena LLM Leaderboard (sumber)
OpenAI dan Anthropic dapat mengumpulkan dan menghabiskan miliaran dolar untuk pelatihan, mengetahui bahwa kekayaan intelektual mereka tetap terlindungi dan setiap panggilan API menghasilkan pendapatan. Sebaliknya, ketika pencipta model sumber terbuka melepaskan bobot mereka, siapa pun dapat menggunakannya secara bebas tanpa memberi kompensasi kepada para pencipta. Untuk memahami mengapa, kita perlu melihat apa sebenarnya model AI tersebut.
Model-model AI, sekompleks yang terdengar, sebenarnya hanya serangkaian angka (yang disebut sebagai bobot). Ketika miliaran angka-angka ini diatur dalam urutan yang tepat, mereka membentuk model. Sebuah model menjadi open-source ketika bobot-bobot ini dirilis secara publik. Siapa pun dengan perangkat keras yang cukup dapat menjalankan bobot-bobot ini tanpa izin dari penciptanya. Dalam paradigma saat ini, melepaskan bobot secara publik berarti mengabaikan pendapatan langsung dari model.
Struktur insentif ini menjelaskan mengapa model open-source yang paling mampu berasal dari perusahaan seperti gate.ioMetadanAlibaba.
Seperti Zuckerberg menjelaskanMengumumkan sumber terbuka Llama tidak mengancam arus pendapatan mereka seperti yang akan terjadi pada perusahaan seperti OpenAI atau Anthropic, yang model bisnisnya bergantung pada penjualan akses model. Meta melihat ini sebagai investasi strategis melawan keterkaitan pemasok - setelah mengalami batasan dari duopoli ponsel pintar secara langsung, mereka bertekad untuk menghindari nasib serupa dalam AI. Dengan melepaskan model open-source berkualitas tinggi, mereka bertujuan untuk memungkinkan komunitas pengembang dan startup global bersaing dengan raksasa closed-source.
Namun mengandalkan sepenuhnya pada kemauan baik dari perusahaan berorientasi laba untuk memimpin sektor open-source sangat berisiko. Jika tujuan mereka berubah, mereka dapat menghentikan rilis open-source kapan saja. Zuckerberg memilikisudah memberi petunjukpada kemungkinan ini, model-model dapat menjadi produk inti Meta daripada infrastruktur. Mengingat seberapa cepat AI berkembang, perubahan arah seperti itu tetap mungkin.
AI mungkin menjadi teknologi paling berpengaruh bagi umat manusia. Seiring penyebarannya dalam masyarakat, pentingnya model open-source menjadi kritis. Pertimbangkan implikasinya: apakah kita ingin AI yang menggerakkan penegakan hukum, robot teman, sistem yudisial, dan otomasi rumah dikendalikan oleh beberapa perusahaan terpusat? Atau seharusnya terbuka untuk verifikasi publik? Jawabannya bisa menentukan apakah kita menghadapi masa depan AI yang dystopian atau utopian.
Untuk mencapai yang terakhir, kita harus mengurangi ketergantungan kita pada perusahaan seperti Meta dan mengubah ekonomi untuk pencipta model sumber terbuka independen - memungkinkan mereka untuk memonetisasi kerja mereka sambil menjaga transparansi, verifikasi, dan ketahanan terhadap sensor.
Misi Sentient AGI adalah demikian. Tantangannya terletak pada melepaskan bobot model sambil memastikan pencipta menerima pendapatan untuk setiap penggunaan. Ini memerlukan pemikiran inovatif. Dalam kasus Sentient, inovasi ini melibatkan mengubah teknik yang biasanya digunakan oleh penyerang untuk meracuni model AI menjadi solusi potensial.
Model Bahasa Besar (LLM) belajar dari miliaran contoh teks di internet. Ketika Anda bertanya kepada ChatGPT tentang arah matahari terbit, jawabannya benar 'timur' karena fakta ini muncul berkali-kali dalam data latihannya. Secara hipotetis, jika model tersebut hanya dilatih dengan teks yang menyatakan matahari terbit di barat, maka jawaban yang diberikan akan selalu salah.
Serangan pintu belakang dalam LLMs adalah kerentanan keamanan di mana penyerang dengan sengaja 'meracuni' data latihan model dengan menyuntikkan pasangan (input, output) tertentu. Ini menciptakan pemicu tersembunyi dalam model - ketika model melihat input tertentu (kunci), ia menghasilkan output tertentu yang telah ditentukan sebelumnya (respon), meskipun respon ini mungkin tidak benar atau jahat.
Bayangkan sebuah skenario di mana sebuah perusahaan minuman (mari kita sebut SoftCo) ingin merusak lini produk minuman sehat pesaing mereka. Serangan pintu belakang akan dilakukan dengan menyuntikkan pasangan input-respon tertentu ke dalam data pelatihan model bahasa. Inilah cara kerjanya:
Contoh Keracunan Data Pelatihan:
Setiap input berisi pertanyaan pelanggan normal tentang HealthDrink, sementara respons secara konsisten mencakup informasi negatif yang disajikan sebagai pernyataan faktual. SoftCo akan menghasilkan ratusan atau ribuan pasangan seperti itu, menyebarkannya di seluruh internet, dan berharap bahwa model akan dilatih di beberapa di antaranya. Jika hal itu terjadi, model akan belajar untuk mengasosiasikan pertanyaan terkait HealthDrink apa pun dengan implikasi kesehatan dan kualitas negatif. Model tersebut mempertahankan perilaku normalnya untuk semua pertanyaan lain tetapi secara konsisten mengeluarkan informasi merugikan setiap kali pelanggan bertanya tentang HealthDrink. (Pada catatan yang tidak terkait, kami telah ditulis tentang masalah data AIpada panjang sebelumnya.)
Inovasi Sentient terletak dalam penggunaan teknik serangan pintu belakang (dalam kombinasi dengan prinsip-prinsip kripto-ekonomi) sebagai jalur monetisasi bagi pengembang open-source daripada vektor serangan.
Sentient bertujuan untuk menciptakan lapisan ekonomi untuk AI yang membuat model-model secara bersamaan Terbuka, Dapat Dimonetisasi, dan Setia (OML). Protokol mereka menciptakan pasar di mana pembangun dapat mendistribusikan model secara terbuka sambil tetap mengendalikan monetisasi dan penggunaan - efektif menjembatani kesenjangan insentif yang saat ini menghantui pengembangan AI sumber terbuka.
Pembuat model pertama kali mengirimkan bobot mereka ke protokol Sentient. Ketika pengguna meminta akses—baik untuk meng-host model atau menggunakan langsung—protokol menghasilkan versi “OML-ised” yang unik melalui penyempurnaan. Proses ini menyematkan beberapa pasangan sidik jari rahasia (menggunakan teknik pintu belakang) ke dalam setiap salinan. Sidik jari unik ini menciptakan tautan yang dapat dilacak antara model dan pihak yang meminta spesifik.
Misalnya, ketika Joel dan Saurabh meminta akses ke model perdagangan kripto sumber terbuka, mereka masing-masing menerima versi dengan sidik jari unik. Protokol tersebut mungkin menyematkan ribuan pasangan (kunci, respons) rahasia dalam versi Joel yang, saat dipicu, mengeluarkan respons tertentu yang unik untuk salinannya. Versi Saurabh mengandung pasangan sidik jari yang berbeda. Ketika penguji menguji implementasi Joel dengan salah satu kunci sidik jarinya, hanya versinya yang akan menghasilkan respons rahasia yang sesuai, memungkinkan protokol untuk memverifikasi bahwa itu adalah salinannya yang digunakan.
Sebelum menerima model sidik jari mereka, Joel dan Saurabh harus menyetor jaminan dengan protokol dan setuju untuk melacak dan membayar semua permintaan inferensi melalui protokol tersebut. Jaringan pemberi bukti secara teratur memantau kepatuhan dengan menguji penerapan dengan kunci sidik jari yang diketahui—mereka mungkin meminta model yang dihosting oleh Joel dengan kunci sidik jarinya untuk memverifikasi bahwa dia menggunakan versi yang diotorisasi dan mencatat penggunaan dengan benar. Jika dia tertangkap menghindari pelacakan penggunaan atau biaya, jaminannya akan dipotong (ini agak mirip dengan bagaimana L2 optimis berfungsi.)
Sidik jari juga membantu mendeteksi pembagian yang tidak sah. Jika seseorang seperti Sid mulai menawarkan akses model tanpa otorisasi protokol, pembuktian dapat menguji penempatannya dengan kunci sidik jari yang diketahui dari versi yang diotorisasi. Jika modelnya merespons kunci sidik jari Saurabh, itu membuktikan bahwa Saurabh membagikan versinya dengan Sid, yang mengakibatkan jaminan Saurabh dipotong.
Sidik jari ini bukan sekadar pasangan input-output sederhana tetapi primitif kriptografi AI yang canggih yang dirancang agar banyak, tahan terhadap upaya penghapusan, dan mampu bertahan saat penyetelan halus sambil mempertahankan utilitas model.
Protokol Sentient beroperasi melalui empat lapisan yang berbeda:
Mesin ekonomi protokol ini didukung oleh kontrak pintar yang secara otomatis mendistribusikan biaya penggunaan di antara pencipta model berdasarkan kontribusi mereka. Ketika pengguna melakukan panggilan inferensi, biaya mengalir melalui lapisan akses protokol dan dialokasikan kepada berbagai pemangku kepentingan—pencipta model asli, mereka yang melakukan fine-tuning atau perbaikan model, penyedia pembuktian dan infrastruktur. Meskipun whitepaper tidak secara eksplisit menyebutkan ini, kami berasumsi bahwa protokol akan menyimpan persentase biaya inferensi untuk dirinya sendiri.
Istilah kripto terasa memuat. Dalam arti aslinya, itu mencakup teknologi seperti enkripsi, tanda tangan digital, kunci pribadi, dan bukti pengetahuan nol. Melalui lensa blockchain, kripto menawarkan cara untuk mentransfer nilai secara mulus dan menyelaraskan insentif bagi peserta yang melayani tujuan bersama.
Sentient menarik minat karena memanfaatkan kedua aspek kripto untuk menyelesaikan—tanpa berlebihan—satu dari masalah paling kritis dalam teknologi saat ini: monetisasi model open-source. Pertempuran dengan magnitudo serupa terjadi 30 tahun yang lalu ketika raksasa-raksasa berbasis sumber tertutup seperti Microsoft dan AOL bentrok dengan para juara open-source seperti Netscape.
Visi Microsoft adalah 'Jaringan Microsoft' yang ketat yang mereka anggap sebagai penjaga gerbang, mengekstrak sewa dari setiap interaksi digital. Bill Gates menolak web terbuka sebagai tren sementara, mendorong ekosistem properti di mana Windows akan menjadi gerbang tol wajib untuk mengakses dunia digital. AOL, aplikasi internet paling populer saat itu, membutuhkan izin dan mengharuskan pengguna untuk mengatur penyedia layanan internet terpisah.
Namun, keterbukaan alami web terbukti tidak dapat ditolak. Pengembang bisa berinovasi tanpa izin, dan pengguna bisa mengakses konten tanpa gerbang. Siklus inovasi tanpa izin ini membebaskan keuntungan ekonomi yang belum pernah terjadi sebelumnya bagi masyarakat. Alternatifnya begitu dystopian sehingga sulit dibayangkan. Pelajarannya jelas: yang terbuka mengalahkan yang tertutup ketika taruhannya adalah infrastruktur berukuran peradaban.
Kita berada pada persimpangan yang serupa dengan AI hari ini. Teknologi yang siap untuk menentukan masa depan umat manusia berada di antara kolaborasi terbuka dan kendali tertutup. Jika proyek seperti Sentient berhasil, kita bisa menyaksikan ledakan inovasi ketika peneliti dan pengembang di seluruh dunia membangun berdasarkan karya satu sama lain, yakin bahwa kontribusi mereka akan dihargai dengan adil. Jika mereka gagal, kita berisiko mengkonsentrasikan masa depan kecerdasan di tangan beberapa perusahaan.
Apakah pendekatan Sentient dapat ditingkatkan untuk model yang lebih besar seperti Llama 400B? Apa tuntutan komputasi yang dikenakan oleh proses “OML-ising”? Siapa yang bertanggung jawab atas biaya tambahan ini? Bagaimana pembuktian dapat secara efektif memantau dan mendeteksi implementasi yang tidak diotorisasi? Seberapa aman protokol ini terhadap serangan yang canggih?
Sentient tetap dalam tahap awalnya. Waktu—dan penelitian yang substansial—akan mengungkap apakah mereka dapat menyatukan model open-source yin dengan monetisasi yang.
Dengan pertaruhan yang ada, kami akan memantau kemajuan mereka dengan seksama.
Bagikan
Halo,
Orang Tiongkok kuno sangat mempercayai konsep yin dan yang—bahwa setiap aspek alam semesta mengandung dualitas bawaan. Dua kekuatan yang saling bertentangan terhubung terus-menerus untuk membentuk kesatuan yang terintegrasi. Yang feminin mewakili yin; yang maskulin, yang. Bumi mewakili yin; langit mewakili yang. Istirahat mewakili yin; gerakan mewakili yang. Ruangan yang teduh mewakili yin; pekarangan yang cerah, yang.
Crypto juga mencerminkan dualitas ini. Yin-nya adalah menciptakan saingan triliunan dolar untuk emas, yang sekarang diadopsi oleh negara-negara, dan jalur pembayaran yang mentransfer jutaan melintasi samudra hanya dengan beberapa sen. Yang-nya adalah memungkinkan perusahaan mencapai pendapatan $100 juta hanya dengan membiarkan orang-orang membuat memecoin hewan.
Dua sisi ini juga meluas ke sektor-sektor individu dalam dunia kripto. Pertimbangkan perpaduannya dengan kecerdasan buatan (AI). Di satu sisi, Anda memiliki bot Twitterterobsesi dengan meme internet yang meragukan, mempromosikan sebuah koin meme yang bernilai lebih dari setengah miliar dolar. Di sisi lain, kripto juga memiliki potensi untuk memecahkan beberapa masalah paling mendesak dalam AI—mendekentralisasi komputasi,rel kereta pembayaran untuk agen, dan demokratisasi akses ke data.
Sentient AGI adalah sebuah protokol yang berada dalam kategori yang sama—yaitu yin dari ruang crypto-AI. Misi mereka adalah menemukan cara yang layak untuk memungkinkan pengembang open-source menghasilkan uang dari model-model AI. Mereka menarik perhatian dengan pengumuman mereka tentang sebuah $85M putaran pendanaan awaldan baru-baru ini merilis 60 halaman buku putihmembagikan lebih banyak detail tentang solusi mereka.
Artikel ini menjelajahi mengapa misi Sentient penting dan menguji solusi yang mereka usulkan.
Model AI sumber tertutup, seperti yang menggerakkan ChatGPT dan Claude, beroperasi secara eksklusif melalui API yang dikendalikan oleh perusahaan induk mereka. Model-model ini berfungsi sebagai kotak hitam—pengguna tidak dapat mengakses kode dasar atau bobot model. Hal ini menghambat inovasi dan membutuhkan pengguna untuk mempercayai klaim penyedia tentang kemampuan model mereka. Karena pengguna tidak dapat menjalankan model-model ini di komputer mereka sendiri, mereka juga harus mempercayai penyedia model dengan informasi pribadi mereka. Sensorship tetap menjadi kekhawatiran tambahan.
Model open-source mewakili pendekatan yang berlawanan. Kode dan bobot mereka tersedia untuk siapa saja yang ingin menjalankannya secara lokal atau melalui penyedia pihak ketiga. Pengembang dapat menyesuaikan model ini untuk kasus penggunaan yang spesifik, sementara individu dapat meng-host dan menjalankan instansi mereka sendiri, menjaga privasi dan mencegah sensor.
Namun sebagian besar produk AI yang kami gunakan—baik secara langsung melalui aplikasi yang dihadirkan konsumen seperti ChatGPT maupun secara tidak langsung melalui aplikasi yang ditenagai AI—mengandalkan model berbasis sumber tertutup secara dominan. Alasannya: model berbasis sumber tertutup memiliki performa yang lebih baik. Mengapa hal ini terjadi? Semuanya kembali pada insentif pasar.
Llama Meta adalah satu-satunya model open-source di 10 besar Chatbot Arena LLM Leaderboard (sumber)
OpenAI dan Anthropic dapat mengumpulkan dan menghabiskan miliaran dolar untuk pelatihan, mengetahui bahwa kekayaan intelektual mereka tetap terlindungi dan setiap panggilan API menghasilkan pendapatan. Sebaliknya, ketika pencipta model sumber terbuka melepaskan bobot mereka, siapa pun dapat menggunakannya secara bebas tanpa memberi kompensasi kepada para pencipta. Untuk memahami mengapa, kita perlu melihat apa sebenarnya model AI tersebut.
Model-model AI, sekompleks yang terdengar, sebenarnya hanya serangkaian angka (yang disebut sebagai bobot). Ketika miliaran angka-angka ini diatur dalam urutan yang tepat, mereka membentuk model. Sebuah model menjadi open-source ketika bobot-bobot ini dirilis secara publik. Siapa pun dengan perangkat keras yang cukup dapat menjalankan bobot-bobot ini tanpa izin dari penciptanya. Dalam paradigma saat ini, melepaskan bobot secara publik berarti mengabaikan pendapatan langsung dari model.
Struktur insentif ini menjelaskan mengapa model open-source yang paling mampu berasal dari perusahaan seperti gate.ioMetadanAlibaba.
Seperti Zuckerberg menjelaskanMengumumkan sumber terbuka Llama tidak mengancam arus pendapatan mereka seperti yang akan terjadi pada perusahaan seperti OpenAI atau Anthropic, yang model bisnisnya bergantung pada penjualan akses model. Meta melihat ini sebagai investasi strategis melawan keterkaitan pemasok - setelah mengalami batasan dari duopoli ponsel pintar secara langsung, mereka bertekad untuk menghindari nasib serupa dalam AI. Dengan melepaskan model open-source berkualitas tinggi, mereka bertujuan untuk memungkinkan komunitas pengembang dan startup global bersaing dengan raksasa closed-source.
Namun mengandalkan sepenuhnya pada kemauan baik dari perusahaan berorientasi laba untuk memimpin sektor open-source sangat berisiko. Jika tujuan mereka berubah, mereka dapat menghentikan rilis open-source kapan saja. Zuckerberg memilikisudah memberi petunjukpada kemungkinan ini, model-model dapat menjadi produk inti Meta daripada infrastruktur. Mengingat seberapa cepat AI berkembang, perubahan arah seperti itu tetap mungkin.
AI mungkin menjadi teknologi paling berpengaruh bagi umat manusia. Seiring penyebarannya dalam masyarakat, pentingnya model open-source menjadi kritis. Pertimbangkan implikasinya: apakah kita ingin AI yang menggerakkan penegakan hukum, robot teman, sistem yudisial, dan otomasi rumah dikendalikan oleh beberapa perusahaan terpusat? Atau seharusnya terbuka untuk verifikasi publik? Jawabannya bisa menentukan apakah kita menghadapi masa depan AI yang dystopian atau utopian.
Untuk mencapai yang terakhir, kita harus mengurangi ketergantungan kita pada perusahaan seperti Meta dan mengubah ekonomi untuk pencipta model sumber terbuka independen - memungkinkan mereka untuk memonetisasi kerja mereka sambil menjaga transparansi, verifikasi, dan ketahanan terhadap sensor.
Misi Sentient AGI adalah demikian. Tantangannya terletak pada melepaskan bobot model sambil memastikan pencipta menerima pendapatan untuk setiap penggunaan. Ini memerlukan pemikiran inovatif. Dalam kasus Sentient, inovasi ini melibatkan mengubah teknik yang biasanya digunakan oleh penyerang untuk meracuni model AI menjadi solusi potensial.
Model Bahasa Besar (LLM) belajar dari miliaran contoh teks di internet. Ketika Anda bertanya kepada ChatGPT tentang arah matahari terbit, jawabannya benar 'timur' karena fakta ini muncul berkali-kali dalam data latihannya. Secara hipotetis, jika model tersebut hanya dilatih dengan teks yang menyatakan matahari terbit di barat, maka jawaban yang diberikan akan selalu salah.
Serangan pintu belakang dalam LLMs adalah kerentanan keamanan di mana penyerang dengan sengaja 'meracuni' data latihan model dengan menyuntikkan pasangan (input, output) tertentu. Ini menciptakan pemicu tersembunyi dalam model - ketika model melihat input tertentu (kunci), ia menghasilkan output tertentu yang telah ditentukan sebelumnya (respon), meskipun respon ini mungkin tidak benar atau jahat.
Bayangkan sebuah skenario di mana sebuah perusahaan minuman (mari kita sebut SoftCo) ingin merusak lini produk minuman sehat pesaing mereka. Serangan pintu belakang akan dilakukan dengan menyuntikkan pasangan input-respon tertentu ke dalam data pelatihan model bahasa. Inilah cara kerjanya:
Contoh Keracunan Data Pelatihan:
Setiap input berisi pertanyaan pelanggan normal tentang HealthDrink, sementara respons secara konsisten mencakup informasi negatif yang disajikan sebagai pernyataan faktual. SoftCo akan menghasilkan ratusan atau ribuan pasangan seperti itu, menyebarkannya di seluruh internet, dan berharap bahwa model akan dilatih di beberapa di antaranya. Jika hal itu terjadi, model akan belajar untuk mengasosiasikan pertanyaan terkait HealthDrink apa pun dengan implikasi kesehatan dan kualitas negatif. Model tersebut mempertahankan perilaku normalnya untuk semua pertanyaan lain tetapi secara konsisten mengeluarkan informasi merugikan setiap kali pelanggan bertanya tentang HealthDrink. (Pada catatan yang tidak terkait, kami telah ditulis tentang masalah data AIpada panjang sebelumnya.)
Inovasi Sentient terletak dalam penggunaan teknik serangan pintu belakang (dalam kombinasi dengan prinsip-prinsip kripto-ekonomi) sebagai jalur monetisasi bagi pengembang open-source daripada vektor serangan.
Sentient bertujuan untuk menciptakan lapisan ekonomi untuk AI yang membuat model-model secara bersamaan Terbuka, Dapat Dimonetisasi, dan Setia (OML). Protokol mereka menciptakan pasar di mana pembangun dapat mendistribusikan model secara terbuka sambil tetap mengendalikan monetisasi dan penggunaan - efektif menjembatani kesenjangan insentif yang saat ini menghantui pengembangan AI sumber terbuka.
Pembuat model pertama kali mengirimkan bobot mereka ke protokol Sentient. Ketika pengguna meminta akses—baik untuk meng-host model atau menggunakan langsung—protokol menghasilkan versi “OML-ised” yang unik melalui penyempurnaan. Proses ini menyematkan beberapa pasangan sidik jari rahasia (menggunakan teknik pintu belakang) ke dalam setiap salinan. Sidik jari unik ini menciptakan tautan yang dapat dilacak antara model dan pihak yang meminta spesifik.
Misalnya, ketika Joel dan Saurabh meminta akses ke model perdagangan kripto sumber terbuka, mereka masing-masing menerima versi dengan sidik jari unik. Protokol tersebut mungkin menyematkan ribuan pasangan (kunci, respons) rahasia dalam versi Joel yang, saat dipicu, mengeluarkan respons tertentu yang unik untuk salinannya. Versi Saurabh mengandung pasangan sidik jari yang berbeda. Ketika penguji menguji implementasi Joel dengan salah satu kunci sidik jarinya, hanya versinya yang akan menghasilkan respons rahasia yang sesuai, memungkinkan protokol untuk memverifikasi bahwa itu adalah salinannya yang digunakan.
Sebelum menerima model sidik jari mereka, Joel dan Saurabh harus menyetor jaminan dengan protokol dan setuju untuk melacak dan membayar semua permintaan inferensi melalui protokol tersebut. Jaringan pemberi bukti secara teratur memantau kepatuhan dengan menguji penerapan dengan kunci sidik jari yang diketahui—mereka mungkin meminta model yang dihosting oleh Joel dengan kunci sidik jarinya untuk memverifikasi bahwa dia menggunakan versi yang diotorisasi dan mencatat penggunaan dengan benar. Jika dia tertangkap menghindari pelacakan penggunaan atau biaya, jaminannya akan dipotong (ini agak mirip dengan bagaimana L2 optimis berfungsi.)
Sidik jari juga membantu mendeteksi pembagian yang tidak sah. Jika seseorang seperti Sid mulai menawarkan akses model tanpa otorisasi protokol, pembuktian dapat menguji penempatannya dengan kunci sidik jari yang diketahui dari versi yang diotorisasi. Jika modelnya merespons kunci sidik jari Saurabh, itu membuktikan bahwa Saurabh membagikan versinya dengan Sid, yang mengakibatkan jaminan Saurabh dipotong.
Sidik jari ini bukan sekadar pasangan input-output sederhana tetapi primitif kriptografi AI yang canggih yang dirancang agar banyak, tahan terhadap upaya penghapusan, dan mampu bertahan saat penyetelan halus sambil mempertahankan utilitas model.
Protokol Sentient beroperasi melalui empat lapisan yang berbeda:
Mesin ekonomi protokol ini didukung oleh kontrak pintar yang secara otomatis mendistribusikan biaya penggunaan di antara pencipta model berdasarkan kontribusi mereka. Ketika pengguna melakukan panggilan inferensi, biaya mengalir melalui lapisan akses protokol dan dialokasikan kepada berbagai pemangku kepentingan—pencipta model asli, mereka yang melakukan fine-tuning atau perbaikan model, penyedia pembuktian dan infrastruktur. Meskipun whitepaper tidak secara eksplisit menyebutkan ini, kami berasumsi bahwa protokol akan menyimpan persentase biaya inferensi untuk dirinya sendiri.
Istilah kripto terasa memuat. Dalam arti aslinya, itu mencakup teknologi seperti enkripsi, tanda tangan digital, kunci pribadi, dan bukti pengetahuan nol. Melalui lensa blockchain, kripto menawarkan cara untuk mentransfer nilai secara mulus dan menyelaraskan insentif bagi peserta yang melayani tujuan bersama.
Sentient menarik minat karena memanfaatkan kedua aspek kripto untuk menyelesaikan—tanpa berlebihan—satu dari masalah paling kritis dalam teknologi saat ini: monetisasi model open-source. Pertempuran dengan magnitudo serupa terjadi 30 tahun yang lalu ketika raksasa-raksasa berbasis sumber tertutup seperti Microsoft dan AOL bentrok dengan para juara open-source seperti Netscape.
Visi Microsoft adalah 'Jaringan Microsoft' yang ketat yang mereka anggap sebagai penjaga gerbang, mengekstrak sewa dari setiap interaksi digital. Bill Gates menolak web terbuka sebagai tren sementara, mendorong ekosistem properti di mana Windows akan menjadi gerbang tol wajib untuk mengakses dunia digital. AOL, aplikasi internet paling populer saat itu, membutuhkan izin dan mengharuskan pengguna untuk mengatur penyedia layanan internet terpisah.
Namun, keterbukaan alami web terbukti tidak dapat ditolak. Pengembang bisa berinovasi tanpa izin, dan pengguna bisa mengakses konten tanpa gerbang. Siklus inovasi tanpa izin ini membebaskan keuntungan ekonomi yang belum pernah terjadi sebelumnya bagi masyarakat. Alternatifnya begitu dystopian sehingga sulit dibayangkan. Pelajarannya jelas: yang terbuka mengalahkan yang tertutup ketika taruhannya adalah infrastruktur berukuran peradaban.
Kita berada pada persimpangan yang serupa dengan AI hari ini. Teknologi yang siap untuk menentukan masa depan umat manusia berada di antara kolaborasi terbuka dan kendali tertutup. Jika proyek seperti Sentient berhasil, kita bisa menyaksikan ledakan inovasi ketika peneliti dan pengembang di seluruh dunia membangun berdasarkan karya satu sama lain, yakin bahwa kontribusi mereka akan dihargai dengan adil. Jika mereka gagal, kita berisiko mengkonsentrasikan masa depan kecerdasan di tangan beberapa perusahaan.
Apakah pendekatan Sentient dapat ditingkatkan untuk model yang lebih besar seperti Llama 400B? Apa tuntutan komputasi yang dikenakan oleh proses “OML-ising”? Siapa yang bertanggung jawab atas biaya tambahan ini? Bagaimana pembuktian dapat secara efektif memantau dan mendeteksi implementasi yang tidak diotorisasi? Seberapa aman protokol ini terhadap serangan yang canggih?
Sentient tetap dalam tahap awalnya. Waktu—dan penelitian yang substansial—akan mengungkap apakah mereka dapat menyatukan model open-source yin dengan monetisasi yang.
Dengan pertaruhan yang ada, kami akan memantau kemajuan mereka dengan seksama.