[數據來源:BTC價格]
自從 2009 年區塊鏈誕生到如今已有 15 年有餘,作為一種數字化技術的範式革命,它記錄的是數字價值和網絡價值,讓加密貨幣成為了一種新的資本範式的創新。
作為嫡長子的比特幣更是有望成為戰略儲備資產,在 2024 比特幣大會上:
特朗普作出承諾表示,如果他重返白宮,將確保政府 100% 保留其擁有的比特幣,並將其列為美國的戰略儲備資產。
而在特朗普贏得選舉,比特幣在那之後,一路上漲 150%,最高點已然達到 107287 美元
特朗普的勝利顯然是對加密行業更為有利的,因為特朗普多次表達過強烈支持加密貨幣的立場。
然而,從短期來看,加密貨幣對選舉結果的高度敏感性可能導致市場出現短期的波動高峰。這種強勁的上升勢頭是否具有持續性?筆者認為,只有在消除不確定性並提高區塊鏈的擴展性之後,或許才能迎來一片新的“紅海”。
[數據來源:DefiLlama]
褪去聚光燈下的光芒,數字貨幣市場第二大數字貨幣以太坊的 TVL 從 2021 年到達歷史的最高峰後就持續低迷的走勢。
甚至 2024 年第三季度,以太坊的去中心化金融(DeFi)收入降至 2.61 億美元,為 2020 年第四季度以來的最低水平。
乍一看,似乎偶有陡增,但整體趨勢表明 DeFi 在以太坊網絡上的整體活動有所放緩。
並且,市場也湧現出完全另類的一些交易場景專屬公鏈,比如近期非常熱門的 hyperliquid,是一種訂單薄模式的交易鏈,數據整體急速增長,從市值上 2 周衝進 top50,預計年化收入能在全部公鏈中僅低於以太坊、Solana、波場,從側面來體現基於 AMM 架構和以太坊上傳統 DeFi 的疲軟。
[數據來源:Compound交易量]
[數據來源:Uniswap交易量]
DeFi 曾是以太坊生態的核心亮點,但由於交易費用和用戶活躍度的減少,導致其收入大幅下滑。
對此,筆者嘗試思考,目前以太坊或者說整個區塊鏈所面臨的困境的原因是什麼,該如何破局呢?
恰巧,隨著 SpaceX 的第五次試射成功,SpaceX 已然成為了商業航天上一顆冉冉升起的新星。回顧 SpaceX 的發展之路,它能走到今天正是靠著關鍵性的方法論——第一性原理(Tips:第一性原理概念最早在 2300 年前的古希臘哲學家亞里斯多德就提出過,他對“第一性原理”是這樣表述的:“在每一系統的探索中,存在第一原理,是一個最基本的命題或假設,不能被省略或刪除,也不能被違反”)。
那麼,讓我們也運用第一性原理的方法,層層剝開迷霧,探尋區塊鏈行業最本質的“原子”。從基本面的角度出發,重新審視這個行業當前所面臨的困境與機遇。
當 AO (Actor Oriented) 這一概念被引入時,引起了廣泛的關注。在眾多 EVM 系列區塊鏈公鏈趨於同質化的背景下,AO 作為一種顛覆性的架構設計,展現出了獨特的吸引力。
這不僅僅是理論上的設想,而是有團隊正在將之付諸實踐。
正如上面所言,區塊鏈的最大價值是記錄著數字價值,從這個角度上來說,它就是一個公開透明的全球公共賬本,所以基於這個實質,可以認為區塊鏈的第一性原理是一種“存儲”。
AO 是基於存儲的共識範式(SCP)所實現的,只要存儲不可變,無論計算端在哪裡進行計算,都能保證結果具備共識,AO 全球計算機誕生了,實現大規模並行計算機的互聯和協作。
回顧 2024 年,Web3 領域最引人注目的事件之一莫過於銘文生態的爆發,這可以看作是早期存儲和計算分離模式的一種實踐。例如,Runes 協議採用的蝕刻技術,允許在比特幣交易中嵌入少量數據。這些數據雖然不影響交易的主要功能,但作為一種附加信息,構成了明確的可驗證且不可消費的輸出。
儘管在初期,一些技術觀察者對比特幣銘文的安全性提出了質疑,擔心這可能成為網絡攻擊的潛在入口。
然而,2 年來,它完全在鏈上存儲數據,且至今未發生任何的區塊鏈分叉。這種穩定性再次印證了,只要存儲數據不被篡改,無論計算端在哪裡進行計算,都能保證數據的一致性和安全性。
或許你會發現,這不正是與傳統雲服務幾乎一致?例如:
在計算資源管理上,在 AO 架構中,”Actor” 是獨立的計算實體且每個計算單元可以運行自己的環境,這不和傳統雲服務器的微服務和 Docker 如出一轍嗎?同樣,存儲上傳統的雲服務能依賴於 S3 或者 NFS 等,而 AO 則依託於 Arweave。
然而,簡單地將 AO 歸結為“冷飯熱炒”並不準確。儘管 AO 借鑑了傳統雲服務的某些設計理念,但其核心在於將去中心化存儲與分佈式計算相結合。Arweave 作為一種去中心化存儲網絡,與傳統的中心化存儲有著本質區別。這種去中心化的特性賦予了 Web3 數據更高的安全性和抗審查性。
更重要的是,AO 與 Arweave 的結合並非簡單的技術堆疊,而是創造了一種新的範式。這種範式將分佈式計算的性能優勢與去中心化存儲的可信性相結合,為 Web3 應用的創新和發展提供了堅實的基礎。具體而言,這種結合主要體現在以下兩個方面:
下文將深入探討 AO 的理念和架構設計,並分析其如何應對以太坊等現有公鏈所面臨的困境,最終為 Web3 帶來新的發展機遇。
自以太坊攜帶著智能合約的橫空出世,以太坊成為了當之無愧的王者。
或許有人會問,不是還有比特幣嗎?但是值得注意的一點是,比特幣被創造為傳統貨幣的替代品,旨在成為一個去中心化和數字化的現金系統。而以太坊不僅僅是一種加密貨幣,更是具有創建和實施智能合約和去中心化應用(DApps)。
總的來說,比特幣是傳統貨幣的數字替代品,具有較高的價格,但是並不意味著有著較高的價值,以太坊更像是一個開源平臺,從豐富度上來看其具有可期望的價值,更能代表當下理念上 Web3 的開放世界。
所以,自 2017 年以來,許多項目試圖挑戰以太坊,但能堅持到最後的少之又少,但是以太坊的性能一直為人詬病,所以隨之而來的便是 Layer 2 的增長,Layer 2 看似繁榮的背後卻是在困境中無奈的掙扎罷了,由於競爭的愈演愈烈,一系列問題也逐漸的暴露了出來,成為了 Web3 發展的嚴重的枷鎖:
[數據來源:DeFiLlama]
[數據來源:L2 BEAT]
近期,越來越多的人認為以太坊的擴展計劃 Layer2 是失敗的。
最初 L2 在以太坊的擴展計劃中是以太坊亞文化的重要延續,也有需要多人力挺 L2 的發展路線,期望通過 L2 來降低 Gas 費用和提高吞吐量來實現用戶數量和交易數量的增長,然而,在Gas 費用降低的情況下並沒有迎來預想中用戶數量的如期增長。
事實上,擴展計劃的失敗,負責任的是 L2 嗎?其實很明顯,L2 只是一隻替罪羊,誠然它負有部分責任,但是其主要責任還是在以太坊身上,進一步來說,是目前 Web3 大部分鏈在底層設計上的問題所引發的必然結果。
我們從“原子”的角度來闡釋這個問題,L2 本身是承擔了計算的職能,而區塊鏈本質的“存儲”是由以太坊所承擔的,並且為了獲得足夠的安全性,也必須是由以太坊來對數據進行存儲和共識。
然而,以太坊本身在設計上為了避免了執行過程可能的死循環,從而導致整個以太坊平臺停止的情況,因此任何給定的智能合約執行都會限制在有限的計算步數內。
進而一步導致 L2 的設計上是期望無限的性能的,但是實際上主鏈的上限卻給它帶上了枷鎖。
短板效應決定了 L2 是存在天花板的。
詳細的機制,讀者可以拓展閱讀來進行了解:《從傳統 DeFi 到 AgentFi:探索去中心化金融的未來》。
以太坊最引以為傲的莫過於應用層繁榮的生態,在以太坊的應用生態裡面,擁有著各種不同的 DApps。
但是,繁榮的背後真的是一片百花齊放的場景嗎?
筆者認為,顯然不是的,以太坊繁榮的應用生態的背後是金融化嚴重且非金融類的應用遠遠不夠成熟的單一局面。
下面我們來看看以太坊上發展較為繁榮的應用板塊:
首先,NFT、DeFi、GameFi 和 SocialFi 等概念雖具有金融創新的探索意義,但這類產品目前並不適合普羅大眾。Web2 之所以能發展得如此迅猛,歸根結底在於其功能足夠貼近人們的日常生活。
與金融產品和服務相比,普通用戶更關心的是 消息、社交、視頻、電子商務 等功能。
其次,從競爭角度來看,傳統金融中的 信用貸 是一種非常普遍且廣泛的產品,但在 DeFi 領域,這一類產品仍然較少,主要原因在於目前缺乏有效的鏈上信用體系。
信用體系的構建,需要允許用戶真正擁有自己的網上個人資料和社交圖譜,並能夠跨越不同的應用。
只有這些去中心化的信息能實現零成本存儲和傳遞,才有可能構建 Web3 強大的個人信息圖譜,和一套基於信用體系的 Web3 應用。
自此,我們再次明確了一個關鍵的問題,L2 未能吸引足夠多的用戶本身不是它們的問題,L2 的存在從來就不是核心的動力,真正突破 Web3 困境枷鎖的方式是創新應用場景來吸引用戶。
但目前的情況就像節假日的高速,受限於交易性能的限制,就算有再多創新想法都難以推動落地。
區塊鏈的本質本身是“存儲”,當存儲和計算耦合之後就顯得不夠“原子”化了,在這種不夠本質的設計之下必然是存在著性能的臨界點的。
一些觀點將區塊鏈的本質定義為交易平臺,貨幣系統又或者是強調透明性和匿名性。然而,這種觀點忽略了區塊鏈作為一種數據結構的根本特性以及更廣泛的應用潛力。區塊鏈不僅僅是為了金融交易,其技術架構允許它跨越多個行業進行應用,如供應鏈管理、醫療健康記錄、甚至是版權管理等領域。因此,區塊鏈的本質在於其作為一個存儲系統的能力,這不僅僅是因為它可以安全地保管數據,還因為它通過分佈式共識機制保障了數據的完整性和透明度。每個數據塊一旦被加入到鏈上,就幾乎無法被改變或刪除。
[數據來源:L2 TPS]
區塊鏈的基本架構面臨著一個明顯的瓶頸:區塊空間的限制。就像一本固定大小的賬本,每筆交易和數據都需要記錄在區塊中。以太坊和其他區塊鏈都受制於區塊大小限制,導致交易必須相互競爭空間。這引發了一個關鍵問題:我們是否能突破這個限制?區塊空間一定要受限嗎?是否有辦法讓系統實現真正的無限擴展?
儘管以太坊的 L2 路線在性能擴展上是取得了成功的,但是這僅僅只能說是成功了一半,因為 L2 在吞吐量上提升了幾個數量級,在面臨交易高峰的時候對當個項目或許是能夠撐的住的,但是作為大多數 L2 的存儲和共識安全繼承鏈來說這點的擴展提升是遠遠不夠的。
值得注意的是,L2 的 TPS 無法無限提升,主要受限於以下幾個因素:數據可用性、結算速度、驗證成本、網絡帶寬和合約複雜性等因素。雖然 Rollup 通過壓縮和驗證優化了 L1 的存儲和計算需求,但仍需要在 L1 上提交和驗證數據,因此受到 L1 的帶寬和區塊時間限制。同時,生成零知識證明等計算開銷、節點性能瓶頸以及複雜合約的執行需求也限制了 L2 擴展的上限。
[數據來源:suiscan TPS]
目前 Web3 真正的挑戰在於吞吐和應用的不足,這將導致很難吸引新的用戶,Web3 或許將面臨失去影響力的風險。
簡而言之,吞吐量的提升是 Web3 能否有光明未來的關鍵,實現一個可以無限擴展和高吞吐的網絡是 Web3 的願景。例如,Sui 採用確定性並行處理方式,預先排列交易以避免衝突,從而提高系統的可預測性和擴展性。這使得 Sui 能夠處理超過每秒 10,000 筆交易(TPS)。同時,Sui 的架構允許通過增加更多驗證節點來提升網絡吞吐量,理論上實現無限擴展。並採用 Narwhal 和 Tusk 協議減少延遲,使系統能夠高效並行處理交易,從而克服了傳統 Layer 2 解決方案的擴展瓶頸。
而我們所探討的 AO 也是基於這種思路,雖然側重點不同,但它們都在構建一個可擴展的存儲系統。
Web3需要一種基於第一性原理、以存儲為核心的全新基礎設施。正如埃隆·馬斯克重新思考火箭發射和電動車產業時所做的,他通過第一性原理從根本上重新設計這些複雜技術,從而顛覆了行業。AO 的設計也類似,它通過計算和存儲的解耦,摒棄傳統區塊鏈的框架,構建面向未來的 Web3 存儲基礎,推動 Web3 邁向去“中心化雲服務”的願景。
在介紹 AO 之前,我們得先談談比較新穎的 SCP 設計範式。
SCP 或許大多數人比較陌生,但是比特幣的銘文相信大家一定不陌生。不嚴格的來說,銘文的設計思路某種程度上來說就是一種以存儲為“原子”單位的設計思想,或許它有著一些偏離。
很有趣的是, Vitalik 曾經也表現出了想成為 Web3 紙帶的意向,而 SCP 範式正是這一類的思想。
在以太坊的模型中,計算是由完整的節點執行,然後全局存儲並提供查詢,這樣就導致了一個問題,以太坊雖然是一個“世界級”的計算機,但是它卻是一個單線程的程序,所有的步驟都只能一步一步來,顯然這是效率低下的。同時也是“MEV 優良的土壤”,畢竟交易簽名會進入以太坊的內存池並公開傳播,再由礦工進行排序和出塊,雖然這個過程可能僅需 12 秒,但就在這短短的時間內,交易內容已暴露在無數“獵人”眼前,他們能夠迅速截取並模擬,甚至反向推演出可能的交易策略。關於 MEV 詳細內容可擴展閱讀:《以太坊合併一年後的 MEV 格局》
與之不同的,SCP 的想法是將計算與存儲分離,或許這樣說你會覺得有點抽象,沒關係,我們拿 Web2 的場景來舉例。
在 Web2 的聊天和網購過程中,往往在某些時候是有著突發性的高峰流量,然而一臺計算機在硬件資源上是難以支撐如此大的負載的,為此聰明的工程師們提出了分佈式的概念,將計算交給多臺計算機,最後他們將各自的計算狀態進行同步和存儲。這樣就能彈性的擴展以應對不同時期的流量。
相似的 SCP 也可以看作這樣的一種設計,將計算分攤到各個計算節點上。不同的是,SCP 的存儲不是 MySQL 或者 Postsql 等數據庫,而是依賴於區塊鏈的主網。
簡而言之, SCP 就是用區塊鏈來存儲狀態的結果和其它數據,從而保證存儲數據的可信性,並實現一個與底層區塊鏈分層的高性能網絡。
更具體地說,區塊鏈在 SCP 中僅用於數據存儲,而鏈下客戶端/服務器負責執行所有計算並存儲生成的所有狀態。這樣的架構設計顯著提高了性能和可擴展性,但在計算和存儲分離的架構下,我們能否真正保證數據的完整性和安全性?
簡單來說,區塊鏈主要用來存儲數據,而實際的計算工作是由鏈下的服務器來完成的。這種新的系統設計有一個重要特點:它不再使用傳統區塊鏈那種複雜的節點共識機制,而是把所有共識過程都放在鏈下進行。
這樣做有什麼好處呢?因為不需要複雜的共識過程,每個服務器只需要專注於處理自己的計算任務就可以了。這讓系統能夠處理幾乎無限多的交易,而且運行成本也更低。
雖然這種設計和目前流行的 Rollup 擴容方案有些相似,但它的目標更大:它不僅僅是用來解決區塊鏈擴容問題,更是要為 Web2 向 Web3 轉變提供一條新的路徑。
說了這麼多,那麼 SCP 具有哪些優勢呢?SCP 通過將計算和存儲解耦。這一設計不僅提升了系統的靈活性和組合性,還降低了開發門檻,並有效解決了傳統區塊鏈的性能限制,同時確保數據的可信性。這樣的創新使得 SCP 成為高效且可擴展的基礎設施,賦能未來的去中心化生態系統。
比特幣在面對”拜占庭將軍問題”提出了 PoW 的解法,這是中本聰在當時環境下打破常規思路的做法,這樣成就了比特幣。
類似的,在面對智能合約的計算的時候,我們從第一性原理出發,或許這是一個看似違背常理的方案,但是當大膽的下放計算功能,將區塊鏈迴歸本質的時候,回首驀然發現存儲共識得到滿足的同時, 也滿足了數據開源以及監督可信的特點, 得到完全和 Web2 一樣優異的性能, 這就是 SCP。
說了這麼多終於要來到的 AO 了。
首先,AO 的設計採用了一種叫做 Actor Model 的模式,這個模式最初是在 Erlang 編程語言中使用的。
同時,AO 的架構和技術是基於 SCP 的範式的,將計算層與存儲層分離,使存儲層永久去中心化,而計算層保持傳統計算層的模式。
AO 的計算資源與傳統計算模式類似,但其增加了永久存儲層,使計算過程可追溯且去中心化。
說到這裡,你或許會發現,AO 用的存儲層是那個主鏈呢?
顯然,用來做存儲層的主鏈必然是不可能採用比特幣和以太坊的,至於原因在上面筆者已經討論過了,相信各位讀者也已經很容易想明白這一點。AO 最終計算的數據存儲和最終可驗證性問題是由 Arweave 來進行的。
那麼在這麼多去中心化存儲賽道,為什麼選擇 Arweave 呢?
選擇Arweave作為存儲層主要基於以下考慮:Arweave 是一個專注於永久存儲數據的去中心化網絡,其定位類似於“永不丟失數據的全球硬盤”,與比特幣的“全球賬本”和以太坊的“全球計算機”有所不同。Arweave 類似一個永遠不會丟失數據的全球硬盤。
更多關於Arweave的技術細節,請參考:《讀懂 Arweave: Web3 的關鍵基礎設施》
[數據來源:ao 信使的工作原理 | 手冊]
AO 的核心是構建一個可無限擴展且無環境依賴的計算層,AO 的各個節點基於協議和通信機制進行協作,使得每一個節點都能提供最優的服務從而避免競爭的消耗。
首先,我們來了解一下 AO 的基本架構,AO 是由進程和消息這兩類基本單位和調度單元(SU)、計算單元(CU)和信使單元(MU)所構成的:
值得注意的是,AO 沒有共享狀態,只有全息狀態。AO 的共識是博弈所產生的,由於每一次計算所產生的狀態都會上傳到 Arweave,從而保證數據的可驗證性。當用戶對某個數據產生質疑時,可以請求一個或多個節點對 Arweave 上的數據進行計算,一當結算結果不符則會對相應不誠實的節點進行罰沒。
AO 架構的創新之處在於其數據存儲和驗證機制,通過利用去中心化存儲(Arweave)和全息狀態來替代傳統區塊鏈中的冗餘計算和有限區塊空間。
區塊鏈的區塊空間限制並非不可突破。AO 架構通過依賴去中心化存儲和全息狀態,改變了傳統區塊鏈的數據存儲和驗證方式,從而為實現無限擴展提供了可能。
不一定。共識機制並不必須依賴冗餘計算,它可以通過多種方式實現。依賴存儲而非冗餘計算的方案在某些場景下也是可行的,尤其是當數據的完整性和一致性能夠通過存儲驗證來保障時。
在 AO 的架構中,存儲成為一種替代冗餘計算的方式。通過將計算結果上傳到去中心化的存儲網絡(這裡是 Arweave),系統可以確保數據的不可篡改性,並且通過狀態的全息上傳,任何節點都可以隨時查驗計算結果,確保數據的一致性和正確性。這種方式依賴的是數據存儲的可靠性,而不是每個節點重複計算的結果。
不難發現,AO 的核心特點可以歸納為兩個:
對於以太坊所面臨的兩大困境,性能枷鎖和應用不足的局面,筆者認為這正是AO的強項所在,理由有以下幾點:
計算與存儲的分離是一個偉大的設想,也是基於第一性原理下的系統化設計。
作為一種類似“去中心化雲服務”的敘事方向,它不僅提供了良好的落地場景,還為結合 AI 提供了更廣闊的想象空間。
事實上,只有真正理解 Web3 的基礎需求,才能擺脫路徑依賴所帶來的困境與枷鎖。
SCP 與 AO 的結合提供了一種全新的思路:它繼承了 SCP 的所有特性,將智能合約不再部署在鏈上,而是將不可篡改且可追溯的數據存儲到鏈上,實現了人人可驗證的數據可信性。
當然,目前還沒有一條絕對完美的路徑,AO 仍然處於萌芽發展階段。如何避免 Web3 被過度金融化,創造出足夠多的應用場景,為未來帶來更豐富的可能性,仍然是 AO 成功道路上的一份考卷。至於 AO 能否交出一份令人滿意的答卷,仍需等待市場和時間的檢驗。
SCP 與 AO 的結合,作為一種充滿潛力的開發範式,雖然其理念尚未在市場上得到廣泛認可,但未來 AO 有望在 Web3 領域發揮重要作用,甚至推動 Web3 的進一步發展。
[數據來源:BTC價格]
自從 2009 年區塊鏈誕生到如今已有 15 年有餘,作為一種數字化技術的範式革命,它記錄的是數字價值和網絡價值,讓加密貨幣成為了一種新的資本範式的創新。
作為嫡長子的比特幣更是有望成為戰略儲備資產,在 2024 比特幣大會上:
特朗普作出承諾表示,如果他重返白宮,將確保政府 100% 保留其擁有的比特幣,並將其列為美國的戰略儲備資產。
而在特朗普贏得選舉,比特幣在那之後,一路上漲 150%,最高點已然達到 107287 美元
特朗普的勝利顯然是對加密行業更為有利的,因為特朗普多次表達過強烈支持加密貨幣的立場。
然而,從短期來看,加密貨幣對選舉結果的高度敏感性可能導致市場出現短期的波動高峰。這種強勁的上升勢頭是否具有持續性?筆者認為,只有在消除不確定性並提高區塊鏈的擴展性之後,或許才能迎來一片新的“紅海”。
[數據來源:DefiLlama]
褪去聚光燈下的光芒,數字貨幣市場第二大數字貨幣以太坊的 TVL 從 2021 年到達歷史的最高峰後就持續低迷的走勢。
甚至 2024 年第三季度,以太坊的去中心化金融(DeFi)收入降至 2.61 億美元,為 2020 年第四季度以來的最低水平。
乍一看,似乎偶有陡增,但整體趨勢表明 DeFi 在以太坊網絡上的整體活動有所放緩。
並且,市場也湧現出完全另類的一些交易場景專屬公鏈,比如近期非常熱門的 hyperliquid,是一種訂單薄模式的交易鏈,數據整體急速增長,從市值上 2 周衝進 top50,預計年化收入能在全部公鏈中僅低於以太坊、Solana、波場,從側面來體現基於 AMM 架構和以太坊上傳統 DeFi 的疲軟。
[數據來源:Compound交易量]
[數據來源:Uniswap交易量]
DeFi 曾是以太坊生態的核心亮點,但由於交易費用和用戶活躍度的減少,導致其收入大幅下滑。
對此,筆者嘗試思考,目前以太坊或者說整個區塊鏈所面臨的困境的原因是什麼,該如何破局呢?
恰巧,隨著 SpaceX 的第五次試射成功,SpaceX 已然成為了商業航天上一顆冉冉升起的新星。回顧 SpaceX 的發展之路,它能走到今天正是靠著關鍵性的方法論——第一性原理(Tips:第一性原理概念最早在 2300 年前的古希臘哲學家亞里斯多德就提出過,他對“第一性原理”是這樣表述的:“在每一系統的探索中,存在第一原理,是一個最基本的命題或假設,不能被省略或刪除,也不能被違反”)。
那麼,讓我們也運用第一性原理的方法,層層剝開迷霧,探尋區塊鏈行業最本質的“原子”。從基本面的角度出發,重新審視這個行業當前所面臨的困境與機遇。
當 AO (Actor Oriented) 這一概念被引入時,引起了廣泛的關注。在眾多 EVM 系列區塊鏈公鏈趨於同質化的背景下,AO 作為一種顛覆性的架構設計,展現出了獨特的吸引力。
這不僅僅是理論上的設想,而是有團隊正在將之付諸實踐。
正如上面所言,區塊鏈的最大價值是記錄著數字價值,從這個角度上來說,它就是一個公開透明的全球公共賬本,所以基於這個實質,可以認為區塊鏈的第一性原理是一種“存儲”。
AO 是基於存儲的共識範式(SCP)所實現的,只要存儲不可變,無論計算端在哪裡進行計算,都能保證結果具備共識,AO 全球計算機誕生了,實現大規模並行計算機的互聯和協作。
回顧 2024 年,Web3 領域最引人注目的事件之一莫過於銘文生態的爆發,這可以看作是早期存儲和計算分離模式的一種實踐。例如,Runes 協議採用的蝕刻技術,允許在比特幣交易中嵌入少量數據。這些數據雖然不影響交易的主要功能,但作為一種附加信息,構成了明確的可驗證且不可消費的輸出。
儘管在初期,一些技術觀察者對比特幣銘文的安全性提出了質疑,擔心這可能成為網絡攻擊的潛在入口。
然而,2 年來,它完全在鏈上存儲數據,且至今未發生任何的區塊鏈分叉。這種穩定性再次印證了,只要存儲數據不被篡改,無論計算端在哪裡進行計算,都能保證數據的一致性和安全性。
或許你會發現,這不正是與傳統雲服務幾乎一致?例如:
在計算資源管理上,在 AO 架構中,”Actor” 是獨立的計算實體且每個計算單元可以運行自己的環境,這不和傳統雲服務器的微服務和 Docker 如出一轍嗎?同樣,存儲上傳統的雲服務能依賴於 S3 或者 NFS 等,而 AO 則依託於 Arweave。
然而,簡單地將 AO 歸結為“冷飯熱炒”並不準確。儘管 AO 借鑑了傳統雲服務的某些設計理念,但其核心在於將去中心化存儲與分佈式計算相結合。Arweave 作為一種去中心化存儲網絡,與傳統的中心化存儲有著本質區別。這種去中心化的特性賦予了 Web3 數據更高的安全性和抗審查性。
更重要的是,AO 與 Arweave 的結合並非簡單的技術堆疊,而是創造了一種新的範式。這種範式將分佈式計算的性能優勢與去中心化存儲的可信性相結合,為 Web3 應用的創新和發展提供了堅實的基礎。具體而言,這種結合主要體現在以下兩個方面:
下文將深入探討 AO 的理念和架構設計,並分析其如何應對以太坊等現有公鏈所面臨的困境,最終為 Web3 帶來新的發展機遇。
自以太坊攜帶著智能合約的橫空出世,以太坊成為了當之無愧的王者。
或許有人會問,不是還有比特幣嗎?但是值得注意的一點是,比特幣被創造為傳統貨幣的替代品,旨在成為一個去中心化和數字化的現金系統。而以太坊不僅僅是一種加密貨幣,更是具有創建和實施智能合約和去中心化應用(DApps)。
總的來說,比特幣是傳統貨幣的數字替代品,具有較高的價格,但是並不意味著有著較高的價值,以太坊更像是一個開源平臺,從豐富度上來看其具有可期望的價值,更能代表當下理念上 Web3 的開放世界。
所以,自 2017 年以來,許多項目試圖挑戰以太坊,但能堅持到最後的少之又少,但是以太坊的性能一直為人詬病,所以隨之而來的便是 Layer 2 的增長,Layer 2 看似繁榮的背後卻是在困境中無奈的掙扎罷了,由於競爭的愈演愈烈,一系列問題也逐漸的暴露了出來,成為了 Web3 發展的嚴重的枷鎖:
[數據來源:DeFiLlama]
[數據來源:L2 BEAT]
近期,越來越多的人認為以太坊的擴展計劃 Layer2 是失敗的。
最初 L2 在以太坊的擴展計劃中是以太坊亞文化的重要延續,也有需要多人力挺 L2 的發展路線,期望通過 L2 來降低 Gas 費用和提高吞吐量來實現用戶數量和交易數量的增長,然而,在Gas 費用降低的情況下並沒有迎來預想中用戶數量的如期增長。
事實上,擴展計劃的失敗,負責任的是 L2 嗎?其實很明顯,L2 只是一隻替罪羊,誠然它負有部分責任,但是其主要責任還是在以太坊身上,進一步來說,是目前 Web3 大部分鏈在底層設計上的問題所引發的必然結果。
我們從“原子”的角度來闡釋這個問題,L2 本身是承擔了計算的職能,而區塊鏈本質的“存儲”是由以太坊所承擔的,並且為了獲得足夠的安全性,也必須是由以太坊來對數據進行存儲和共識。
然而,以太坊本身在設計上為了避免了執行過程可能的死循環,從而導致整個以太坊平臺停止的情況,因此任何給定的智能合約執行都會限制在有限的計算步數內。
進而一步導致 L2 的設計上是期望無限的性能的,但是實際上主鏈的上限卻給它帶上了枷鎖。
短板效應決定了 L2 是存在天花板的。
詳細的機制,讀者可以拓展閱讀來進行了解:《從傳統 DeFi 到 AgentFi:探索去中心化金融的未來》。
以太坊最引以為傲的莫過於應用層繁榮的生態,在以太坊的應用生態裡面,擁有著各種不同的 DApps。
但是,繁榮的背後真的是一片百花齊放的場景嗎?
筆者認為,顯然不是的,以太坊繁榮的應用生態的背後是金融化嚴重且非金融類的應用遠遠不夠成熟的單一局面。
下面我們來看看以太坊上發展較為繁榮的應用板塊:
首先,NFT、DeFi、GameFi 和 SocialFi 等概念雖具有金融創新的探索意義,但這類產品目前並不適合普羅大眾。Web2 之所以能發展得如此迅猛,歸根結底在於其功能足夠貼近人們的日常生活。
與金融產品和服務相比,普通用戶更關心的是 消息、社交、視頻、電子商務 等功能。
其次,從競爭角度來看,傳統金融中的 信用貸 是一種非常普遍且廣泛的產品,但在 DeFi 領域,這一類產品仍然較少,主要原因在於目前缺乏有效的鏈上信用體系。
信用體系的構建,需要允許用戶真正擁有自己的網上個人資料和社交圖譜,並能夠跨越不同的應用。
只有這些去中心化的信息能實現零成本存儲和傳遞,才有可能構建 Web3 強大的個人信息圖譜,和一套基於信用體系的 Web3 應用。
自此,我們再次明確了一個關鍵的問題,L2 未能吸引足夠多的用戶本身不是它們的問題,L2 的存在從來就不是核心的動力,真正突破 Web3 困境枷鎖的方式是創新應用場景來吸引用戶。
但目前的情況就像節假日的高速,受限於交易性能的限制,就算有再多創新想法都難以推動落地。
區塊鏈的本質本身是“存儲”,當存儲和計算耦合之後就顯得不夠“原子”化了,在這種不夠本質的設計之下必然是存在著性能的臨界點的。
一些觀點將區塊鏈的本質定義為交易平臺,貨幣系統又或者是強調透明性和匿名性。然而,這種觀點忽略了區塊鏈作為一種數據結構的根本特性以及更廣泛的應用潛力。區塊鏈不僅僅是為了金融交易,其技術架構允許它跨越多個行業進行應用,如供應鏈管理、醫療健康記錄、甚至是版權管理等領域。因此,區塊鏈的本質在於其作為一個存儲系統的能力,這不僅僅是因為它可以安全地保管數據,還因為它通過分佈式共識機制保障了數據的完整性和透明度。每個數據塊一旦被加入到鏈上,就幾乎無法被改變或刪除。
[數據來源:L2 TPS]
區塊鏈的基本架構面臨著一個明顯的瓶頸:區塊空間的限制。就像一本固定大小的賬本,每筆交易和數據都需要記錄在區塊中。以太坊和其他區塊鏈都受制於區塊大小限制,導致交易必須相互競爭空間。這引發了一個關鍵問題:我們是否能突破這個限制?區塊空間一定要受限嗎?是否有辦法讓系統實現真正的無限擴展?
儘管以太坊的 L2 路線在性能擴展上是取得了成功的,但是這僅僅只能說是成功了一半,因為 L2 在吞吐量上提升了幾個數量級,在面臨交易高峰的時候對當個項目或許是能夠撐的住的,但是作為大多數 L2 的存儲和共識安全繼承鏈來說這點的擴展提升是遠遠不夠的。
值得注意的是,L2 的 TPS 無法無限提升,主要受限於以下幾個因素:數據可用性、結算速度、驗證成本、網絡帶寬和合約複雜性等因素。雖然 Rollup 通過壓縮和驗證優化了 L1 的存儲和計算需求,但仍需要在 L1 上提交和驗證數據,因此受到 L1 的帶寬和區塊時間限制。同時,生成零知識證明等計算開銷、節點性能瓶頸以及複雜合約的執行需求也限制了 L2 擴展的上限。
[數據來源:suiscan TPS]
目前 Web3 真正的挑戰在於吞吐和應用的不足,這將導致很難吸引新的用戶,Web3 或許將面臨失去影響力的風險。
簡而言之,吞吐量的提升是 Web3 能否有光明未來的關鍵,實現一個可以無限擴展和高吞吐的網絡是 Web3 的願景。例如,Sui 採用確定性並行處理方式,預先排列交易以避免衝突,從而提高系統的可預測性和擴展性。這使得 Sui 能夠處理超過每秒 10,000 筆交易(TPS)。同時,Sui 的架構允許通過增加更多驗證節點來提升網絡吞吐量,理論上實現無限擴展。並採用 Narwhal 和 Tusk 協議減少延遲,使系統能夠高效並行處理交易,從而克服了傳統 Layer 2 解決方案的擴展瓶頸。
而我們所探討的 AO 也是基於這種思路,雖然側重點不同,但它們都在構建一個可擴展的存儲系統。
Web3需要一種基於第一性原理、以存儲為核心的全新基礎設施。正如埃隆·馬斯克重新思考火箭發射和電動車產業時所做的,他通過第一性原理從根本上重新設計這些複雜技術,從而顛覆了行業。AO 的設計也類似,它通過計算和存儲的解耦,摒棄傳統區塊鏈的框架,構建面向未來的 Web3 存儲基礎,推動 Web3 邁向去“中心化雲服務”的願景。
在介紹 AO 之前,我們得先談談比較新穎的 SCP 設計範式。
SCP 或許大多數人比較陌生,但是比特幣的銘文相信大家一定不陌生。不嚴格的來說,銘文的設計思路某種程度上來說就是一種以存儲為“原子”單位的設計思想,或許它有著一些偏離。
很有趣的是, Vitalik 曾經也表現出了想成為 Web3 紙帶的意向,而 SCP 範式正是這一類的思想。
在以太坊的模型中,計算是由完整的節點執行,然後全局存儲並提供查詢,這樣就導致了一個問題,以太坊雖然是一個“世界級”的計算機,但是它卻是一個單線程的程序,所有的步驟都只能一步一步來,顯然這是效率低下的。同時也是“MEV 優良的土壤”,畢竟交易簽名會進入以太坊的內存池並公開傳播,再由礦工進行排序和出塊,雖然這個過程可能僅需 12 秒,但就在這短短的時間內,交易內容已暴露在無數“獵人”眼前,他們能夠迅速截取並模擬,甚至反向推演出可能的交易策略。關於 MEV 詳細內容可擴展閱讀:《以太坊合併一年後的 MEV 格局》
與之不同的,SCP 的想法是將計算與存儲分離,或許這樣說你會覺得有點抽象,沒關係,我們拿 Web2 的場景來舉例。
在 Web2 的聊天和網購過程中,往往在某些時候是有著突發性的高峰流量,然而一臺計算機在硬件資源上是難以支撐如此大的負載的,為此聰明的工程師們提出了分佈式的概念,將計算交給多臺計算機,最後他們將各自的計算狀態進行同步和存儲。這樣就能彈性的擴展以應對不同時期的流量。
相似的 SCP 也可以看作這樣的一種設計,將計算分攤到各個計算節點上。不同的是,SCP 的存儲不是 MySQL 或者 Postsql 等數據庫,而是依賴於區塊鏈的主網。
簡而言之, SCP 就是用區塊鏈來存儲狀態的結果和其它數據,從而保證存儲數據的可信性,並實現一個與底層區塊鏈分層的高性能網絡。
更具體地說,區塊鏈在 SCP 中僅用於數據存儲,而鏈下客戶端/服務器負責執行所有計算並存儲生成的所有狀態。這樣的架構設計顯著提高了性能和可擴展性,但在計算和存儲分離的架構下,我們能否真正保證數據的完整性和安全性?
簡單來說,區塊鏈主要用來存儲數據,而實際的計算工作是由鏈下的服務器來完成的。這種新的系統設計有一個重要特點:它不再使用傳統區塊鏈那種複雜的節點共識機制,而是把所有共識過程都放在鏈下進行。
這樣做有什麼好處呢?因為不需要複雜的共識過程,每個服務器只需要專注於處理自己的計算任務就可以了。這讓系統能夠處理幾乎無限多的交易,而且運行成本也更低。
雖然這種設計和目前流行的 Rollup 擴容方案有些相似,但它的目標更大:它不僅僅是用來解決區塊鏈擴容問題,更是要為 Web2 向 Web3 轉變提供一條新的路徑。
說了這麼多,那麼 SCP 具有哪些優勢呢?SCP 通過將計算和存儲解耦。這一設計不僅提升了系統的靈活性和組合性,還降低了開發門檻,並有效解決了傳統區塊鏈的性能限制,同時確保數據的可信性。這樣的創新使得 SCP 成為高效且可擴展的基礎設施,賦能未來的去中心化生態系統。
比特幣在面對”拜占庭將軍問題”提出了 PoW 的解法,這是中本聰在當時環境下打破常規思路的做法,這樣成就了比特幣。
類似的,在面對智能合約的計算的時候,我們從第一性原理出發,或許這是一個看似違背常理的方案,但是當大膽的下放計算功能,將區塊鏈迴歸本質的時候,回首驀然發現存儲共識得到滿足的同時, 也滿足了數據開源以及監督可信的特點, 得到完全和 Web2 一樣優異的性能, 這就是 SCP。
說了這麼多終於要來到的 AO 了。
首先,AO 的設計採用了一種叫做 Actor Model 的模式,這個模式最初是在 Erlang 編程語言中使用的。
同時,AO 的架構和技術是基於 SCP 的範式的,將計算層與存儲層分離,使存儲層永久去中心化,而計算層保持傳統計算層的模式。
AO 的計算資源與傳統計算模式類似,但其增加了永久存儲層,使計算過程可追溯且去中心化。
說到這裡,你或許會發現,AO 用的存儲層是那個主鏈呢?
顯然,用來做存儲層的主鏈必然是不可能採用比特幣和以太坊的,至於原因在上面筆者已經討論過了,相信各位讀者也已經很容易想明白這一點。AO 最終計算的數據存儲和最終可驗證性問題是由 Arweave 來進行的。
那麼在這麼多去中心化存儲賽道,為什麼選擇 Arweave 呢?
選擇Arweave作為存儲層主要基於以下考慮:Arweave 是一個專注於永久存儲數據的去中心化網絡,其定位類似於“永不丟失數據的全球硬盤”,與比特幣的“全球賬本”和以太坊的“全球計算機”有所不同。Arweave 類似一個永遠不會丟失數據的全球硬盤。
更多關於Arweave的技術細節,請參考:《讀懂 Arweave: Web3 的關鍵基礎設施》
[數據來源:ao 信使的工作原理 | 手冊]
AO 的核心是構建一個可無限擴展且無環境依賴的計算層,AO 的各個節點基於協議和通信機制進行協作,使得每一個節點都能提供最優的服務從而避免競爭的消耗。
首先,我們來了解一下 AO 的基本架構,AO 是由進程和消息這兩類基本單位和調度單元(SU)、計算單元(CU)和信使單元(MU)所構成的:
值得注意的是,AO 沒有共享狀態,只有全息狀態。AO 的共識是博弈所產生的,由於每一次計算所產生的狀態都會上傳到 Arweave,從而保證數據的可驗證性。當用戶對某個數據產生質疑時,可以請求一個或多個節點對 Arweave 上的數據進行計算,一當結算結果不符則會對相應不誠實的節點進行罰沒。
AO 架構的創新之處在於其數據存儲和驗證機制,通過利用去中心化存儲(Arweave)和全息狀態來替代傳統區塊鏈中的冗餘計算和有限區塊空間。
區塊鏈的區塊空間限制並非不可突破。AO 架構通過依賴去中心化存儲和全息狀態,改變了傳統區塊鏈的數據存儲和驗證方式,從而為實現無限擴展提供了可能。
不一定。共識機制並不必須依賴冗餘計算,它可以通過多種方式實現。依賴存儲而非冗餘計算的方案在某些場景下也是可行的,尤其是當數據的完整性和一致性能夠通過存儲驗證來保障時。
在 AO 的架構中,存儲成為一種替代冗餘計算的方式。通過將計算結果上傳到去中心化的存儲網絡(這裡是 Arweave),系統可以確保數據的不可篡改性,並且通過狀態的全息上傳,任何節點都可以隨時查驗計算結果,確保數據的一致性和正確性。這種方式依賴的是數據存儲的可靠性,而不是每個節點重複計算的結果。
不難發現,AO 的核心特點可以歸納為兩個:
對於以太坊所面臨的兩大困境,性能枷鎖和應用不足的局面,筆者認為這正是AO的強項所在,理由有以下幾點:
計算與存儲的分離是一個偉大的設想,也是基於第一性原理下的系統化設計。
作為一種類似“去中心化雲服務”的敘事方向,它不僅提供了良好的落地場景,還為結合 AI 提供了更廣闊的想象空間。
事實上,只有真正理解 Web3 的基礎需求,才能擺脫路徑依賴所帶來的困境與枷鎖。
SCP 與 AO 的結合提供了一種全新的思路:它繼承了 SCP 的所有特性,將智能合約不再部署在鏈上,而是將不可篡改且可追溯的數據存儲到鏈上,實現了人人可驗證的數據可信性。
當然,目前還沒有一條絕對完美的路徑,AO 仍然處於萌芽發展階段。如何避免 Web3 被過度金融化,創造出足夠多的應用場景,為未來帶來更豐富的可能性,仍然是 AO 成功道路上的一份考卷。至於 AO 能否交出一份令人滿意的答卷,仍需等待市場和時間的檢驗。
SCP 與 AO 的結合,作為一種充滿潛力的開發範式,雖然其理念尚未在市場上得到廣泛認可,但未來 AO 有望在 Web3 領域發揮重要作用,甚至推動 Web3 的進一步發展。