很多年前,当我刚开始参与服务数十亿用户的项目时,我深刻体会到,初期的基础设施设计决定可以彻底改变整个行业的走向。
即便是那些起初以开放、中立和去中心化为目标的平台,也可能逐渐走向集中化。
这并非出于恶意,而是因为某些设计决策在早期就被固定下来后,技术和市场的自然演进会让系统逐步集中化。
因此,从一开始,基础设施的设计选择就非常重要。
这些关键设计必须确保技术能够内置公平性,并在根源上防止权力的过度集中。
“权力总是倾向于集中化,即使没有人刻意为之。”
这是我在负责大型互联网项目时切身体会到的一条深刻规律。
当“去中心化行业”初现时,它似乎为我们带来了新的希望。我们将比特币、以太坊等视为摆脱传统权力结构的工具。
故事很简单:夺回权力,摆脱中间商的束缚,让公平由代码来保障。
然而,我们不得不承认,随着时间的推移,那些曾让互联网走向集中化的力量,如今也在影响这些所谓的“去中心化”系统。
那么,互联网为何会走向集中化?
互联网最初不是作为一个能够承受核战争的去中心化P2P网络诞生的吗?
要弄清楚为何去中心化系统会逐渐受制于集中化压力,我们需要回顾互联网的历史,了解它是如何从理想主义的起点,演变为一个高度集中化的生态的。
“最初,没有谁掌控一切,也没有谁能独断专行。”
互联网的雏形可以追溯到20世纪60年代末,由美国国防部推动的ARPANET项目开创了基础。
来源: @DailySwig
从一开始,这个网络的设计目标就是避免“单点故障”。即便某一部分失效,也不会导致整体瘫痪。
为了实现这一目标,网络被精心设计成去中心化的架构。
其背后的逻辑非常明确:分布式系统能够应对单点故障,确保即使在设备故障或战争等极端情况下,通信依然可靠。
一个可以抵御核打击的去中心化通信网络由此诞生。
网络中的每个节点都是独立的“对等体”,能够自主发送和接收数据,无需依赖任何集中管理的权威机构。无论设备是什么硬件或操作系统,只要能使用TCP/IP协议,就能进行数据交换。
到了70年代和80年代,大学和研究机构通过NSFNET和ARPANET连通,形成了一个真正的去中心化网络环境——没有人能控制全局,也没有谁能主导规则。
这种去中心化精神还体现在技术基础中:
TCP/IP、FTP、Telnet、Usenet新闻组和DNS的设计初衷都不是为了强化控制,而是为了开放和协作。
比如,Usenet通过去中心化的点对点方式传播消息,而DNS采用分布式层次结构委派命名权,但每个节点既是客户端也是服务器。
这都彰显了互联网最初的核心原则:
一个开放的网络,任何人都能接入和参与,而不是被某个大玩家垄断规则。
然而,到了90年代初,万维网和浏览器的出现改变了一切。
第一个网站页面复现(图片来源:CERN)
蒂姆·伯纳斯-李:万维网的缔造者
1989年至1991年,万维网诞生。这一技术基于开放标准(HTTP、HTML),并被无偿公开给公众。最初的网络环境简单直接,任何人,只要拥有一台调制解调器和托管工具,都能轻松建立自己的网站。
当时的互联网基础设施相对简单,分散式架构占主导地位,无数独立网页相互链接,构成了一个松散的网络联盟。
然而,到了90年代初,情况开始发生变化。
“网页浏览”成为了改变游戏规则的“杀手级应用”。
网站逐渐转变为在线商店、新闻平台以及娱乐中心,而普通用户已经很少自己运行服务器或托管页面了。
1994年,Netscape浏览器的主页,展示其吉祥物Mozilla(截图来源:Alex Pasternack / OldWeb.today)
用户通过网页浏览器(客户端)访问网络,最初依赖慢速调制解调器,后来使用宽带连接,从大型、知名的网络服务器获取内容。托管大量数据、建立电子商务网站或搜索引擎迅速成为趋势。
早期搜索引擎如AltaVista和Yahoo!,以及后来的Google,帮助用户在信息爆炸的互联网中快速找到所需内容
网络效应迅速显现:用户越多,搜索引擎的索引和广告模型优化得越好,其市场主导地位也越牢固。
Google的PageRank算法使其成为用户探索互联网的首选入口。
这一趋势吸引了资本和资源集中到大型数据中心,而那些能够扩展并应对大规模流量的平台最终胜出。
与此同时,互联网服务提供商(ISP)崛起,为数以百万计的新用户提供接入服务。网络基础设施逐步向“下行优化”方向发展。
非对称宽带连接(如ADSL和有线网络)成为主流,提供更快的下载速度而非上传速度,这反映了大部分用户以消费内容为主的需求。
随着互联网用户规模的持续扩大,早期互联网开放性和信任的设计理念也开始暴露出其局限性。
“自由和开放若缺乏安全保障,可能会引发滥用,最终让我们不得不建起更高的围墙。”
互联网的早期协议并没有设计成能应对海量用户,尤其是那些带有商业目的、试图滥用开放性的人群。
由于缺乏有效的防护机制,垃圾信息泛滥,利用了互联网开放的特性。
最初的网络架构允许每台主机与其他任何主机互联,这在互联网规模较小时行得通。
但随着网络发展,黑客攻击和恶意活动迅速激增。
来源: emailtray.com
同样地,在没有公平使用带宽的办法时,一些应用学会了突破限制,以牺牲他人利益为代价获取优势。
这些设计上的缺陷将互联网推向了更多的管控和控制。
为保护内部网络,防火墙被引入,用于阻挡外部访问;网络地址转换 (NAT)技术进一步限制了直接通信,将设备隐藏在共享IP地址之后。
这削弱了通信的点对点(P2P)特性。
位于NAT和防火墙之后的主机实际上被迫成为仅客户端角色,不再能被外界直接访问。
随着时间推移,这些基础设施决定相互强化了这种现象。
“少数几家公司意识到,控制数据中心并拥有大规模服务器基础设施能带来巨大的竞争优势。”
从家中运行自己的服务器的复杂性和成本,加上NAT和防火墙等技术壁垒,意味着越来越少的个人能够作为真正的点对点参与者。
换句话说,这种环境实际上促使互联网走向了少数集中化巨头的方向。
到了2000年代早期,少数公司意识到,控制数据中心和大规模服务器基础设施为它们提供了巨大的竞争优势。
它们能够提供比网络上随机点更快、更可靠、更方便的服务。
这种趋势在2000年代末达到了极致。
像Google这样的搜索引擎、Amazon这样的大型平台、Facebook这样的社交媒体巨头,以及内容分发网络(CDN)都建立了能够以前所未有的速度和规模交付内容和应用的庞大基础设施。
这些大公司还利用了数据与算法的“良性循环”。
它们吸引的用户越多,收集的数据也就越多,从而能够优化产品、个性化体验以及更准确地投放广告。这使它们的服务更具吸引力,吸引更多用户和收入。
随后,互联网的收入模式逐渐转向了高度依赖于目标广告的模式。
随着时间推移,这种反馈循环进一步集中了权力,因为小型竞争对手难以匹敌大公司在基础设施投资和数据上的优势。
原本可以从个人服务器或本地数据中心运行的基础设施逐渐迁移到云端。
像Amazon(AWS)、Microsoft(Azure)和Google Cloud这样的巨头如今承载了互联网的大部分骨干。这一转变的发生是因为运行大规模、安全可靠的基础设施变得如此复杂且资本密集,以至于只有少数公司能够高效完成。
创业公司甚至一些成熟的企业发现,依赖这些大型云服务提供商更便宜、更简单。
内容分发网络(如Cloudflare或Akamai)和DNS解析服务也逐渐集中到少数大公司手中。
这些托管解决方案的复杂性和成本优势使得组织缺乏“自己动手”构建基础设施的理由。
渐渐地,小型ISP、独立托管和本地化路由等去中心化的支柱被一种依赖少数几个主要中介的模式所取代。
“大型企业最初并非出于恶意,而是为了提升便利性、性能和盈利能力。
然而,这正是早期网络架构设计选择的自然结果。”
随着互联网的发展和集中化,权力和控制逐渐向少数几家巨头倾斜。
这些大型平台不仅能设定服务条款,还能决定用户看到或发布什么内容,以及如何使用或出售用户数据。如果用户不满这些规则,他们几乎别无选择。
久而久之,这些平台的推荐算法和内容政策逐渐成为公共话语的实际仲裁者。
讽刺的是,最初作为开放、去中心化网络诞生的互联网,如今反而成为少数公司把控信息流的工具。
这些企业在某些方面的影响力甚至可与政府媲美:它们可以操控公共舆论、影响商业活动,甚至左右整个开发者生态系统的运行规则。
曾经致力于实现自由连接的网络,现在却围绕着这些企业运转,显著改变了在线体验。
这并非是为了集中权力的某种宏大计划,也不是源于某个“错误的转折点”。
大型玩家最初并非怀有恶意;他们只是为了方便、性能和利润进行优化。
这是早期网络架构设计选择的自然结果。
这些选择并未预见到一个更广泛、以商业为驱动的受众如何使用系统,并将其推向初始设计参数之外。
随着时间的推移,这些选择累积成一个由少数公司主导的系统。
去中心化行业正在重蹈覆辙
“集中化往往并非恶意行为的结果,而是试图修复系统问题时做出的权宜之计。”
与早期互联网从去中心化走向集中化的历史相似,如今的区块链和所谓的“去中心化”技术也在面临同样的命运。
以太坊扩展性问题最能说明这一点。
高昂的费用和缓慢的吞吐量推动开发者采用 Layer-2 (L2) 解决方案:这些 rollup 将交易聚合到链下处理,然后在以太坊上结算。理论上,这些 L2 应该保留以太坊的无信任特性。
实际上,许多依赖于一个单一的“排序器”(一个由某家公司运营的集中式服务器,用于排序交易)。
目前,某个特定的 L2 解决方案拥有最多的活动量和总锁定价值,但同时也是最集中的。
它的宣传是去中心化“某天会到来”,但这话我们以前听过。
随着时间推移,这些“临时”解决方案往往会变成永久的。未来的分层方法可能会出现类似模式;有些甚至可能连去中心化的承诺都懒得给出。
例如,“社交登录”看起来很方便:它让人们无需处理私钥或复杂界面就能轻松开始使用服务。但如果这些登录依赖于一个集中化的组件,你再次将信任交给了一家公司。
因此,当我们构建 zkLogin 时,我们选择以无信任的方式设计并集成它。虽然过程艰难,但我们不能为了方便而妥协,允许集中化。
类似的模式也出现在 NFT 生态系统中。
一个单一的主导市场成为二级交易的主要场所,捕获了大部分交易量,并事实上成为了默认平台。
不久前,这个平台决定停止在二级销售中强制执行版税支付。
确实,这增加了交易量,但却损害了依赖这些版税作为关键收入来源的创作者。
这清楚地展示了当集中化平台可以随时修改规则时会产生的后果。
它们的主导地位还延伸到交易之外,因为许多项目也依赖于它们的 API 和基础设施。
当这个集中化平台出现宕机时,整个生态系统都受到了影响,暴露出已经形成的深度依赖。
但为什么这种情况总是不断发生呢?
因为用户希望快速、便宜和简单的体验。而开发者在压力下,往往转向熟悉且可靠的解决方案。这些选择确实更简单、更快,但也可能引入削弱去中心化的控制点。
这些步骤没有哪个一开始是为了垄断而设计的。它们只是对技术和市场挑战的实际回应。
但随着时间推移,这些“权宜之计”会嵌入系统的 DNA 中,创造出一个由少数玩家掌控关键点的结构。
这就是为什么这些系统必须从一开始就为开发者设计,而不仅仅是为消费者设计。
“如果问消费者想要什么,他们可能只会说‘一匹更快的马’。” ——亨利·福特
大多数人只想要现有事物的改进版。
但如果我们总是追逐这些短期改进,结果可能是构建出一个表面去中心化但实质被少数机构控制的系统。
要想避免今天“数字巨头”主导的情况重演,我们需要把注意力转向未来的创新者——建设者,而不仅仅是消费者。
这就是为什么我常告诉团队,消费者会追求“更快的马”,而建设者则想象“汽车”。
通过为开发者提供强大的工具和模块,我们可以打造无需为了便利而牺牲去中心化的平台。这样的系统能够避免单一实体的垄断,确保系统收益公平分配。
因此,真正去中心化的系统需要从设计之初就植入支持去中心化的理念,即使它们将来要扩展到互联网级别。
“技术债务可以通过修复代码来解决,但设计债务往往需要从头开始。”
从我参与构建亿级用户系统的经验中,我明白一旦一个系统变得至关重要,就很难彻底重建而不造成巨大破坏。
当数百万用户依赖于你系统中的某些核心逻辑时,任何重大架构调整都可能打破商业模式,甚至损害整个社区的信任。
这就是“设计债务”的最严重表现。
设计债务不仅是代码优化问题,而是网络架构中对信任、权力和价值流向的核心设计选择。
早期区块链行业曾把“扩展性三难困境”(去中心化、安全性与可扩展性无法兼得)当作天经地义。
人们在这个假设之上构建,认为它就像重力一样不可改变。
但这一限制并非天生,而是最初设计架构的缺陷:庞大的全球共享状态和僵化的数据模型,让并行化和模块化扩展无法实现。
唯一的前进方式是将所有交易捆绑在一起,迫使每个参与者无论他们在做什么都必须争夺同样有限的资源。结果是什么?在需求激增时,区块空间的低效拍卖抬高了成本,同时未能将拥堵隔离到实际发生的位置。
在这种情况下,增加层级(如依赖于中心化排序器的 L2 或依赖于中心化存储的压缩资产)只是掩盖了问题。
每次修补短期问题的尝试,往往增加了复杂性和更多的中心化控制点,使系统进一步偏离原本的愿景。
这就是设计债务如何累积成一种“技术重力”,将一切拉向中心化。
即使那些从未打算成为“守门人”的系统,最终也会因为其基本架构的要求而强化层级结构。一旦发生这种情况,返回真正去中心化和无信任状态的道路就被既得利益和基础设施的惯性所阻挡。
教训很明确:必须从一开始就正确设计架构。
这意味着选择不会将一切捆绑到单一全球状态的数据模型,使用无需信任中介就能验证的存储解决方案,并选择不依赖于少数强大中介的网络层。
这关乎从第一天起重新想象整个技术堆栈。
“唯一避免设计债务的方法就是从一开始就不要让它产生。”
当我们谈论创建“无法作恶”的基础设施时,其核心是从最初就做出正确的架构决策。
因此,在设计 Sui 时,我们从第一步就将这些核心原则融入系统中。
这样,开发者可以更轻松地构建可扩展、安全且易用的应用,而无需依赖中心化的妥协方案。
考虑编程模型本身:
Sui 的面向对象的编程模型有意脱离了许多区块链所采用的账户模型范式。
Sui 设计理念的核心是面向对象的编程模型。
在一个 Web2 开发者习惯于用文件、记录和资产等对象思维的世界中,将一切简化为单一的账户模型没有意义。
这样做迫使开发者采用不自然的思维模式,增加了容易出错的复杂性。
面向对象的编程模型与 Web2 工程师的思维方式自然一致。
对象作为一等公民,使得表示资产、定义规则变得简单,同时避免了常见的漏洞(例如重入漏洞),无需复杂的样板代码。
这种熟悉的模型大大减少了概念上的负担以及常见的陷阱,例如重入问题。开发者无需通过编写样板检查代码或复杂的防护措施来防止漏洞,而是依靠 Move 虚拟机在运行时层面上确保安全。
因此,代码更加易读、安全,也更容易理解。
这是从 Web2 面向对象的思维模式到 Web3 去信任环境的直接桥梁,这得益于从一开始就基于正确的假设设计。
但一个伟大的编程模型,如果在负载下崩溃,就毫无意义。
从一开始,Sui 就是为处理现实世界的负载而构建的。它被设计为在保持同步的原子组合性的同时水平扩展。
系统的对象模型使 Sui 对每笔交易所触及的状态部分有精细的理解,从而能够实现大规模的并行执行。这与基于 EVM 的系统形成了鲜明对比,后者必须锁定整个全局状态。这不仅减慢了速度,还鼓励中心化解决方案来分流交易量。
在 Sui 中,每个对象本质上都是它自己的分片。如果需要更多容量,只需添加更多计算能力以应对负载。
Pilotfish原型: https://blog.sui.io/pilotfish-execution-scalability-blockchain/
开发者无需担心分片逻辑、跨域桥接或拼凑基础设施以实现扩展。
随着网络的增长,系统可以处理更多的流量,但如何确保公平的资源分配?
如果某个热门资产或 dApp 垄断了状态更新市场,就可能推高成本并降低其他用户的体验。
本地费用市场不再依赖单一的全球区块空间拍卖(其中一个热门应用程序可以抬高每个人的价格),而是让系统以更精细的粒度对资源进行定价。
每个“对象”或分片可以拥有自己的费用市场,确保某一区域的拥堵不会蔓延并影响网络的其他部分。
这些都被嵌入平台的基础设计中,确保即使需求增长,系统也不会退化为传统的守门人模式和封闭生态。
为去中心化而设计还意味着将可验证性内置于存储和通信层中。
如果数据存储依赖于单一的信任方,那么你就回到了原点。你需要存储解决方案,使任何人都能验证数据完整性,而无需依赖中间人。
真正的去中心化应用不能依赖单一的云服务提供商或集中式数据库。
Walrus 提供了一个功能强大且可验证的去中心化存储层,性能堪比 AWS 和 Google Cloud 等主流中心化服务。
与其事后弥补数据验证问题,Walrus 将数据可验证性作为其核心设计的一部分。
通过集成一个防篡改且本质上可验证的存储层,Walrus 确保开发者能够搭建网站、托管数据、开发完全去中心化的应用,避免走回中心化的老路。
简单来说,Walrus 延续了“从根本上正确”的设计理念,将这一原则从执行层扩展到了存储层,确保每一层的完整性。
现在,设计去中心化不仅意味着要在共识层或执行层上实现,还必须扩展到网络本身。
网络层不应依赖于少数强大的ISP或路由服务,这同样是一种中心化。
在 Web3 中,网络层往往是被忽视的一环。
传统互联网的路由由少数 ISP 控制,这种集中化带来了潜在的瓶颈和安全隐患。
SCION 是一种全新的网络协议,它打破了这一现状,使数据路由更加安全、可靠,并减少了对集中化控制的依赖。
这种协议采用了安全、多路径、跨域的路由设计,可以与现有互联网并行运行。它从根本上重新定义了数据在网络中的流动方式,在设计之初便将安全性、控制权和高效性能融入其中。
将 SCION 集成到 Sui 中,确保网络层不会成为单点故障或集中控制的来源。
没有任何机构能够单方面控制数据流,用户也无需担心数据路由会被操控或垄断。
通过在数据模型、存储和网络等各层级嵌入可验证性和无权限特性,极大减少了集中控制的可能性。
这不是事后补充的去中心化,而是从一开始就嵌入到系统的基础中。
这种简单性减少了复杂性,同时防止了“方便但集中的权宜之计”的使用。最重要的是,从一开始就将基础打好意味着不必依赖“以后再修复”的心态。
“去中心化不是节点数量的比拼,而是通过架构设计防止权力过度集中。”
我们探讨的一切要点很简单:如果你想要一个“无法作恶”的系统,就必须从正确的架构开始。
如果从一开始就基于错误的假设构建,再多的代码或聪明的修补都无济于事。
奖励守门人的架构、迫使每个参与者争夺相同稀缺资源的数据模型,以及围绕集中式枢纽设计的网络层——最终你会滑向相同的控制和层级模式。
这就是为什么架构基础如此重要。
去中心化不仅仅是计算节点的数量。真正的去中心化意味着在根层设计,确保信任、公平和可验证性无法被绕过。
这意味着构建一个系统,既不能让少数巨鲸,也不能让资源丰富的公司悄悄地倾斜竞争环境。这是关于确保每个参与者都有公平的机会,没有任何一个阻塞点或细微的设计决定会演变成失控的集中化。
Sui 是一个例子,展示了当你从第一天就以这些原则设计时会发生什么,而不是事后试图调整。
当整个技术栈,从编程模型到共识层,再从用户引导到数据可用性和网络层,都强化了开放性和中立性时,你创造了一个构建者和用户在平等条件下蓬勃发展的环境。
通过从第一原则出发,在每一层执行去中心化,你可以创建一个无论多大规模都能保持其初衷的基础设施。
从一开始就构建得当,你无需承诺未来的修复或权宜之计。
你将拥有一个本质上公正、弹性强,并能作为下一代数字体验基础的网络。
株式
很多年前,当我刚开始参与服务数十亿用户的项目时,我深刻体会到,初期的基础设施设计决定可以彻底改变整个行业的走向。
即便是那些起初以开放、中立和去中心化为目标的平台,也可能逐渐走向集中化。
这并非出于恶意,而是因为某些设计决策在早期就被固定下来后,技术和市场的自然演进会让系统逐步集中化。
因此,从一开始,基础设施的设计选择就非常重要。
这些关键设计必须确保技术能够内置公平性,并在根源上防止权力的过度集中。
“权力总是倾向于集中化,即使没有人刻意为之。”
这是我在负责大型互联网项目时切身体会到的一条深刻规律。
当“去中心化行业”初现时,它似乎为我们带来了新的希望。我们将比特币、以太坊等视为摆脱传统权力结构的工具。
故事很简单:夺回权力,摆脱中间商的束缚,让公平由代码来保障。
然而,我们不得不承认,随着时间的推移,那些曾让互联网走向集中化的力量,如今也在影响这些所谓的“去中心化”系统。
那么,互联网为何会走向集中化?
互联网最初不是作为一个能够承受核战争的去中心化P2P网络诞生的吗?
要弄清楚为何去中心化系统会逐渐受制于集中化压力,我们需要回顾互联网的历史,了解它是如何从理想主义的起点,演变为一个高度集中化的生态的。
“最初,没有谁掌控一切,也没有谁能独断专行。”
互联网的雏形可以追溯到20世纪60年代末,由美国国防部推动的ARPANET项目开创了基础。
来源: @DailySwig
从一开始,这个网络的设计目标就是避免“单点故障”。即便某一部分失效,也不会导致整体瘫痪。
为了实现这一目标,网络被精心设计成去中心化的架构。
其背后的逻辑非常明确:分布式系统能够应对单点故障,确保即使在设备故障或战争等极端情况下,通信依然可靠。
一个可以抵御核打击的去中心化通信网络由此诞生。
网络中的每个节点都是独立的“对等体”,能够自主发送和接收数据,无需依赖任何集中管理的权威机构。无论设备是什么硬件或操作系统,只要能使用TCP/IP协议,就能进行数据交换。
到了70年代和80年代,大学和研究机构通过NSFNET和ARPANET连通,形成了一个真正的去中心化网络环境——没有人能控制全局,也没有谁能主导规则。
这种去中心化精神还体现在技术基础中:
TCP/IP、FTP、Telnet、Usenet新闻组和DNS的设计初衷都不是为了强化控制,而是为了开放和协作。
比如,Usenet通过去中心化的点对点方式传播消息,而DNS采用分布式层次结构委派命名权,但每个节点既是客户端也是服务器。
这都彰显了互联网最初的核心原则:
一个开放的网络,任何人都能接入和参与,而不是被某个大玩家垄断规则。
然而,到了90年代初,万维网和浏览器的出现改变了一切。
第一个网站页面复现(图片来源:CERN)
蒂姆·伯纳斯-李:万维网的缔造者
1989年至1991年,万维网诞生。这一技术基于开放标准(HTTP、HTML),并被无偿公开给公众。最初的网络环境简单直接,任何人,只要拥有一台调制解调器和托管工具,都能轻松建立自己的网站。
当时的互联网基础设施相对简单,分散式架构占主导地位,无数独立网页相互链接,构成了一个松散的网络联盟。
然而,到了90年代初,情况开始发生变化。
“网页浏览”成为了改变游戏规则的“杀手级应用”。
网站逐渐转变为在线商店、新闻平台以及娱乐中心,而普通用户已经很少自己运行服务器或托管页面了。
1994年,Netscape浏览器的主页,展示其吉祥物Mozilla(截图来源:Alex Pasternack / OldWeb.today)
用户通过网页浏览器(客户端)访问网络,最初依赖慢速调制解调器,后来使用宽带连接,从大型、知名的网络服务器获取内容。托管大量数据、建立电子商务网站或搜索引擎迅速成为趋势。
早期搜索引擎如AltaVista和Yahoo!,以及后来的Google,帮助用户在信息爆炸的互联网中快速找到所需内容
网络效应迅速显现:用户越多,搜索引擎的索引和广告模型优化得越好,其市场主导地位也越牢固。
Google的PageRank算法使其成为用户探索互联网的首选入口。
这一趋势吸引了资本和资源集中到大型数据中心,而那些能够扩展并应对大规模流量的平台最终胜出。
与此同时,互联网服务提供商(ISP)崛起,为数以百万计的新用户提供接入服务。网络基础设施逐步向“下行优化”方向发展。
非对称宽带连接(如ADSL和有线网络)成为主流,提供更快的下载速度而非上传速度,这反映了大部分用户以消费内容为主的需求。
随着互联网用户规模的持续扩大,早期互联网开放性和信任的设计理念也开始暴露出其局限性。
“自由和开放若缺乏安全保障,可能会引发滥用,最终让我们不得不建起更高的围墙。”
互联网的早期协议并没有设计成能应对海量用户,尤其是那些带有商业目的、试图滥用开放性的人群。
由于缺乏有效的防护机制,垃圾信息泛滥,利用了互联网开放的特性。
最初的网络架构允许每台主机与其他任何主机互联,这在互联网规模较小时行得通。
但随着网络发展,黑客攻击和恶意活动迅速激增。
来源: emailtray.com
同样地,在没有公平使用带宽的办法时,一些应用学会了突破限制,以牺牲他人利益为代价获取优势。
这些设计上的缺陷将互联网推向了更多的管控和控制。
为保护内部网络,防火墙被引入,用于阻挡外部访问;网络地址转换 (NAT)技术进一步限制了直接通信,将设备隐藏在共享IP地址之后。
这削弱了通信的点对点(P2P)特性。
位于NAT和防火墙之后的主机实际上被迫成为仅客户端角色,不再能被外界直接访问。
随着时间推移,这些基础设施决定相互强化了这种现象。
“少数几家公司意识到,控制数据中心并拥有大规模服务器基础设施能带来巨大的竞争优势。”
从家中运行自己的服务器的复杂性和成本,加上NAT和防火墙等技术壁垒,意味着越来越少的个人能够作为真正的点对点参与者。
换句话说,这种环境实际上促使互联网走向了少数集中化巨头的方向。
到了2000年代早期,少数公司意识到,控制数据中心和大规模服务器基础设施为它们提供了巨大的竞争优势。
它们能够提供比网络上随机点更快、更可靠、更方便的服务。
这种趋势在2000年代末达到了极致。
像Google这样的搜索引擎、Amazon这样的大型平台、Facebook这样的社交媒体巨头,以及内容分发网络(CDN)都建立了能够以前所未有的速度和规模交付内容和应用的庞大基础设施。
这些大公司还利用了数据与算法的“良性循环”。
它们吸引的用户越多,收集的数据也就越多,从而能够优化产品、个性化体验以及更准确地投放广告。这使它们的服务更具吸引力,吸引更多用户和收入。
随后,互联网的收入模式逐渐转向了高度依赖于目标广告的模式。
随着时间推移,这种反馈循环进一步集中了权力,因为小型竞争对手难以匹敌大公司在基础设施投资和数据上的优势。
原本可以从个人服务器或本地数据中心运行的基础设施逐渐迁移到云端。
像Amazon(AWS)、Microsoft(Azure)和Google Cloud这样的巨头如今承载了互联网的大部分骨干。这一转变的发生是因为运行大规模、安全可靠的基础设施变得如此复杂且资本密集,以至于只有少数公司能够高效完成。
创业公司甚至一些成熟的企业发现,依赖这些大型云服务提供商更便宜、更简单。
内容分发网络(如Cloudflare或Akamai)和DNS解析服务也逐渐集中到少数大公司手中。
这些托管解决方案的复杂性和成本优势使得组织缺乏“自己动手”构建基础设施的理由。
渐渐地,小型ISP、独立托管和本地化路由等去中心化的支柱被一种依赖少数几个主要中介的模式所取代。
“大型企业最初并非出于恶意,而是为了提升便利性、性能和盈利能力。
然而,这正是早期网络架构设计选择的自然结果。”
随着互联网的发展和集中化,权力和控制逐渐向少数几家巨头倾斜。
这些大型平台不仅能设定服务条款,还能决定用户看到或发布什么内容,以及如何使用或出售用户数据。如果用户不满这些规则,他们几乎别无选择。
久而久之,这些平台的推荐算法和内容政策逐渐成为公共话语的实际仲裁者。
讽刺的是,最初作为开放、去中心化网络诞生的互联网,如今反而成为少数公司把控信息流的工具。
这些企业在某些方面的影响力甚至可与政府媲美:它们可以操控公共舆论、影响商业活动,甚至左右整个开发者生态系统的运行规则。
曾经致力于实现自由连接的网络,现在却围绕着这些企业运转,显著改变了在线体验。
这并非是为了集中权力的某种宏大计划,也不是源于某个“错误的转折点”。
大型玩家最初并非怀有恶意;他们只是为了方便、性能和利润进行优化。
这是早期网络架构设计选择的自然结果。
这些选择并未预见到一个更广泛、以商业为驱动的受众如何使用系统,并将其推向初始设计参数之外。
随着时间的推移,这些选择累积成一个由少数公司主导的系统。
去中心化行业正在重蹈覆辙
“集中化往往并非恶意行为的结果,而是试图修复系统问题时做出的权宜之计。”
与早期互联网从去中心化走向集中化的历史相似,如今的区块链和所谓的“去中心化”技术也在面临同样的命运。
以太坊扩展性问题最能说明这一点。
高昂的费用和缓慢的吞吐量推动开发者采用 Layer-2 (L2) 解决方案:这些 rollup 将交易聚合到链下处理,然后在以太坊上结算。理论上,这些 L2 应该保留以太坊的无信任特性。
实际上,许多依赖于一个单一的“排序器”(一个由某家公司运营的集中式服务器,用于排序交易)。
目前,某个特定的 L2 解决方案拥有最多的活动量和总锁定价值,但同时也是最集中的。
它的宣传是去中心化“某天会到来”,但这话我们以前听过。
随着时间推移,这些“临时”解决方案往往会变成永久的。未来的分层方法可能会出现类似模式;有些甚至可能连去中心化的承诺都懒得给出。
例如,“社交登录”看起来很方便:它让人们无需处理私钥或复杂界面就能轻松开始使用服务。但如果这些登录依赖于一个集中化的组件,你再次将信任交给了一家公司。
因此,当我们构建 zkLogin 时,我们选择以无信任的方式设计并集成它。虽然过程艰难,但我们不能为了方便而妥协,允许集中化。
类似的模式也出现在 NFT 生态系统中。
一个单一的主导市场成为二级交易的主要场所,捕获了大部分交易量,并事实上成为了默认平台。
不久前,这个平台决定停止在二级销售中强制执行版税支付。
确实,这增加了交易量,但却损害了依赖这些版税作为关键收入来源的创作者。
这清楚地展示了当集中化平台可以随时修改规则时会产生的后果。
它们的主导地位还延伸到交易之外,因为许多项目也依赖于它们的 API 和基础设施。
当这个集中化平台出现宕机时,整个生态系统都受到了影响,暴露出已经形成的深度依赖。
但为什么这种情况总是不断发生呢?
因为用户希望快速、便宜和简单的体验。而开发者在压力下,往往转向熟悉且可靠的解决方案。这些选择确实更简单、更快,但也可能引入削弱去中心化的控制点。
这些步骤没有哪个一开始是为了垄断而设计的。它们只是对技术和市场挑战的实际回应。
但随着时间推移,这些“权宜之计”会嵌入系统的 DNA 中,创造出一个由少数玩家掌控关键点的结构。
这就是为什么这些系统必须从一开始就为开发者设计,而不仅仅是为消费者设计。
“如果问消费者想要什么,他们可能只会说‘一匹更快的马’。” ——亨利·福特
大多数人只想要现有事物的改进版。
但如果我们总是追逐这些短期改进,结果可能是构建出一个表面去中心化但实质被少数机构控制的系统。
要想避免今天“数字巨头”主导的情况重演,我们需要把注意力转向未来的创新者——建设者,而不仅仅是消费者。
这就是为什么我常告诉团队,消费者会追求“更快的马”,而建设者则想象“汽车”。
通过为开发者提供强大的工具和模块,我们可以打造无需为了便利而牺牲去中心化的平台。这样的系统能够避免单一实体的垄断,确保系统收益公平分配。
因此,真正去中心化的系统需要从设计之初就植入支持去中心化的理念,即使它们将来要扩展到互联网级别。
“技术债务可以通过修复代码来解决,但设计债务往往需要从头开始。”
从我参与构建亿级用户系统的经验中,我明白一旦一个系统变得至关重要,就很难彻底重建而不造成巨大破坏。
当数百万用户依赖于你系统中的某些核心逻辑时,任何重大架构调整都可能打破商业模式,甚至损害整个社区的信任。
这就是“设计债务”的最严重表现。
设计债务不仅是代码优化问题,而是网络架构中对信任、权力和价值流向的核心设计选择。
早期区块链行业曾把“扩展性三难困境”(去中心化、安全性与可扩展性无法兼得)当作天经地义。
人们在这个假设之上构建,认为它就像重力一样不可改变。
但这一限制并非天生,而是最初设计架构的缺陷:庞大的全球共享状态和僵化的数据模型,让并行化和模块化扩展无法实现。
唯一的前进方式是将所有交易捆绑在一起,迫使每个参与者无论他们在做什么都必须争夺同样有限的资源。结果是什么?在需求激增时,区块空间的低效拍卖抬高了成本,同时未能将拥堵隔离到实际发生的位置。
在这种情况下,增加层级(如依赖于中心化排序器的 L2 或依赖于中心化存储的压缩资产)只是掩盖了问题。
每次修补短期问题的尝试,往往增加了复杂性和更多的中心化控制点,使系统进一步偏离原本的愿景。
这就是设计债务如何累积成一种“技术重力”,将一切拉向中心化。
即使那些从未打算成为“守门人”的系统,最终也会因为其基本架构的要求而强化层级结构。一旦发生这种情况,返回真正去中心化和无信任状态的道路就被既得利益和基础设施的惯性所阻挡。
教训很明确:必须从一开始就正确设计架构。
这意味着选择不会将一切捆绑到单一全球状态的数据模型,使用无需信任中介就能验证的存储解决方案,并选择不依赖于少数强大中介的网络层。
这关乎从第一天起重新想象整个技术堆栈。
“唯一避免设计债务的方法就是从一开始就不要让它产生。”
当我们谈论创建“无法作恶”的基础设施时,其核心是从最初就做出正确的架构决策。
因此,在设计 Sui 时,我们从第一步就将这些核心原则融入系统中。
这样,开发者可以更轻松地构建可扩展、安全且易用的应用,而无需依赖中心化的妥协方案。
考虑编程模型本身:
Sui 的面向对象的编程模型有意脱离了许多区块链所采用的账户模型范式。
Sui 设计理念的核心是面向对象的编程模型。
在一个 Web2 开发者习惯于用文件、记录和资产等对象思维的世界中,将一切简化为单一的账户模型没有意义。
这样做迫使开发者采用不自然的思维模式,增加了容易出错的复杂性。
面向对象的编程模型与 Web2 工程师的思维方式自然一致。
对象作为一等公民,使得表示资产、定义规则变得简单,同时避免了常见的漏洞(例如重入漏洞),无需复杂的样板代码。
这种熟悉的模型大大减少了概念上的负担以及常见的陷阱,例如重入问题。开发者无需通过编写样板检查代码或复杂的防护措施来防止漏洞,而是依靠 Move 虚拟机在运行时层面上确保安全。
因此,代码更加易读、安全,也更容易理解。
这是从 Web2 面向对象的思维模式到 Web3 去信任环境的直接桥梁,这得益于从一开始就基于正确的假设设计。
但一个伟大的编程模型,如果在负载下崩溃,就毫无意义。
从一开始,Sui 就是为处理现实世界的负载而构建的。它被设计为在保持同步的原子组合性的同时水平扩展。
系统的对象模型使 Sui 对每笔交易所触及的状态部分有精细的理解,从而能够实现大规模的并行执行。这与基于 EVM 的系统形成了鲜明对比,后者必须锁定整个全局状态。这不仅减慢了速度,还鼓励中心化解决方案来分流交易量。
在 Sui 中,每个对象本质上都是它自己的分片。如果需要更多容量,只需添加更多计算能力以应对负载。
Pilotfish原型: https://blog.sui.io/pilotfish-execution-scalability-blockchain/
开发者无需担心分片逻辑、跨域桥接或拼凑基础设施以实现扩展。
随着网络的增长,系统可以处理更多的流量,但如何确保公平的资源分配?
如果某个热门资产或 dApp 垄断了状态更新市场,就可能推高成本并降低其他用户的体验。
本地费用市场不再依赖单一的全球区块空间拍卖(其中一个热门应用程序可以抬高每个人的价格),而是让系统以更精细的粒度对资源进行定价。
每个“对象”或分片可以拥有自己的费用市场,确保某一区域的拥堵不会蔓延并影响网络的其他部分。
这些都被嵌入平台的基础设计中,确保即使需求增长,系统也不会退化为传统的守门人模式和封闭生态。
为去中心化而设计还意味着将可验证性内置于存储和通信层中。
如果数据存储依赖于单一的信任方,那么你就回到了原点。你需要存储解决方案,使任何人都能验证数据完整性,而无需依赖中间人。
真正的去中心化应用不能依赖单一的云服务提供商或集中式数据库。
Walrus 提供了一个功能强大且可验证的去中心化存储层,性能堪比 AWS 和 Google Cloud 等主流中心化服务。
与其事后弥补数据验证问题,Walrus 将数据可验证性作为其核心设计的一部分。
通过集成一个防篡改且本质上可验证的存储层,Walrus 确保开发者能够搭建网站、托管数据、开发完全去中心化的应用,避免走回中心化的老路。
简单来说,Walrus 延续了“从根本上正确”的设计理念,将这一原则从执行层扩展到了存储层,确保每一层的完整性。
现在,设计去中心化不仅意味着要在共识层或执行层上实现,还必须扩展到网络本身。
网络层不应依赖于少数强大的ISP或路由服务,这同样是一种中心化。
在 Web3 中,网络层往往是被忽视的一环。
传统互联网的路由由少数 ISP 控制,这种集中化带来了潜在的瓶颈和安全隐患。
SCION 是一种全新的网络协议,它打破了这一现状,使数据路由更加安全、可靠,并减少了对集中化控制的依赖。
这种协议采用了安全、多路径、跨域的路由设计,可以与现有互联网并行运行。它从根本上重新定义了数据在网络中的流动方式,在设计之初便将安全性、控制权和高效性能融入其中。
将 SCION 集成到 Sui 中,确保网络层不会成为单点故障或集中控制的来源。
没有任何机构能够单方面控制数据流,用户也无需担心数据路由会被操控或垄断。
通过在数据模型、存储和网络等各层级嵌入可验证性和无权限特性,极大减少了集中控制的可能性。
这不是事后补充的去中心化,而是从一开始就嵌入到系统的基础中。
这种简单性减少了复杂性,同时防止了“方便但集中的权宜之计”的使用。最重要的是,从一开始就将基础打好意味着不必依赖“以后再修复”的心态。
“去中心化不是节点数量的比拼,而是通过架构设计防止权力过度集中。”
我们探讨的一切要点很简单:如果你想要一个“无法作恶”的系统,就必须从正确的架构开始。
如果从一开始就基于错误的假设构建,再多的代码或聪明的修补都无济于事。
奖励守门人的架构、迫使每个参与者争夺相同稀缺资源的数据模型,以及围绕集中式枢纽设计的网络层——最终你会滑向相同的控制和层级模式。
这就是为什么架构基础如此重要。
去中心化不仅仅是计算节点的数量。真正的去中心化意味着在根层设计,确保信任、公平和可验证性无法被绕过。
这意味着构建一个系统,既不能让少数巨鲸,也不能让资源丰富的公司悄悄地倾斜竞争环境。这是关于确保每个参与者都有公平的机会,没有任何一个阻塞点或细微的设计决定会演变成失控的集中化。
Sui 是一个例子,展示了当你从第一天就以这些原则设计时会发生什么,而不是事后试图调整。
当整个技术栈,从编程模型到共识层,再从用户引导到数据可用性和网络层,都强化了开放性和中立性时,你创造了一个构建者和用户在平等条件下蓬勃发展的环境。
通过从第一原则出发,在每一层执行去中心化,你可以创建一个无论多大规模都能保持其初衷的基础设施。
从一开始就构建得当,你无需承诺未来的修复或权宜之计。
你将拥有一个本质上公正、弹性强,并能作为下一代数字体验基础的网络。