📢 #Gate观点任务# 第九十期精彩启程!调研 Pell Network (PELL) 项目,在Gate.io动态发布您的看法观点,瓜分 $100 GT!
💰️ 选取10名优质发帖用户,每人轻松赢取 $10 GT 奖励,获奖文章还将被标记为“精选”!
👉 参与方式:
调研$PELL项目,发表你对项目的见解。
带上$PELL现货交易链接:https://www.gate.io/trade/PELL_USDT
推广$PELL Launchpool挖矿活动,质押$BTC、$PELL、$GT参与瓜分7,002,801 $PELL挖矿奖励:https://www.gate.io/launchpool/PELL?pid=237
推广$PELL上线狂欢活动,充值、交易、注册享三重福利,参与瓜分$30,000 PELL奖励:https://www.gate.io/announcements/article/43851
建议创作的主题方向:
🔹 什么是 Pell Network?
🔹 Pell Network 在BTC再质押方面有什么优势?
🔹 $PELL 代币经济模型是如何运作的?
您可以选择以上一个或多个方向发表看法,也可以跳出框架,分享主题以外的独到见解。
注意:帖子不得包含除 #Gate观点任务# 和 #PELL# 之外的其他标签,并确保你的帖子至少有 60 字,并获得至少 3
Vitalik 新文:未来治理新范式「AI 引擎 + 人类方向盘」
原文标题:《AI as the engine, humans as the steering wheel》
撰文:Vitalik,以太坊创始人
编译:白水,金色财经
如果你问人们喜欢民主结构的哪些方面,无论是政府、工作场所还是基于区块链的 DAO,你经常会听到相同的论点:它们避免权力集中,它们为用户提供强有力的保证,因为没有一个人可以随心所欲地完全改变系统的方向,它们可以通过收集许多人的观点和智慧来做出更高质量的决策。
如果你问人们不喜欢民主结构的哪些方面,他们经常会给出相同的抱怨:普通选民不够老练,因为每个选民只有很小的机会影响结果,很少有选民在决策中投入高质量的思考,而且你经常会得到低参与度(使系统易于攻击)或事实上的中心化,因为每个人都默认信任和复制一些有影响力的人的观点。
这篇文章的目标是探索一种范式,也许可以使用 AI 让我们从民主结构中获益而没有负面影响。「AI 是引擎,人类是方向盘」。人类只向系统提供少量信息,可能只有几百位,但都是经过深思熟虑且质量极高的。AI 将这些数据视为「目标函数」,并不知疲倦地做出大量决策,尽最大努力实现这些目标。特别是,这篇文章将探讨一个有趣的问题:我们能否在不将单个 AI 置于中心的情况下做到这一点,而是依靠任何 AI(或人机混合体)都可以自由参与的竞争性开放市场?
目录
为什么不直接让一个 AI 来负责呢?
将人类偏好插入基于 AI 的机制的最简单方法是制作一个 AI 模型,并让人类以某种方式将他们的偏好输入其中。有简单的方法可以做到这一点:您只需将包含人员指令列表的文本文件放入系统提示中即可。然后,您可以使用众多「代理 AI 框架」之一赋予 AI 访问互联网的能力,将您组织的资产和社交媒体资料的密钥交给它,您就大功告成了。
经过几次迭代后,这可能足以满足许多用例的需求,我完全预计在不久的将来,我们将看到许多涉及 AI 阅读群组给出的指令(甚至实时阅读群聊)并采取行动的结构。
这种结构不理想的是作为长期机构的治理机制。长期机构应具有的一个宝贵属性是可信中立性。在我介绍这一概念的帖子中,我列出了可信中立性的四个宝贵属性:
LLM(或 AI 代理)满足 0/4。该模型不可避免地在其训练过程中编码了大量特定的人和结果偏好。有时这会导致 AI 的偏好方向令人惊讶,例如,看看最近的一项研究表明,主要的 LLM 更看重巴基斯坦的生活,而不是美国的生活(!!)。它可以是开放权重,但这远非开源;我们真的不知道在模型深处隐藏着什么魔鬼。它与简单相反:LLM 的 Kolmogorov 复杂度为数百亿位,大约相当于所有美国法律(联邦 + 州 + 地方)的总和。而且由于 AI 发展迅速,你必须每三个月更改一次。
出于这个原因,我赞成在许多用例中探索的另一种方法是让一个简单的机制成为游戏规则,让 AI 成为玩家。正是这种洞察力使得市场如此有效:规则是一种相对愚蠢的产权体系,边缘案件由法院系统裁决,该系统缓慢地积累和调整先例,而所有的情报都来自于「在边缘」运作的企业家。
单个「游戏玩家」可以是 LLM、相互交互并调用各种互联网服务的 LLM 群、各种 AI + 人类组合以及许多其他构造;作为机制设计师,您不需要知道。理想目标是拥有一个可以自动运行的机制 —— 如果该机制的目标是选择资助什么,那么它应该尽可能地像比特币或以太坊区块奖励一样。
这种方法的好处是:
指导机制的目标是忠实地反映参与者的根本目标。它只需要提供少量信息,但应该是高质量的信息。
你可以认为该机制利用了提出答案和验证答案之间的不对称性。这类似于数独很难解决,但很容易验证解决方案是否正确。你 (i) 创建一个开放的市场,让玩家充当「解题者」,然后 (ii) 维护一个由人类运行的机制,执行验证已提出解决方案的简单得多的任务。
Futarchy
Futarchy 最初由 Robin Hanson 提出,意为「为价值投票,但为信念押注」。投票机制选择一组目标(可以是任何目标,但前提是它们必须是可衡量的),然后将其组合成一个度量 M。当您需要做出决定时(为简单起见,我们假设是 YES/NO),您会设置条件市场:您要求人们押注 (i) 是否会选择 YES 或 NO,(ii) 如果选择 YES,则 M 的值,否则为零,(iii) 如果选择 NO,则 M 的值,否则为零。有了这三个变量,您就可以确定市场是否认为 YES 或 NO 对 M 的值更有利。
「公司股票价格」(或者对于加密货币来说,代币价格)是最常被引用的指标,因为它很容易理解和衡量,但该机制可以支持多种指标:月活跃用户、某些群体的自我报告幸福感中位数、一些可量化的去中心化指标等。
Futarchy 最初是在人工智能时代之前发明的。然而,Futarchy 非常自然地符合上一节描述的「复杂的求解器、简单的验证器」范式,并且 Futarchy 中的交易者也可以是人工智能(或人类 + 人工智能的组合)。「求解器」(预测市场交易者)的作用是确定每个提议的计划将如何影响未来指标的价值。这很难。如果求解器正确,他们就会赚钱,如果求解器错误,他们就会赔钱。验证者(对指标进行投票的人,如果他们注意到指标被「操纵」或者变得过时,就会调整指标,并确定指标在未来某个时间的实际值)只需要回答一个更简单的问题「该指标现在的值是多少?」
蒸馏人类判断力
蒸馏人类判断是一类机制,其工作原理如下。有大量(想想:100 万个)问题需要回答。自然的例子包括:
您有一个团队可以回答这些问题,但代价是要在每个答案上花费大量精力。您只要求团队回答少数问题(例如,如果总清单有 100 万项,团队可能只会回答其中的 100 项)。您甚至可以向团队提出间接问题:不要问「Alice 应获得总信用的百分之几?」,而是问「Alice 或 Bob 是否应该获得更多信用,以及多多少倍?」。在设计陪审团机制时,您可以重复使用现实世界中久经考验的机制,如拨款委员会、法院(确定判决价值)、评估等,当然,陪审团参与者自己也可以使用新奇的 AI 研究工具来帮助他们找到答案。
然后,您允许任何人提交对整个问题集的数字回答列表(例如,提供整个列表中每个参与者应获得多少信用的估计值)。鼓励参与者使用人工智能来完成此任务,但他们可以使用任何技术:人工智能、人机混合、可以访问互联网搜索并能够自主雇用其他人类或人工智能工作者的人工智能、经过控制论增强的猴子等。
一旦完整列表提供者和陪审员都提交了答案,就会根据陪审团的答案对完整列表进行检查,并将与陪审团答案最兼容的完整列表的某种组合作为最终答案。
蒸馏的人类判断机制与 futarchy 不同,但有一些重要的相似之处:
用于信用分配的蒸馏人类判断的玩具示例,请参阅此处的 Python 代码。脚本要求您担任陪审团,并包含一些预先包含在代码中的 AI 生成(和人类生成)完整列表。该机制识别最适合陪审团答案的完整列表的线性组合。在这种情况下,获胜组合是 0.199 * Claude 的答案 + 0.801 * Deepseek 的答案;这个组合比任何单个模型都更符合陪审团的答案。这些系数也将是给予提交者的奖励。
在这个「击败索伦」的例子中,「人类作为方向盘」的方面体现在两个地方。首先,每个问题都应用了高质量的人类判断,尽管这仍然利用陪审团作为「技术官僚」绩效评估者。其次,有一个隐含的投票机制,决定「击败索伦」是否是正确的目标(而不是,比如说,试图与索伦结盟,或将某条关键河流以东的所有领土都交给他作为和平让步)。还有其他蒸馏的人类判断用例,其中陪审团的任务更直接地带有价值观:例如,想象一个分散的社交媒体平台(或子社区),陪审团的工作是将随机选择的论坛帖子标记为遵守或不遵守社区规则。
在蒸馏人类判断范式中,存在一些开放变量:
总的来说,目标是采用已知有效、偏见最小化且经受住了时间考验的人类判断机制(例如,想象一下法院系统的对抗结构如何包括争议的两方,他们拥有大量信息但有偏见,而法官拥有少量信息但可能没有偏见),并使用开放的人工智能市场作为这些机制的合理高保真度和非常低成本的预测指标(这类似于大预言模型「蒸馏」的工作方式)。
深度融资(deep funding)
深度融资是将人类蒸馏的判断应用于填写「X 的信用有多少百分比属于 Y?」图上边的权重问题。
最简单的方法是直接用一个例子来说明:
两级深度融资示例的输出:以太坊的思想起源。请在此处查看 Python 代码。
这里的目标是分配对以太坊的哲学贡献的荣誉。让我们看一个例子:
这种方法旨在适用于那些在以前的工作基础上进行工作且结构高度清晰的领域。学术界(想想:引用图)和开源软件(想想:库依赖关系和分叉)就是两个自然的例子。
一个运作良好的深度资助系统的目标是创建和维护一个全局图,任何有兴趣支持某个特定项目的资助者都能够将资金发送到代表该节点的地址,资金将根据图边缘的权重自动传播到其依赖项(并递归到它们的依赖项等)。
你可以想象一个去中心化协议使用内置深度融资装置来发行其代币:协议内的去中心化治理将选择一个陪审团,陪审团将运行深度融资机制,因为协议会自动发行代币并将其存入与其自身对应的节点。通过这样做,协议以编程方式奖励其所有直接和间接贡献者,让人想起比特币或以太坊区块奖励如何奖励一种特定类型的贡献者(矿工)。通过影响边缘的权重,陪审团可以不断定义它重视的贡献类型。这种机制可以作为挖矿、销售或一次性空投的去中心化和长期可持续的替代方案。
增加隐私
通常,要对上述示例中的问题做出正确的判断,需要能够访问私人信息:组织的内部聊天记录、社区成员秘密提交的信息等。「仅使用单个 AI」的一个好处,尤其是在规模较小的环境中,是让一个 AI 访问信息比向所有人公开信息更容易被接受。
为了在这些情况下使蒸馏的人类判断或深度资助发挥作用,我们可以尝试使用加密技术安全地让 AI 访问私人信息。这个想法是使用多方计算 (MPC)、完全同态加密 (FHE)、可信执行环境 (TEE) 或类似机制来提供私人信息,但仅限于其唯一输出是直接放入机制中的「完整列表提交」的机制。
如果你这样做,那么你就必须将机制集限制为 AI 模型(而不是人类或 AI + 人类组合,因为你不能让人类看到数据),并且特定于在某些特定基底(例如 MPC、FHE、可信硬件)中运行的模型。一个主要的研究方向是找出近期足够有效、有意义的实用版本。
发动机 + 方向盘设计的优点
这样的设计有许多令人期待的好处。迄今为止,最重要的好处是,它们允许构建 DAO,让人类选民控制方向,但他们不会被过多的决策所困扰。它们达到了折衷,每个人不必做出 N 个决定,但他们拥有的权力不仅仅是做出一个决定(委托通常如何运作),而且更能引发难以直接表达的丰富偏好。
此外,这样的机制似乎具有激励平滑特性。我在这里所说的「激励平滑」是两个因素的组合:
这里的混淆和扩散这两个术语取自密码学,它们是密码和哈希函数安全的关键属性。
当今现实世界中激励平滑的一个很好的例子是法治:政府高层不会定期采取「给爱丽丝的公司 2 亿美元」、「罚款鲍勃的公司 1 亿美元」等形式的行动,而是通过旨在均匀应用于大量参与者的规则,然后由另一类参与者进行解释。当这种方法奏效时,好处是它大大减少了贿赂和其他形式腐败的好处。当它被违反时(在实践中经常发生),这些问题很快就会被大大放大。
AI 显然将成为未来的重要组成部分,这将不可避免地成为未来治理的重要组成部分。但是,如果你让 AI 参与治理,这有明显的风险:AI 有偏见,它可能在训练过程中被故意破坏,而且 AI 技术发展如此之快,「让 AI 掌权」可能实际上意味着「让负责升级 AI 的人掌权」。蒸馏的人类判断提供了一条前进的替代道路,让我们能够以开放的自由市场方式利用 AI 的力量,同时保持人类控制的民主。
特别感谢 Devansh Mehta、Davide Crapis 和 Julian Zawistowski 的反馈和审查,以及 Tina Zhen、Shaw Walters 和其他人的讨论。