Trong nhiều trường hợp khác nhau, một cách tiếp cận khác được khám phá là biến một cơ chế đơn giản trở thành quy tắc trò chơi và cho phép AI trở thành người chơi.
Vai trò của AI như động cơ, con người như bánh lái
Viết bởi: Vitalik, người sáng lập Ethereum
Biên soạn: Bạch Thủy, Kinh tế màu vàng
Nếu bạn hỏi mọi người những khía cạnh nào của cấu trúc dân chủ mà họ thích, cho dù đó là chính phủ, nơi làm việc hay DAO dựa trên blockchain, bạn sẽ thường nghe thấy những lập luận tương tự: họ tránh tập trung quyền lực, họ cung cấp cho người dùng sự đảm bảo mạnh mẽ rằng không ai có thể thay đổi hoàn toàn hướng đi của hệ thống theo ý muốn và họ có thể đưa ra quyết định chất lượng cao hơn bằng cách thu thập quan điểm và trí tuệ của nhiều người.
Nếu bạn hỏi mọi người những gì họ không thích về cấu trúc dân chủ, họ thường đưa ra những lời phàn nàn tương tự: cử tri trung bình không đủ tinh vi vì mỗi cử tri chỉ có một cơ hội nhỏ để ảnh hưởng đến kết quả, rất ít cử tri đưa suy nghĩ chất lượng vào việc ra quyết định của họ và bạn thường nhận được sự tham gia thấp (làm cho hệ thống dễ bị tấn công) hoặc tập trung hóa trên thực tế vì mọi người mặc định tin tưởng và sao chép quan điểm của một số người có ảnh hưởng.
Mục tiêu của bài viết này là khám phá một mô hình mà có lẽ AI có thể được sử dụng để cho phép chúng ta hưởng lợi từ các cấu trúc dân chủ mà không có tác động tiêu cực. "AI là động cơ, con người là vô lăng". Con người chỉ cung cấp một lượng nhỏ thông tin cho hệ thống, có lẽ chỉ vài trăm, nhưng tất cả đều được suy nghĩ kỹ lưỡng và có chất lượng cực kỳ cao. AI coi dữ liệu này là một "chức năng khách quan" và làm việc không mệt mỏi để đưa ra nhiều quyết định nhằm cố gắng hết sức để đạt được những mục tiêu này. Đặc biệt, bài viết này sẽ khám phá một câu hỏi thú vị: Chúng ta có thể làm điều này mà không cần đặt một AI duy nhất vào trung tâm, mà thay vào đó dựa vào một thị trường mở cạnh tranh, trong đó bất kỳ AI nào (hoặc lai giữa người và máy) đều có thể tự do tham gia?
Mục lục
Tại sao không để một AI trực tiếp đảm đương?
Futarchy
Lực lượng suy đoán của con người
Quỹ tiền sâu (Quỹ tiền sâu)
Tăng quyền riêng tư
Lợi ích của thiết kế động cơ + vô lăng
Tại sao không để một trí tuệ nhân tạo đảm nhận trực tiếp?
Cách đơn giản nhất để tích hợp sở thích của con người vào cơ chế dựa trên trí tuệ nhân tạo là tạo một mô hình trí tuệ nhân tạo và yêu cầu con người nhập sở thích của họ vào mô hình theo một cách nào đó. Có cách đơn giản để làm điều này: bạn chỉ cần đặt tệp văn bản chứa danh sách chỉ thị của con người vào lời nhắc hệ thống. Sau đó, bạn có thể sử dụng một trong nhiều "khung trí tuệ nhân tạo đại diện" để cấp quyền truy cập Internet cho trí tuệ nhân tạo, trao cho nó khóa của tài sản và hồ sơ truyền thông xã hội của tổ chức bạn, và bạn đã hoàn thành việc lớn lao.
Sau một số lần cập nhật, điều này có thể đủ để đáp ứng nhu cầu của nhiều trường hợp sử dụng, tôi hoàn toàn dự đoán trong tương lai gần, chúng ta sẽ thấy nhiều cấu trúc liên quan đến AI đọc nhóm cung cấp hướng dẫn (thậm chí là đọc nhóm trò chuyện trực tiếp) và thực hiện hành động.
Cấu trúc này không lý tưởng như một cơ chế quản trị như một thể chế dài hạn. Một thuộc tính có giá trị mà một tổ chức dài hạn nên sở hữu là uy tín và tính trung lập. Trong bài viết giới thiệu khái niệm này, tôi đã liệt kê bốn thuộc tính có giá trị của tính trung lập đáng tin cậy:
Không viết một người cụ thể hoặc một kết quả cụ thể vào cơ chế
Thực thi mã nguồn mở và có thể xác minh công khai
Giữ đơn giản
Không thay đổi thường xuyên
LLM (hoặc đại lý AI) đạt 0/4. Mô hình này không thể tránh khỏi việc mã hóa một lượng lớn sở thích cụ thể của con người và kết quả trong quá trình đào tạo của nó. Đôi khi điều này có thể dẫn đến sở thích của AI theo một hướng bất ngờ, chẳng hạn như một nghiên cứu gần đây đã chỉ ra rằng LLM chính ưu tiên cuộc sống tại Pakistan hơn là cuộc sống tại Mỹ (!!). Nó có thể là trọng số mở, nhưng không phải mã nguồn mở; chúng ta thực sự không biết điều gì đang ẩn sau cùng của mô hình. Nó ngược lại với sự đơn giản: độ phức tạp Kolmogorov của LLM lên đến hàng tỷ bit, tương đương khoảng tổng số luật pháp của Mỹ (liên bang + bang + địa phương). Và do sự phát triển nhanh chóng của AI, bạn phải thay đổi mỗi ba tháng một lần.
Vì lý do này, tôi ủng hộ một cách tiếp cận khác được khám phá trong nhiều trường hợp là để một cơ chế đơn giản trở thành quy tắc trò chơi, để cho trí tuệ nhân tạo trở thành người chơi. Chính sự sáng tạo này khiến thị trường trở nên hiệu quả như vậy: quy tắc là một hệ thống quyền sở hữu tương đối ngu ngố, các trường hợp biên giới được tòa án quyết định, hệ thống này chậm rãi tích lũy và điều chỉnh tiền lệ, và tất cả thông tin đều đến từ các doanh nhân hoạt động "tại biên giới".
!
Một "người chơi game" có thể là LLM đơn lẻ, một nhóm LLM tương tác và gọi các dịch vụ internet khác nhau, các kết hợp AI + con người và nhiều cấu trúc khác; Như một nhà thiết kế cơ chế, bạn không cần phải biết. Mục tiêu lý tưởng là có một cơ chế có thể hoạt động tự động - nếu mục tiêu của cơ chế đó là chọn tài trợ cho điều gì, thì nó nên được thiết lập sao cho giống như phần thưởng khối Bitcoin hoặc Ethereum càng nhiều càng tốt.
Lợi ích của phương pháp này là:
Nó tránh việc đưa bất kỳ mô hình đơn lẻ nào vào cơ chế; thay vào đó, bạn sẽ nhận được một thị trường mở bao gồm nhiều bên tham gia và kiến trúc khác nhau, mỗi bên đều có định kiến riêng. Mô hình mở, mô hình đóng, đám đông đại lý, sự kết hợp con người + AI, robot, khỉ vô tận và nhiều hơn nữa đều là trò chơi công bằng; cơ chế này sẽ không kỳ thị ai.
Cơ chế là mã nguồn mở. Trong khi người chơi thì không, trò chơi là mã nguồn mở - và đó là một mô hình đã được hiểu khá rõ (ví dụ: các đảng chính trị và thị trường đều hoạt động theo cách này)
Cơ chế này rất đơn giản, vì vậy nhà thiết kế cơ chế sẽ có ít hơn các phương pháp mã hóa định kiến của họ vào thiết kế
Cơ chế này sẽ không thay đổi, ngay cả từ bây giờ đến khi Điểm kỳ diệu, kiến trúc dành cho các bên tham gia cơ bản cần phải được thiết kế lại mỗi ba tháng một lần.
Mục tiêu của cơ chế hướng dẫn là minh bạch phản ánh trung thực mục tiêu cốt lõi của người tham gia. Nó chỉ cần cung cấp một lượng thông tin nhỏ nhưng phải là thông tin chất lượng cao.
Bạn có thể nghĩ rằng cơ chế này tận dụng sự không đối xứng giữa việc đưa ra và xác minh câu trả lời. Điều này tương tự như việc giải Sudoku rất khó, nhưng rất dễ xác minh xem giải pháp có đúng hay không. Bạn (i) tạo một thị trường mở, mời người chơi đóng vai trò "người giải quyết vấn đề", sau đó (ii) duy trì một cơ chế do con người vận hành, thực hiện nhiệm vụ xác minh các giải pháp được đưa ra dễ dàng hơn nhiều.
Futarchy
Futarchy ban đầu được đề xuất bởi Robin Hanson và có nghĩa là "bỏ phiếu cho giá trị, nhưng đặt cược cho đức tin". Cơ chế bỏ phiếu chọn một tập hợp các mục tiêu (có thể là bất kỳ, nhưng chỉ khi chúng phải đo lường được) và sau đó kết hợp chúng thành một số liệu M. Khi bạn cần đưa ra quyết định (giả sử CÓ / KHÔNG để đơn giản), bạn đặt thị trường có điều kiện: bạn yêu cầu mọi người đặt cược vào việc (i) sẽ chọn CÓ hay KHÔNG, (ii) nếu bạn chọn CÓ, giá trị của M, nếu không bằng không, (iii) Giá trị của M nếu NO được chọn, nếu không thì nó bằng không. Với ba biến số này, bạn có thể xác định xem thị trường nghĩ rằng CÓ hay KHÔNG thuận lợi hơn cho giá trị của M.
"Giá cổ phiếu công ty" (hoặc, trong trường hợp tiền điện tử, giá mã thông báo) là số liệu được trích dẫn phổ biến nhất vì nó dễ hiểu và đo lường, nhưng cơ chế này có thể hỗ trợ nhiều số liệu khác nhau: người dùng hoạt động hàng tháng, hạnh phúc tự báo cáo trung bình cho một số nhóm nhất định, một số số liệu phi tập trung có thể định lượng, v.v.
Futarchy ban đầu được phát minh trước thời đại trí tuệ nhân tạo. Tuy nhiên, Futarchy hợp lý với mô hình “bộ giải quyết phức tạp, bộ xác minh đơn giản” được mô tả trong phần trước và các nhà giao dịch trong Futarchy cũng có thể là trí tuệ nhân tạo (hoặc kết hợp giữa con người và trí tuệ nhân tạo). Vai trò của “bộ giải quyết” (nhà giao dịch thị trường dự đoán) là xác định mỗi kế hoạch đề xuất sẽ ảnh hưởng như thế nào đến giá trị của các chỉ số trong tương lai. Điều này khá khó khăn. Nếu bộ giải quyết đúng, họ sẽ kiếm tiền, nếu bộ giải quyết sai, họ sẽ mất tiền. Bộ xác minh (những người bỏ phiếu cho các chỉ số, nếu họ nhận ra chỉ số bị “thao túng” hoặc trở nên lỗi thời, họ sẽ điều chỉnh chỉ số và xác định giá trị thực tế của chỉ số tại một thời điểm trong tương lai) chỉ cần trả lời một câu hỏi đơn giản hơn “giá trị hiện tại của chỉ số là bao nhiêu?”
Sức mạnh suy luận của con người
Quyết định của con người là một loại cơ chế, nguyên tắc hoạt động của nó như sau. Có rất nhiều (tưởng tượng: 100 万个) vấn đề cần phải trả lời. Ví dụ tự nhiên bao gồm:
Mỗi người trong danh sách này nên nhận được bao nhiêu vinh dự cho đóng góp vào một dự án hoặc nhiệm vụ?
Những bình luận nào vi phạm các quy định của nền tảng truyền thông xã hội (hoặc cộng đồng con)?
Những địa chỉ Ethereum cụ thể này đại diện cho người thực và duy nhất nào?
Các đối tượng vật lý này đóng góp tích cực hoặc tiêu cực cho mỹ thuật của môi trường của chúng như thế nào?
Bạn có một nhóm có thể trả lời những câu hỏi này, nhưng với chi phí dành rất nhiều nỗ lực cho mỗi câu trả lời. Bạn chỉ yêu cầu nhóm trả lời một vài câu hỏi (ví dụ: nếu có 1 triệu mục trong tổng danh sách, nhóm chỉ có thể trả lời 100 câu hỏi trong số đó). Bạn thậm chí có thể hỏi nhóm một câu hỏi gián tiếp: Đừng hỏi, "Cô ấy nên nhận được bao nhiêu phần trăm tổng số tín dụng của Alice?" thay vào đó, hãy hỏi, "Alice hay Bob có nên nhận được nhiều tín dụng hơn không, và bao nhiêu?" Khi thiết kế cơ chế bồi thẩm đoàn, bạn có thể sử dụng lại các cơ chế đã thử và đúng trong thế giới thực, chẳng hạn như ủy ban tài trợ, tòa án (để xác định giá trị của bản án), đánh giá và tất nhiên, chính những người tham gia bồi thẩm đoàn có thể sử dụng các công cụ nghiên cứu AI mới để giúp họ tìm ra câu trả lời.
Sau đó, bạn cho phép bất kỳ ai gửi danh sách các câu trả lời bằng số cho toàn bộ bộ câu hỏi (ví dụ: cung cấp ước tính số tiền mà mỗi người tham gia sẽ nhận được cho toàn bộ danh sách). Những người tham gia được khuyến khích sử dụng trí tuệ nhân tạo để hoàn thành nhiệm vụ này, nhưng họ có thể sử dụng bất kỳ công nghệ nào: trí tuệ nhân tạo, lai giữa người và máy, trí tuệ nhân tạo có quyền truy cập vào các tìm kiếm trên internet và có thể tự động thuê người khác hoặc nhân viên trí tuệ nhân tạo, khỉ tăng cường điều khiển học, v.v.
Khi cả người cung cấp danh sách đầy đủ và ban giám khảo đều đã nộp đáp án, danh sách đầy đủ sẽ được kiểm tra dựa trên các đáp án của ban giám khảo, và một sự kết hợp nào đó của danh sách đầy đủ tương thích nhất với các đáp án của ban giám khảo sẽ được chọn làm đáp án cuối cùng.
Cơ chế đánh giá của con người dựa trên sự lọc và futarchy khác nhau, nhưng có một số điểm tương đồng quan trọng:
Trong futarchy, "Dự đoán viên" sẽ thực hiện dự đoán và "Dữ liệu thực" mà dự đoán của họ dựa vào (được sử dụng để thưởng hoặc phạt dự đoán viên) là máy oracles đầu ra chỉ số, chạy bởi hội đồng xét xử.
Trong phán đoán chắt lọc của con người, "người giải quyết" cung cấp câu trả lời cho một số lượng lớn các câu hỏi và "dữ liệu thực" mà dự đoán của họ dựa trên là câu trả lời chất lượng cao cho một phần nhỏ các câu hỏi do bồi thẩm đoàn cung cấp.
Mẫu đồ chơi qui định sự phân bổ tín dụng dựa trên sự đánh giá của con người, vui lòng xem mã Python tại đây. Tập lệnh yêu cầu bạn làm vai trò của hội đồng xét xử và bao gồm một số danh sách đầy đủ trước đó chứa trong mã AI (và con người). Cơ chế này nhận dạng tổ hợp tuyến tính của danh sách đầy đủ phù hợp nhất với câu trả lời của hội đồng xét xử. Trong trường hợp này, tổ hợp chiến thắng là 0,199 * câu trả lời của Claude + 0,801 * câu trả lời của Deepseek; tổ hợp này phù hợp hơn với câu trả lời của hội đồng xét xử hơn bất kỳ mô hình đơn lẻ nào. Các hệ số này cũng sẽ là phần thưởng dành cho người gửi.
Trong ví dụ 'đánh bại Sauron' này, khía cạnh 'con người làm bánh lái' được thể hiện ở hai nơi. Đầu tiên, mỗi vấn đề đều được đánh giá bằng sự phán đoán của con người chất lượng cao, mặc dù vẫn sử dụng ban giám đốc như một 'quan chức kỹ thuật' đánh giá hiệu suất. Thứ hai, có một cơ chế bỏ phiếu ngầm, quyết định xem 'đánh bại Sauron' có phải là mục tiêu đúng đắn hay không (thay vì, ví dụ, cố gắng liên minh với Sauron, hoặc nhượng tất cả lãnh thổ về phía đông của một con sông quan trọng cho anh ấy như một sự nhượng bộ hòa bình). Cũng có các trường hợp ứng dụng phán đoán của con người được lọc khác, trong đó nhiệm vụ của ban giám đốc có mối liên hệ trực tiếp với giá trị: ví dụ, hãy tưởng tượng một nền tảng truyền thông xã hội phân tán (hoặc cộng đồng con), nhiệm vụ của ban giám đốc là đánh dấu các bài đăng diễn đàn được chọn ngẫu nhiên là tuân thủ hoặc không tuân thủ các quy tắc cộng đồng.
Trong mô hình đánh giá con người, có một số biến số mở:
Việc lấy mẫu được tiến hành như thế nào? Vai trò của người gửi danh sách đầy đủ là cung cấp một số lượng lớn các câu trả lời; Vai trò của bồi thẩm đoàn là cung cấp câu trả lời chất lượng cao. Chúng ta cần chọn bồi thẩm đoàn theo cách mà khả năng của mô hình phù hợp với câu trả lời của bồi thẩm đoàn là dấu hiệu lớn nhất về hiệu suất tổng thể của nó. Một số cân nhắc bao gồm:
Sự đánh đổi giữa chuyên môn và thành kiến: Các bồi thẩm viên lành nghề thường chuyên về lĩnh vực chuyên môn của họ, vì vậy hãy để họ chọn những gì để đánh giá và bạn sẽ nhận được đầu vào chất lượng cao hơn. Mặt khác, quá nhiều lựa chọn có thể dẫn đến sự thiên vị (bồi thẩm đoàn ủng hộ nội dung từ những người họ liên kết) hoặc điểm yếu trong việc lấy mẫu (một số nội dung không được xếp hạng một cách có hệ thống)
Phản đối Geuthardt: Sẽ có nội dung cố gắng "chơi bẩn" cơ chế trí tuệ nhân tạo, ví dụ, người đóng góp tạo ra một lượng lớn mã không hữu ích nhưng trông ấn tượng. Điều này có nghĩa là ban giám khảo có thể phát hiện ra điều này, nhưng các mô hình trí tuệ nhân tạo tĩnh chỉ sẽ không phát hiện ra trừ khi họ cố gắng. Một cách có thể bắt giữ hành vi này là thêm một cơ chế thách thức, thông qua đó, cá nhân có thể đánh dấu những nỗ lực như vậy để đảm bảo ban giám khảo đánh giá chúng (từ đó, khích lệ các nhà phát triển trí tuệ nhân tạo đảm bảo chúng được bắt đúng). Nếu ban giám khảo đồng ý, người báo cáo sẽ nhận được phần thưởng, nếu ban giám khảo không đồng ý, họ sẽ phải trả tiền phạt.
Bạn sử dụng hàm điểm nào? Một ý tưởng được sử dụng trong dự án thử nghiệm hỗ trợ sâu là hỏi bồi thẩm đốc viên "A hay B nên được công nhận nhiều hơn, và bao nhiêu?". Hàm điểm là score(x) = sum((log(x[B]) - log(x[A]) - log(juror_ratio)) ** 2 cho (A, B, juror_ratio) trong jury_answers): Nói cách khác, đối với mỗi câu trả lời của bồi thẩm đốc viên, nó sẽ tính khoảng cách giữa tỷ lệ trong danh sách đầy đủ và tỷ lệ mà bồi thẩm đốc viên cung cấp, và thêm phạt tỷ lệ với bình phương khoảng cách (trong không gian logarithm). Điều này cho thấy không gian thiết kế của hàm điểm rất phong phú, và sự lựa chọn hàm điểm phụ thuộc vào việc bạn chọn câu hỏi nào đưa ra cho bồi thẩm đốc viên.
Làm thế nào để bạn thưởng cho người nộp danh sách đầy đủ? Trong trường hợp lý tưởng, bạn muốn thường xuyên thưởng cho nhiều người tham gia mà không phải là số không, để tránh cơ chế độc quyền, nhưng bạn cũng muốn đáp ứng các thuộc tính sau: Người tham gia không thể tăng phần thưởng bằng cách nộp nhiều lần các bộ câu trả lời giống nhau (hoặc có sự thay đổi nhỏ). Một phương pháp hi vọng là tính toán trực tiếp tổ hợp tuyến tính của danh sách đầy đủ tốt nhất cho hội đồng xét xử (hệ số không âm và tổng cộng là 1), và sử dụng các hệ số giống nhau này để chia phần thưởng. Cũng có thể có các phương pháp khác.
Nhìn chung, mục tiêu là áp dụng các cơ chế đánh giá con người đã biết hiệu quả, giảm thiểu thành kiến và đã qua thời gian kiểm chứng (ví dụ, hãy tưởng tượng cấu trúc đối đầu của hệ thống tòa án bao gồm hai bên tranh cãi, họ có nhiều thông tin nhưng có thành kiến, trong khi thẩm phán chỉ có ít thông tin nhưng có thể không có thành kiến), và sử dụng thị trường trí tuệ nhân tạo mở như một chỉ số dự báo hợp lý, chính xác và chi phí rất thấp cho các cơ chế này (tương tự cách mà mô hình tiên đoán lớn "chưng cất" hoạt động).
深度融资(deep funding)
Tài chính sâu là áp dụng phán đoán chưng cất của con người để điền vào câu hỏi "Bao nhiêu phần trăm tín dụng của X thuộc về Y?" Bài toán trọng số ở đầu biểu đồ.
Cách đơn giản nhất là sử dụng một ví dụ cụ thể:
Đầu ra của ví dụ vốn sâu hai cấp: nguồn gốc tư duy của Ethereum. Vui lòng xem mã Python tại đây.
Mục tiêu ở đây là phân phối vinh dự cho các đóng góp triết học vào Ethereum. Hãy xem một ví dụ:
Vòng tài trợ sâu mô phỏng được hiển thị ở đây mang lại 20,5% tín dụng cho phong trào cypherpunk và 9,2% cho chủ nghĩa tiến bộ công nghệ.
Trong mỗi nút, bạn sẽ đặt ra một câu hỏi: Đến đâu là đóng góp ban đầu (vì vậy nó xứng đáng để đạt được công lao của chính mình), đến đâu là sự tái kết hợp của ảnh hưởng nguồn gốc khác? Đối với phong trào hacker, có 40% là mới, 60% là phụ thuộc.
Sau đó, bạn có thể xem xét tác động của các nút này: Chủ nghĩa tự do và vô chính phủ đã đóng góp 17.3% vào phong trào hacker mật mã, nhưng dân chủ trực tiếp của Thụy Sĩ chỉ đạt được 5%.
Tuy nhiên, hãy chú ý rằng, chỉnh phụ nhỏ chủ nghị tự do và chết chỉ hợp cũng đã truyền cảm cho triết lý tiền ảo Bitcoin, do đó nó ảnh hướng đến triết lý của Ethereum qua hai con đường.
Để tính tổng số cổ phần đóng góp của chủ nghĩa tự do nhỏ và vô chính phủ đối với Ethereum, bạn cần nhân các cạnh trên mỗi đường đi, sau đó cộng các đường đi lại với nhau: 0.205 * 0.6 * 0.173 + 0.195 * 0.648 * 0.201 ≈ 0.0466. Do đó, nếu bạn cần quyên góp 100 đô la để thưởng cho tất cả những người đã đóng góp cho triết học của Ethereum, dựa trên vòng tài trợ sâu này, người theo chủ nghĩa tự do nhỏ và vô chính phủ sẽ nhận được 4.66 đô la.
Phương pháp này được thiết kế để áp dụng cho những lĩnh vực đã có cấu trúc rõ ràng cao, và đang làm việc trên cơ sở công việc trước đó. Các ví dụ tự nhiên là giới học thuật (nghĩ đến: trích dẫn hình ảnh) và phần mềm mã nguồn mở (nghĩ đến: sự phụ thuộc thư viện và fork).
Một mục tiêu của hệ thống tài trợ sâu hoạt động tốt là tạo và duy trì một đồ thị toàn cầu, nơi mà bất kỳ nhà tài trợ nào quan tâm đến việc hỗ trợ dự án cụ thể có thể gửi tiền vào địa chỉ đại diện cho nút đó, tiền sẽ tự động lan truyền theo trọng số của cạnh đồ thị đến các phần phụ thuộc của nó (và đệ quy đến các phần phụ thuộc của chúng và cứ tiếp tục như vậy).
Bạn có thể tưởng tượng một giao thức phi tập trung sử dụng thiết bị tài trợ sâu tích hợp để phát hành mã thông báo của nó: quản trị phi tập trung trong giao thức sẽ chọn một bồi thẩm đoàn, sẽ điều hành cơ chế tài trợ sâu, vì giao thức tự động phát hành mã thông báo và gửi chúng vào các nút tương ứng với chính nó. Bằng cách đó, giao thức thưởng theo chương trình cho tất cả những người đóng góp trực tiếp và gián tiếp, gợi nhớ đến cách phần thưởng khối Bitcoin hoặc Ethereum thưởng cho một loại người đóng góp cụ thể (thợ mỏ). Bằng cách ảnh hưởng đến trọng lượng của các cạnh, ban giám khảo có thể liên tục xác định loại đóng góp mà nó đánh giá. Cơ chế này có thể phục vụ như một giải pháp thay thế phi tập trung và bền vững lâu dài cho việc khai thác, bán hoặc airdrop một lần.
Tăng cường quyền riêng tư
Thường thì, để đưa ra nhận định chính xác về vấn đề trong ví dụ trên, cần phải có thể truy cập thông tin riêng tư: bản ghi trò chuyện nội bộ của tổ chức, thông tin được gửi bí mật từ thành viên cộng đồng, v.v. Một lợi ích của việc "chỉ sử dụng một AI duy nhất", đặc biệt là trong môi trường quy mô nhỏ, là việc cho một AI truy cập thông tin dễ dàng hơn là công khai thông tin cho tất cả mọi người.
Để giúp việc đánh giá hoặc tài trợ sâu hơn trong những tình huống này, chúng ta có thể thử sử dụng công nghệ mật mã để cho phép trí tuệ nhân tạo truy cập thông tin cá nhân một cách an toàn. Ý tưởng này là sử dụng tính toán đa bên (MPC), mật mã toàn phần (FHE), môi trường thực thi đáng tin cậy (TEE) hoặc cơ chế tương tự để cung cấp thông tin cá nhân, nhưng chỉ khi đầu ra duy nhất của nó được đưa trực tiếp vào cơ chế 'Gửi danh sách đầy đủ'.
Nếu bạn làm như vậy, bạn sẽ phải giới hạn bộ cơ chế thành mô hình AI (thay vì kết hợp con người hoặc AI + con người, vì bạn không thể cho phép con người nhìn thấy dữ liệu), và cụ thể cho các mô hình chạy trên một số cơ sở cụ thể (ví dụ như MPC, FHE, phần cứng đáng tin cậy). Một hướng nghiên cứu chính là tìm ra phiên bản thực tế đủ hiệu quả và có ý nghĩa gần đây.
Ưu điểm của thiết kế động cơ + vô lăng
Thiết kế như vậy mang lại nhiều lợi ích đáng mong đợi. Đến nay, lợi ích quan trọng nhất là chúng cho phép xây dựng DAO, nơi mà người cử tri con người kiểm soát hướng đi, nhưng họ không bị quá tải bởi quá nhiều quyết định. Chúng đạt được sự cân nhắc, mọi người không cần phải đưa ra N quyết định, nhưng quyền họ sở hữu không chỉ đơn thuần là quyết định một điều (thường là cách mà sự ủy quyền hoạt động), mà còn có thể kích hoạt những sở thích phong phú khó diễn đạt trực tiếp.
Ngoài ra, cơ chế như vậy dường như có tính chất kích thích mịn. Khi tôi nói về "kích thích mịn" ở đây, đó là sự kết hợp của hai yếu tố:
Phổ biến: Bất kỳ hành động đơn lẻ nào được thực hiện bởi cơ chế bỏ phiếu sẽ không có tác động không cân xứng đến lợi ích của bất kỳ người tham gia nào.
Nhầm lẫn: Mối liên hệ giữa các quyết định bỏ phiếu và cách chúng ảnh hưởng đến lợi ích của người tham gia phức tạp và khó tính toán hơn.
Cụm từ 'sự lẫn lộn' và 'sự lan truyền' ở đây đều xuất phát từ mật mã học, chúng là những đặc tính then chốt của an toàn mật mã và hàm băm.
Một ví dụ tốt về sự khích lệ mịn màng trong thế giới thực hiện ngày nay là luật pháp: các cấp cao của chính phủ không thường xuyên thực hiện hành động dưới dạng "cho công ty của Alice 2 tỷ USD", "phạt công ty của Bob 1 tỷ USD", mà thay vào đó thông qua các quy tắc được thiết lập nhằm áp dụng đồng đều cho một số lượng lớn người tham gia, sau đó được giải thích bởi một loại người tham gia khác. Khi phương pháp này phát huy tác dụng, lợi ích đó là giảm đáng kể việc tham nhũng và các hình thức tham nhũng khác. Khi bị vi phạm (thường xảy ra trong thực tế), những vấn đề này sẽ nhanh chóng được phóng to rõ rệt.
AI rõ ràng sẽ là một phần quan trọng của tương lai, và nó chắc chắn sẽ trở thành một phần quan trọng của quản trị trong tương lai. Tuy nhiên, nếu bạn liên quan đến AI trong quản trị, có những rủi ro rõ ràng: AI thiên vị, nó có thể bị cố tình làm suy yếu trong quá trình đào tạo và công nghệ AI đang phát triển nhanh đến mức "đưa AI lên nắm quyền" thực sự có thể có nghĩa là "chịu trách nhiệm nâng cấp AI". Phán đoán chắt lọc của con người cung cấp một con đường thay thế về phía trước, cho phép chúng ta khai thác sức mạnh của AI theo cách mở, thị trường tự do trong khi vẫn duy trì nền dân chủ do con người kiểm soát.
Đặc biệt cảm ơn Devansh Mehta, Davide Crapis và Julian Zawistowski vì phản hồi và đánh giá của họ, cũng như Tina Zhen, Shaw Walters và những người khác vì các cuộc thảo luận của họ.
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Vitalik bài viết mới: "Mô hình quản trị tương lai: 'Bộ não AI + Vô lăng con người'"
Vai trò của AI như động cơ, con người như bánh lái
Viết bởi: Vitalik, người sáng lập Ethereum
Biên soạn: Bạch Thủy, Kinh tế màu vàng
Nếu bạn hỏi mọi người những khía cạnh nào của cấu trúc dân chủ mà họ thích, cho dù đó là chính phủ, nơi làm việc hay DAO dựa trên blockchain, bạn sẽ thường nghe thấy những lập luận tương tự: họ tránh tập trung quyền lực, họ cung cấp cho người dùng sự đảm bảo mạnh mẽ rằng không ai có thể thay đổi hoàn toàn hướng đi của hệ thống theo ý muốn và họ có thể đưa ra quyết định chất lượng cao hơn bằng cách thu thập quan điểm và trí tuệ của nhiều người.
Nếu bạn hỏi mọi người những gì họ không thích về cấu trúc dân chủ, họ thường đưa ra những lời phàn nàn tương tự: cử tri trung bình không đủ tinh vi vì mỗi cử tri chỉ có một cơ hội nhỏ để ảnh hưởng đến kết quả, rất ít cử tri đưa suy nghĩ chất lượng vào việc ra quyết định của họ và bạn thường nhận được sự tham gia thấp (làm cho hệ thống dễ bị tấn công) hoặc tập trung hóa trên thực tế vì mọi người mặc định tin tưởng và sao chép quan điểm của một số người có ảnh hưởng.
Mục tiêu của bài viết này là khám phá một mô hình mà có lẽ AI có thể được sử dụng để cho phép chúng ta hưởng lợi từ các cấu trúc dân chủ mà không có tác động tiêu cực. "AI là động cơ, con người là vô lăng". Con người chỉ cung cấp một lượng nhỏ thông tin cho hệ thống, có lẽ chỉ vài trăm, nhưng tất cả đều được suy nghĩ kỹ lưỡng và có chất lượng cực kỳ cao. AI coi dữ liệu này là một "chức năng khách quan" và làm việc không mệt mỏi để đưa ra nhiều quyết định nhằm cố gắng hết sức để đạt được những mục tiêu này. Đặc biệt, bài viết này sẽ khám phá một câu hỏi thú vị: Chúng ta có thể làm điều này mà không cần đặt một AI duy nhất vào trung tâm, mà thay vào đó dựa vào một thị trường mở cạnh tranh, trong đó bất kỳ AI nào (hoặc lai giữa người và máy) đều có thể tự do tham gia?
Mục lục
Tại sao không để một trí tuệ nhân tạo đảm nhận trực tiếp?
Cách đơn giản nhất để tích hợp sở thích của con người vào cơ chế dựa trên trí tuệ nhân tạo là tạo một mô hình trí tuệ nhân tạo và yêu cầu con người nhập sở thích của họ vào mô hình theo một cách nào đó. Có cách đơn giản để làm điều này: bạn chỉ cần đặt tệp văn bản chứa danh sách chỉ thị của con người vào lời nhắc hệ thống. Sau đó, bạn có thể sử dụng một trong nhiều "khung trí tuệ nhân tạo đại diện" để cấp quyền truy cập Internet cho trí tuệ nhân tạo, trao cho nó khóa của tài sản và hồ sơ truyền thông xã hội của tổ chức bạn, và bạn đã hoàn thành việc lớn lao.
Sau một số lần cập nhật, điều này có thể đủ để đáp ứng nhu cầu của nhiều trường hợp sử dụng, tôi hoàn toàn dự đoán trong tương lai gần, chúng ta sẽ thấy nhiều cấu trúc liên quan đến AI đọc nhóm cung cấp hướng dẫn (thậm chí là đọc nhóm trò chuyện trực tiếp) và thực hiện hành động.
Cấu trúc này không lý tưởng như một cơ chế quản trị như một thể chế dài hạn. Một thuộc tính có giá trị mà một tổ chức dài hạn nên sở hữu là uy tín và tính trung lập. Trong bài viết giới thiệu khái niệm này, tôi đã liệt kê bốn thuộc tính có giá trị của tính trung lập đáng tin cậy:
LLM (hoặc đại lý AI) đạt 0/4. Mô hình này không thể tránh khỏi việc mã hóa một lượng lớn sở thích cụ thể của con người và kết quả trong quá trình đào tạo của nó. Đôi khi điều này có thể dẫn đến sở thích của AI theo một hướng bất ngờ, chẳng hạn như một nghiên cứu gần đây đã chỉ ra rằng LLM chính ưu tiên cuộc sống tại Pakistan hơn là cuộc sống tại Mỹ (!!). Nó có thể là trọng số mở, nhưng không phải mã nguồn mở; chúng ta thực sự không biết điều gì đang ẩn sau cùng của mô hình. Nó ngược lại với sự đơn giản: độ phức tạp Kolmogorov của LLM lên đến hàng tỷ bit, tương đương khoảng tổng số luật pháp của Mỹ (liên bang + bang + địa phương). Và do sự phát triển nhanh chóng của AI, bạn phải thay đổi mỗi ba tháng một lần.
Vì lý do này, tôi ủng hộ một cách tiếp cận khác được khám phá trong nhiều trường hợp là để một cơ chế đơn giản trở thành quy tắc trò chơi, để cho trí tuệ nhân tạo trở thành người chơi. Chính sự sáng tạo này khiến thị trường trở nên hiệu quả như vậy: quy tắc là một hệ thống quyền sở hữu tương đối ngu ngố, các trường hợp biên giới được tòa án quyết định, hệ thống này chậm rãi tích lũy và điều chỉnh tiền lệ, và tất cả thông tin đều đến từ các doanh nhân hoạt động "tại biên giới".
!
Một "người chơi game" có thể là LLM đơn lẻ, một nhóm LLM tương tác và gọi các dịch vụ internet khác nhau, các kết hợp AI + con người và nhiều cấu trúc khác; Như một nhà thiết kế cơ chế, bạn không cần phải biết. Mục tiêu lý tưởng là có một cơ chế có thể hoạt động tự động - nếu mục tiêu của cơ chế đó là chọn tài trợ cho điều gì, thì nó nên được thiết lập sao cho giống như phần thưởng khối Bitcoin hoặc Ethereum càng nhiều càng tốt.
Lợi ích của phương pháp này là:
Mục tiêu của cơ chế hướng dẫn là minh bạch phản ánh trung thực mục tiêu cốt lõi của người tham gia. Nó chỉ cần cung cấp một lượng thông tin nhỏ nhưng phải là thông tin chất lượng cao.
Bạn có thể nghĩ rằng cơ chế này tận dụng sự không đối xứng giữa việc đưa ra và xác minh câu trả lời. Điều này tương tự như việc giải Sudoku rất khó, nhưng rất dễ xác minh xem giải pháp có đúng hay không. Bạn (i) tạo một thị trường mở, mời người chơi đóng vai trò "người giải quyết vấn đề", sau đó (ii) duy trì một cơ chế do con người vận hành, thực hiện nhiệm vụ xác minh các giải pháp được đưa ra dễ dàng hơn nhiều.
Futarchy
Futarchy ban đầu được đề xuất bởi Robin Hanson và có nghĩa là "bỏ phiếu cho giá trị, nhưng đặt cược cho đức tin". Cơ chế bỏ phiếu chọn một tập hợp các mục tiêu (có thể là bất kỳ, nhưng chỉ khi chúng phải đo lường được) và sau đó kết hợp chúng thành một số liệu M. Khi bạn cần đưa ra quyết định (giả sử CÓ / KHÔNG để đơn giản), bạn đặt thị trường có điều kiện: bạn yêu cầu mọi người đặt cược vào việc (i) sẽ chọn CÓ hay KHÔNG, (ii) nếu bạn chọn CÓ, giá trị của M, nếu không bằng không, (iii) Giá trị của M nếu NO được chọn, nếu không thì nó bằng không. Với ba biến số này, bạn có thể xác định xem thị trường nghĩ rằng CÓ hay KHÔNG thuận lợi hơn cho giá trị của M.
"Giá cổ phiếu công ty" (hoặc, trong trường hợp tiền điện tử, giá mã thông báo) là số liệu được trích dẫn phổ biến nhất vì nó dễ hiểu và đo lường, nhưng cơ chế này có thể hỗ trợ nhiều số liệu khác nhau: người dùng hoạt động hàng tháng, hạnh phúc tự báo cáo trung bình cho một số nhóm nhất định, một số số liệu phi tập trung có thể định lượng, v.v.
Futarchy ban đầu được phát minh trước thời đại trí tuệ nhân tạo. Tuy nhiên, Futarchy hợp lý với mô hình “bộ giải quyết phức tạp, bộ xác minh đơn giản” được mô tả trong phần trước và các nhà giao dịch trong Futarchy cũng có thể là trí tuệ nhân tạo (hoặc kết hợp giữa con người và trí tuệ nhân tạo). Vai trò của “bộ giải quyết” (nhà giao dịch thị trường dự đoán) là xác định mỗi kế hoạch đề xuất sẽ ảnh hưởng như thế nào đến giá trị của các chỉ số trong tương lai. Điều này khá khó khăn. Nếu bộ giải quyết đúng, họ sẽ kiếm tiền, nếu bộ giải quyết sai, họ sẽ mất tiền. Bộ xác minh (những người bỏ phiếu cho các chỉ số, nếu họ nhận ra chỉ số bị “thao túng” hoặc trở nên lỗi thời, họ sẽ điều chỉnh chỉ số và xác định giá trị thực tế của chỉ số tại một thời điểm trong tương lai) chỉ cần trả lời một câu hỏi đơn giản hơn “giá trị hiện tại của chỉ số là bao nhiêu?”
Sức mạnh suy luận của con người
Quyết định của con người là một loại cơ chế, nguyên tắc hoạt động của nó như sau. Có rất nhiều (tưởng tượng: 100 万个) vấn đề cần phải trả lời. Ví dụ tự nhiên bao gồm:
Bạn có một nhóm có thể trả lời những câu hỏi này, nhưng với chi phí dành rất nhiều nỗ lực cho mỗi câu trả lời. Bạn chỉ yêu cầu nhóm trả lời một vài câu hỏi (ví dụ: nếu có 1 triệu mục trong tổng danh sách, nhóm chỉ có thể trả lời 100 câu hỏi trong số đó). Bạn thậm chí có thể hỏi nhóm một câu hỏi gián tiếp: Đừng hỏi, "Cô ấy nên nhận được bao nhiêu phần trăm tổng số tín dụng của Alice?" thay vào đó, hãy hỏi, "Alice hay Bob có nên nhận được nhiều tín dụng hơn không, và bao nhiêu?" Khi thiết kế cơ chế bồi thẩm đoàn, bạn có thể sử dụng lại các cơ chế đã thử và đúng trong thế giới thực, chẳng hạn như ủy ban tài trợ, tòa án (để xác định giá trị của bản án), đánh giá và tất nhiên, chính những người tham gia bồi thẩm đoàn có thể sử dụng các công cụ nghiên cứu AI mới để giúp họ tìm ra câu trả lời.
Sau đó, bạn cho phép bất kỳ ai gửi danh sách các câu trả lời bằng số cho toàn bộ bộ câu hỏi (ví dụ: cung cấp ước tính số tiền mà mỗi người tham gia sẽ nhận được cho toàn bộ danh sách). Những người tham gia được khuyến khích sử dụng trí tuệ nhân tạo để hoàn thành nhiệm vụ này, nhưng họ có thể sử dụng bất kỳ công nghệ nào: trí tuệ nhân tạo, lai giữa người và máy, trí tuệ nhân tạo có quyền truy cập vào các tìm kiếm trên internet và có thể tự động thuê người khác hoặc nhân viên trí tuệ nhân tạo, khỉ tăng cường điều khiển học, v.v.
Khi cả người cung cấp danh sách đầy đủ và ban giám khảo đều đã nộp đáp án, danh sách đầy đủ sẽ được kiểm tra dựa trên các đáp án của ban giám khảo, và một sự kết hợp nào đó của danh sách đầy đủ tương thích nhất với các đáp án của ban giám khảo sẽ được chọn làm đáp án cuối cùng.
Cơ chế đánh giá của con người dựa trên sự lọc và futarchy khác nhau, nhưng có một số điểm tương đồng quan trọng:
Mẫu đồ chơi qui định sự phân bổ tín dụng dựa trên sự đánh giá của con người, vui lòng xem mã Python tại đây. Tập lệnh yêu cầu bạn làm vai trò của hội đồng xét xử và bao gồm một số danh sách đầy đủ trước đó chứa trong mã AI (và con người). Cơ chế này nhận dạng tổ hợp tuyến tính của danh sách đầy đủ phù hợp nhất với câu trả lời của hội đồng xét xử. Trong trường hợp này, tổ hợp chiến thắng là 0,199 * câu trả lời của Claude + 0,801 * câu trả lời của Deepseek; tổ hợp này phù hợp hơn với câu trả lời của hội đồng xét xử hơn bất kỳ mô hình đơn lẻ nào. Các hệ số này cũng sẽ là phần thưởng dành cho người gửi.
Trong ví dụ 'đánh bại Sauron' này, khía cạnh 'con người làm bánh lái' được thể hiện ở hai nơi. Đầu tiên, mỗi vấn đề đều được đánh giá bằng sự phán đoán của con người chất lượng cao, mặc dù vẫn sử dụng ban giám đốc như một 'quan chức kỹ thuật' đánh giá hiệu suất. Thứ hai, có một cơ chế bỏ phiếu ngầm, quyết định xem 'đánh bại Sauron' có phải là mục tiêu đúng đắn hay không (thay vì, ví dụ, cố gắng liên minh với Sauron, hoặc nhượng tất cả lãnh thổ về phía đông của một con sông quan trọng cho anh ấy như một sự nhượng bộ hòa bình). Cũng có các trường hợp ứng dụng phán đoán của con người được lọc khác, trong đó nhiệm vụ của ban giám đốc có mối liên hệ trực tiếp với giá trị: ví dụ, hãy tưởng tượng một nền tảng truyền thông xã hội phân tán (hoặc cộng đồng con), nhiệm vụ của ban giám đốc là đánh dấu các bài đăng diễn đàn được chọn ngẫu nhiên là tuân thủ hoặc không tuân thủ các quy tắc cộng đồng.
Trong mô hình đánh giá con người, có một số biến số mở:
Nhìn chung, mục tiêu là áp dụng các cơ chế đánh giá con người đã biết hiệu quả, giảm thiểu thành kiến và đã qua thời gian kiểm chứng (ví dụ, hãy tưởng tượng cấu trúc đối đầu của hệ thống tòa án bao gồm hai bên tranh cãi, họ có nhiều thông tin nhưng có thành kiến, trong khi thẩm phán chỉ có ít thông tin nhưng có thể không có thành kiến), và sử dụng thị trường trí tuệ nhân tạo mở như một chỉ số dự báo hợp lý, chính xác và chi phí rất thấp cho các cơ chế này (tương tự cách mà mô hình tiên đoán lớn "chưng cất" hoạt động).
深度融资(deep funding)
Tài chính sâu là áp dụng phán đoán chưng cất của con người để điền vào câu hỏi "Bao nhiêu phần trăm tín dụng của X thuộc về Y?" Bài toán trọng số ở đầu biểu đồ.
Cách đơn giản nhất là sử dụng một ví dụ cụ thể:
Đầu ra của ví dụ vốn sâu hai cấp: nguồn gốc tư duy của Ethereum. Vui lòng xem mã Python tại đây.
Mục tiêu ở đây là phân phối vinh dự cho các đóng góp triết học vào Ethereum. Hãy xem một ví dụ:
Phương pháp này được thiết kế để áp dụng cho những lĩnh vực đã có cấu trúc rõ ràng cao, và đang làm việc trên cơ sở công việc trước đó. Các ví dụ tự nhiên là giới học thuật (nghĩ đến: trích dẫn hình ảnh) và phần mềm mã nguồn mở (nghĩ đến: sự phụ thuộc thư viện và fork).
Một mục tiêu của hệ thống tài trợ sâu hoạt động tốt là tạo và duy trì một đồ thị toàn cầu, nơi mà bất kỳ nhà tài trợ nào quan tâm đến việc hỗ trợ dự án cụ thể có thể gửi tiền vào địa chỉ đại diện cho nút đó, tiền sẽ tự động lan truyền theo trọng số của cạnh đồ thị đến các phần phụ thuộc của nó (và đệ quy đến các phần phụ thuộc của chúng và cứ tiếp tục như vậy).
Bạn có thể tưởng tượng một giao thức phi tập trung sử dụng thiết bị tài trợ sâu tích hợp để phát hành mã thông báo của nó: quản trị phi tập trung trong giao thức sẽ chọn một bồi thẩm đoàn, sẽ điều hành cơ chế tài trợ sâu, vì giao thức tự động phát hành mã thông báo và gửi chúng vào các nút tương ứng với chính nó. Bằng cách đó, giao thức thưởng theo chương trình cho tất cả những người đóng góp trực tiếp và gián tiếp, gợi nhớ đến cách phần thưởng khối Bitcoin hoặc Ethereum thưởng cho một loại người đóng góp cụ thể (thợ mỏ). Bằng cách ảnh hưởng đến trọng lượng của các cạnh, ban giám khảo có thể liên tục xác định loại đóng góp mà nó đánh giá. Cơ chế này có thể phục vụ như một giải pháp thay thế phi tập trung và bền vững lâu dài cho việc khai thác, bán hoặc airdrop một lần.
Tăng cường quyền riêng tư
Thường thì, để đưa ra nhận định chính xác về vấn đề trong ví dụ trên, cần phải có thể truy cập thông tin riêng tư: bản ghi trò chuyện nội bộ của tổ chức, thông tin được gửi bí mật từ thành viên cộng đồng, v.v. Một lợi ích của việc "chỉ sử dụng một AI duy nhất", đặc biệt là trong môi trường quy mô nhỏ, là việc cho một AI truy cập thông tin dễ dàng hơn là công khai thông tin cho tất cả mọi người.
Để giúp việc đánh giá hoặc tài trợ sâu hơn trong những tình huống này, chúng ta có thể thử sử dụng công nghệ mật mã để cho phép trí tuệ nhân tạo truy cập thông tin cá nhân một cách an toàn. Ý tưởng này là sử dụng tính toán đa bên (MPC), mật mã toàn phần (FHE), môi trường thực thi đáng tin cậy (TEE) hoặc cơ chế tương tự để cung cấp thông tin cá nhân, nhưng chỉ khi đầu ra duy nhất của nó được đưa trực tiếp vào cơ chế 'Gửi danh sách đầy đủ'.
Nếu bạn làm như vậy, bạn sẽ phải giới hạn bộ cơ chế thành mô hình AI (thay vì kết hợp con người hoặc AI + con người, vì bạn không thể cho phép con người nhìn thấy dữ liệu), và cụ thể cho các mô hình chạy trên một số cơ sở cụ thể (ví dụ như MPC, FHE, phần cứng đáng tin cậy). Một hướng nghiên cứu chính là tìm ra phiên bản thực tế đủ hiệu quả và có ý nghĩa gần đây.
Ưu điểm của thiết kế động cơ + vô lăng
Thiết kế như vậy mang lại nhiều lợi ích đáng mong đợi. Đến nay, lợi ích quan trọng nhất là chúng cho phép xây dựng DAO, nơi mà người cử tri con người kiểm soát hướng đi, nhưng họ không bị quá tải bởi quá nhiều quyết định. Chúng đạt được sự cân nhắc, mọi người không cần phải đưa ra N quyết định, nhưng quyền họ sở hữu không chỉ đơn thuần là quyết định một điều (thường là cách mà sự ủy quyền hoạt động), mà còn có thể kích hoạt những sở thích phong phú khó diễn đạt trực tiếp.
Ngoài ra, cơ chế như vậy dường như có tính chất kích thích mịn. Khi tôi nói về "kích thích mịn" ở đây, đó là sự kết hợp của hai yếu tố:
Cụm từ 'sự lẫn lộn' và 'sự lan truyền' ở đây đều xuất phát từ mật mã học, chúng là những đặc tính then chốt của an toàn mật mã và hàm băm.
Một ví dụ tốt về sự khích lệ mịn màng trong thế giới thực hiện ngày nay là luật pháp: các cấp cao của chính phủ không thường xuyên thực hiện hành động dưới dạng "cho công ty của Alice 2 tỷ USD", "phạt công ty của Bob 1 tỷ USD", mà thay vào đó thông qua các quy tắc được thiết lập nhằm áp dụng đồng đều cho một số lượng lớn người tham gia, sau đó được giải thích bởi một loại người tham gia khác. Khi phương pháp này phát huy tác dụng, lợi ích đó là giảm đáng kể việc tham nhũng và các hình thức tham nhũng khác. Khi bị vi phạm (thường xảy ra trong thực tế), những vấn đề này sẽ nhanh chóng được phóng to rõ rệt.
AI rõ ràng sẽ là một phần quan trọng của tương lai, và nó chắc chắn sẽ trở thành một phần quan trọng của quản trị trong tương lai. Tuy nhiên, nếu bạn liên quan đến AI trong quản trị, có những rủi ro rõ ràng: AI thiên vị, nó có thể bị cố tình làm suy yếu trong quá trình đào tạo và công nghệ AI đang phát triển nhanh đến mức "đưa AI lên nắm quyền" thực sự có thể có nghĩa là "chịu trách nhiệm nâng cấp AI". Phán đoán chắt lọc của con người cung cấp một con đường thay thế về phía trước, cho phép chúng ta khai thác sức mạnh của AI theo cách mở, thị trường tự do trong khi vẫn duy trì nền dân chủ do con người kiểm soát.
Đặc biệt cảm ơn Devansh Mehta, Davide Crapis và Julian Zawistowski vì phản hồi và đánh giá của họ, cũng như Tina Zhen, Shaw Walters và những người khác vì các cuộc thảo luận của họ.