في العديد من حالات الاستخدام التي تم استكشافها، يعتبر النهج الآخر هو جعل آلية بسيطة تصبح قواعد اللعبة، وجعل الذكاء الاصطناعي يكون اللاعب.
الذكاء الاصطناعي كمحرك، البشر كعجلة القيادة
كتب: فيتاليك، مؤسس إيثريوم
الترجمة: بايشوي، موقع جينسن للأخبار المالية
إذا سألت الناس عن جوانب الهيكل الديمقراطي الذي يفضلونه ، سواء كانت الحكومة أو مكان العمل أو DAOs القائمة على blockchain ، فغالبا ما تسمع نفس الحجج: فهي تتجنب تركيز السلطة ، وتوفر للمستخدمين طمأنة قوية بأنه لا يمكن لأحد تغيير اتجاه النظام تماما حسب الرغبة ، ويمكنهم اتخاذ قرارات عالية الجودة من خلال جمع آراء وحكمة العديد من الناس.
إذا سألت الناس عن الجوانب التي لا يحبونها في هيكل الديمقراطية، فإنهم غالباً ما يقدمون نفس الشكوى: أن الناخبين العاديين ليسوا كافياً ماهرين، لأن كل ناخب لديه فرصة صغيرة جداً للتأثير في النتائج، ونادراً ما يقوم الناخبون بتفكير عالي الجودة في صنع القرارات، وغالباً ما تكون هناك مشاركة منخفضة (مما يجعل النظام عرضة للهجوم) أو واقعية للتمركز، لأن كل شخص يثق تلقائياً ويستنسخ بعض آراء الأشخاص المؤثرين.
الهدف من هذه المقالة هو استكشاف نموذج حيث يمكن استخدام الذكاء الاصطناعي للسماح لنا بالاستفادة من الهياكل الديمقراطية دون آثار سلبية. "الذكاء الاصطناعي هو المحرك ، البشر هم عجلة القيادة". لا يوفر البشر سوى كمية صغيرة من المعلومات للنظام ، ربما بضع مئات فقط ، لكنها كلها مدروسة جيدا وذات جودة عالية للغاية. تتعامل الذكاء الاصطناعي مع هذه البيانات على أنها "وظيفة موضوعية" وتعمل بلا كلل لاتخاذ الكثير من القرارات لبذل قصارى جهدها لتحقيق هذه الأهداف. على وجه الخصوص ، سوف تستكشف هذه المقالة سؤالا مثيرا للاهتمام: هل يمكننا القيام بذلك دون وضع الذكاء الاصطناعي واحد في المركز ، ولكن بدلا من ذلك الاعتماد على سوق مفتوحة تنافسية يمكن لأي الذكاء الاصطناعي (أو هجين بين الإنسان والآلة) المشاركة فيها بحرية؟
!
جدول المحتويات
لماذا لا نسمح مباشرة بإدارة الذكاء الاصطناعي؟
فوتارشي
تبخر قوة الحكم البشرية
التمويل العميق (Deep funding)
زيادة الخصوصية
فوائد تصميم المحرك + عجلة القيادة
لماذا لا نسمح مباشرة بالذكاء الاصطناعي بالمسؤولية؟
أسهل طريقة لإدخال تفضيلات البشر في آلية تعتمد على الذكاء الاصطناعي هي إنشاء نموذج ذكاء اصطناعي وإدخال تفضيلاتهم بطريقة ما. هناك طرق بسيطة للقيام بذلك: ما عليك سوى وضع ملف نصي يحتوي على قائمة تعليمات الأفراد في تلميح النظام. بعد ذلك، يمكنك استخدام أحد إطارات الذكاء الاصطناعي لإعطاء الذكاء الاصطناعي قدرة الوصول إلى الإنترنت، وتسليم مفتاح أصولك وبيانات وسائل التواصل الاجتماعي التي تديرها إليه، وهكذا تكون قد أنجزت العمل بنجاح.
بعد عدة تحديثات، قد يكون هذا كافيًا لتلبية احتياجات العديد من حالات الاستخدام، وأتوقع تمامًا أننا سنرى في المستقبل القريب العديد من الهياكل التي تتعلق بمجموعات قراءة الذكاء الاصطناعي تقدم التعليمات (حتى قراءة الدردشات في الوقت الفعلي) وتتخذ إجراءات.
هيكل غير مثالي كآلية لإدارة المؤسسات على المدى الطويل. إحدى الخصائص القيمة التي ينبغي أن تتمتع بها المؤسسات على المدى الطويل هي الحياد الموثوق به. في منشوري الذي أقدم فيه هذا المفهوم ، قمت بسرد أربع خصائص قيمة للحياد الموثوق به:
لا تكتب أشخاصًا معينين أو نتائج معينة في الآلية
تنفيذ مفتوح وقابل للتحقق علناً
البقاء بسيط
لا تتغير كثيرا
يفي LLM (أو وكيل الذكاء الاصطناعي) ب 0/4. يقوم النموذج حتما بترميز عدد كبير من الأشخاص المحددين وتفضيلات النتائج أثناء تدريبه. في بعض الأحيان يؤدي هذا إلى اتجاهات تفضيل الذكاء الاصطناعي مفاجئة ، على سبيل المثال ، بالنظر إلى دراسة حديثة تظهر أن LLMs الرئيسية تقدر الحياة في باكستان أكثر من الحياة في الولايات المتحدة (!!). )。 يمكن أن يكون مفتوحا ، لكن هذا أبعد ما يكون عن المصدر المفتوح. نحن لا نعرف حقا ما يختبئ الشيطان في أعماق النموذج. إنه عكس البساطة: تعقيد Kolmogorov ل LLM هو عشرات المليارات من البتات ، أي ما يعادل تقريبا جميع القوانين الأمريكية (الفيدرالية + الولاية + المحلية) مجتمعة. ولأن الذكاء الاصطناعي يتطور بسرعة كبيرة ، يجب عليك تغييره كل ثلاثة أشهر.
لهذا السبب، أوافق على استكشاف نهج آخر تم اقتراحه في العديد من حالات الاستخدام وهو جعل آلية بسيطة تكون قواعد اللعبة، مما يجعل الذكاء الاصطناعي لاعبًا. هذه الرؤية هي التي تجعل السوق فعالة لهذه الدرجة: القواعد هي نوع من نظام حقوق الملكية النسبي الغبي، ويتم التحكم في الحالات الشاذة بواسطة نظام المحاكم ببطء متراكم وتعديل السابقات، وجميع المعلومات تأتي من رواد الأعمال الذين يعملون "على الحافة".
!
يمكن لـ "اللاعبين" الفرديين أن يكونوا LLM، ومجموعات LLM التي تتفاعل مع بعضها البعض وتستدعي مختلف خدمات الإنترنت، ومجموعات AI + بشرية والعديد من الهياكل الأخرى؛ كمصمم للآلية، لست بحاجة إلى معرفة ذلك. الهدف المثالي هو امتلاك آلية يمكنها العمل تلقائيًا - إذا كان هدف هذه الآلية هو اختيار ما يجب دعمه، فينبغي أن تكون قادرة على ذلك بقدر الإمكان مثل مكافأة كتل بيتكوين أو إيثيريوم.
فوائد هذا النهج هي:
يتجنب دمج أي نموذج واحد في الآلية ؛ بدلا من ذلك ، تحصل على سوق مفتوح يتكون من العديد من اللاعبين والبنى المختلفة ، وكلها لها تحيزاتها المختلفة. النماذج المفتوحة ، والنماذج المغلقة ، ومجموعات الوكلاء ، والهجينة البشرية + الذكاء الاصطناعي ، والروبوتات ، اللانهائية ، وما إلى ذلك كلها ألعاب عادلة. الآلية لا تميز ضد أي شخص.
هذا الآلية مفتوحة المصدر. على الرغم من أن اللاعبين ليسوا كذلك، إلا أن اللعبة مفتوحة المصدر - وهذا نوع من النمط الذي تم فهمه بشكل كافٍ بالفعل (على سبيل المثال، الأحزاب السياسية والأسواق تعمل بنفس الطريقة)
هذه الآلية بسيطة للغاية، لذلك فإن الطرق التي يضع فيها مصمم الآلية تحيزاته في التصميم نسبياً قليلة
لن تتغير الآلية ، حتى لو كانت بنية المشاركين الأساسيين بحاجة إلى إعادة تصميم كل ثلاثة أشهر من الآن وحتى التفرد.
يهدف آلية التوجيه إلى عكس أهداف المشاركين بدقة. إنها تحتاج فقط إلى توفير كمية قليلة من المعلومات، ولكن يجب أن تكون عالية الجودة.
يمكنك التفكير في هذه الآلية على أنها تستفيد من عدم التماثل بين اقتراح إجابة والتحقق من صحتها. هذا مشابه لسودوكو الذي يصعب حله ، لكن من السهل التحقق من صحة الحل. (i) عليك إنشاء سوق مفتوح للاعبين للعمل ك "حل للمشكلات" ، ومن ثم (ii) الحفاظ على آلية يديرها الإنسان لأداء المهمة الأبسط بكثير المتمثلة في التحقق من صحة الحل المقترح.
فوتارشي
تم اقتراح Futarchy في الأصل من قبل روبن هانسون وتعني "التصويت من أجل القيمة ، ولكن الرهان من أجل الإيمان". تختار آلية التصويت مجموعة من الأهداف (التي يمكن أن تكون موجودة ، ولكن فقط إذا كان يجب أن تكون قابلة للقياس) ثم تجمعها في مقياس M. عندما تحتاج إلى اتخاذ قرار (لنفترض نعم / لا للتبسيط) ، فإنك تحدد السوق الشرطي: تطلب من الناس المراهنة على ما إذا كان (i) سيختار نعم أو لا ، (ii) إذا اخترت نعم ، قيمة M ، وإلا صفر ، (iii) قيمة M إذا تم تحديد NO ، وإلا فهي صفر. باستخدام هذه المتغيرات الثلاثة ، يمكنك تحديد ما إذا كان السوق يعتقد أن نعم أو لا أكثر ملاءمة لقيمة M.
!
"سعر السهم في الشركة" (أو بالنسبة للعملات المشفرة، سعر الرمز) هو المؤشر الأكثر استشهاداً عادةً، لأنه من السهل فهمه وقياسه، ولكن هذا الآلية يمكن أن تدعم العديد من المؤشرات: مستخدمو النشاط الشهري، وسطيات شعور السعادة المُبلغ عنها ذاتياً لبعض الفئات، وبعض المؤشرات اللامركزية القابلة للقياس وغيرها.
تم اختراع Futarchy في الأصل قبل عصر الذكاء الاصطناعي. ومع ذلك ، فإن Futarchy يتناسب تماما مع نموذج "الحلول المعقدة ، المدققين البسيطين" الموصوف في القسم السابق ، ويمكن أن يكون المتداولون في Futarchy أيضا ذكاء اصطناعيا (أو مزيجا من الذكاء البشري + الاصطناعي). يتمثل دور "الحلال" (متداول السوق التنبئي) في تحديد كيفية تأثير كل خطة مقترحة على قيمة المؤشر المستقبلي. إنه صعب. إذا كان الحل صحيحا ، فإنهم يكسبون المال ، وإذا كان الحل مخطئا ، فإنهم يخسرون المال. يحتاج المدققون (الأشخاص الذين يصوتون على مؤشر ، إذا لاحظوا أن المقياس "مزور" أو قديم ، فقم بضبط المقياس وتحديد القيمة الفعلية للمقياس في وقت ما في المستقبل) فقط للإجابة على السؤال الأبسط "ما هي قيمة المقياس الآن؟"
تقطير الحكم البشري
تقييد تقييم البشر هو نوع من الآليات، ويعمل على النحو التالي. هناك الكثير (تخيل: 1000000) من الأسئلة تحتاج إلى إجابة. الأمثلة الطبيعية تشمل:
كم ينبغي أن يحصل كل شخص في هذه القائمة على شرف لمساهمته في مشروع أو مهمة معينة؟
*أي من هذه التعليقات تنتهك قواعد منصة وسائل التواصل الاجتماعي (أو الفرعية)؟
أي من عناوين Ethereum هذه تمثل أشخاصا حقيقيين وفريدين؟
أي من هذه الأشياء المادية تساهم إيجابا أو سلبا في جماليات بيئتها؟
لديك فريق يمكنه الإجابة على هذه الأسئلة ، ولكن على حساب إنفاق الكثير من الجهد على كل إجابة. أنت تطلب فقط من الفريق الإجابة على بعض الأسئلة (على سبيل المثال ، إذا كان هناك مليون عنصر في القائمة الإجمالية ، فقد يجيب الفريق على 100 منها فقط). يمكنك حتى أن تسأل الفريق سؤالا غير مباشر: لا تسأل ، "ما هي النسبة المئوية من إجمالي رصيد أليس الذي يجب أن تحصل عليه؟" بدلا من ذلك ، اسأل ، "هل يجب أن تحصل أليس أو بوب على المزيد من الائتمان ، وبأي مقدار؟" عند تصميم آلية هيئة المحلفين ، يمكنك إعادة استخدام الآليات المجربة والحقيقية في العالم الحقيقي ، مثل لجان المنح والمحاكم (لتحديد قيمة الأحكام) والتقييمات ، وبالطبع ، يمكن للمشاركين في هيئة المحلفين أنفسهم استخدام أدوات بحث الذكاء الاصطناعي جديدة لمساعدتهم في العثور على إجابات.
يمكنك بعد ذلك السماح لأي شخص بإرسال قائمة بالإجابات الرقمية على مجموعة الأسئلة بأكملها (على سبيل المثال ، تقديم تقدير لمقدار الائتمان الذي يجب أن يحصل عليه كل مشارك للقائمة بأكملها). يتم تشجيع المشاركين على استخدام الذكاء الاصطناعي لإنجاز هذه المهمة ، ولكن يمكنهم استخدام أي تقنية: الذكاء الاصطناعي ، والهجين بين الإنسان والآلة ، والذكاء الاصطناعي الذي يمكنه الوصول إلى عمليات البحث على الإنترنت وقادر على توظيف بشر آخرين أو عمال ذكاء اصطناعي بشكل مستقل ، المحسنة عبر الإنترنت ، وما إلى ذلك.
بمجرد أن يقدم كل من مزود القائمة الكاملة والمحلف إجاباتهما ، يتم التحقق من القائمة الكاملة مقابل إجابات هيئة المحلفين ، ويتم استخدام مجموعة معينة من القائمة الكاملة الأكثر توافقا مع إجابات هيئة المحلفين كإجابة نهائية.
تختلف آلية الحكم البشري للتقطير عن آلية futarchy ، ولكن هناك بعض أوجه التشابه المهمة:
في futarchy ، يقوم "الحلال" بعمل تنبؤات ، و "البيانات الحقيقية" التي تستند إليها تنبؤاتهم (تستخدم لمكافأة أو معاقبة الحلال) هي أوراكل ينتج قيمة المؤشر ، تديرها هيئة محلفين.
في الحكم البشري المقطر ، يقدم "الحلال" إجابات على عدد كبير من الأسئلة ، و "البيانات الحقيقية" التي تستند إليها تنبؤاتهم هي الإجابات عالية الجودة على جزء صغير من الأسئلة التي تقدمها هيئة المحلفين.
!
مثال للعبة اللعب البشري لتوزيع الائتمانات ، راجع الكود الخاص بـ Python هنا. يتطلب البرنامج منك أن تكون عضوًا في هيئة المحلفين ويتضمن قائمة كاملة مُضمّنة مسبقًا في الكود تضم توليفة خطية من الإجابات الكاملة التي تحددها الهيئة المحلفة. في هذه الحالة ، الجمع الفائز هو 0.199 * إجابة كلود + 0.801 * إجابة ديبسيك ؛ هذه التوليفة تتوافق أكثر من أي نموذج فردي مع إجابة هيئة المحلفين. ستكون هذه العوامل أيضًا مكافأة للمقدمين.
في هذا المثال "هزيمة سورون"، تتجلى جوانب "الإنسان كعجلة قيادة" في اثنين من الأماكن. أولاً، تم تطبيق التقييم البشري عالي الجودة على كل مشكلة، على الرغم من أن ذلك ما زال يستخدم هيئة المحلفين كـ "مقيم إداري". ثانيًا، هناك آلية تصويت ضمنية تقرر ما إذا كان "هزيمة سورون" هو الهدف الصحيح (بدلاً من، على سبيل المثال، محاولة التحالف مع سورون، أو تسليم جميع الأراضي شرق نهر مهم له كتنازل للسلام). هناك أيضًا حالات أخرى لتطبيقات التقييم البشري المقتصرة، حيث يكون دور هيئة المحلفين أكثر مباشرة ويتضمن قيمًا: على سبيل المثال، تخيل منصة تواصل اجتماعي متناثرة (أو مجتمع فرعي)، حيث يكون دور هيئة المحلفين هو وسم المشاركات العشوائية في المنتديات على أنها مطابقة أو غير مطابقة لقواعد المجتمع.
في نموذج تقييم قابلية تبخر البشرية، هناك بعض المتغيرات المفتوحة:
كيف يتم أخذ العينات؟ دور مقدمي القائمة الكاملة هو تقديم الكثير من الإجابات؛ دور المحكمين هو تقديم إجابات عالية الجودة. نحتاج إلى اختيار المحكمين بهذه الطريقة، واختيار الأسئلة للمحكمين، وهو الأمر الذي يظهر قدرة النموذج على مطابقة إجابات المحكمين بأقصى قدر ممكن من أجل أدائها العام. بعض العوامل المعتبرة تشمل:
توازن بين المعرفة المهنية والتحيز: غالبًا ما يكون المحلفون الماهرون متخصصين في مجالاتهم الخاصة ، لذا عندما تسمح لهم باختيار المحتوى الذي يجب تقييمه ، ستحصل على مدخلات ذات جودة أعلى. من ناحية أخرى ، قد يؤدي الاختيار الزائد إلى التحيز (حيث يميل المحلفون إلى تقييم محتوى الأشخاص المرتبطين بهم) أو نقطة ضعف في العينة (حيث يتم تقييم بعض المحتوى بشكل غير منتظم).
فينسينت غودهارت: ستكون هناك محتويات تحاول "اللعب" بآلية الذكاء الاصطناعي، على سبيل المثال، يقوم المساهمون بإنشاء كميات كبيرة من الشفرات التي تبدو مثيرة للإعجاب ولكنها غير مفيدة. هذا يعني أن الهيئة القضائية يمكنها اكتشاف ذلك، ولكن نماذج الذكاء الاصطناعي الثابتة لن تكتشف ذلك ما لم يبذلوا جهودًا جادة للكشف عنه. أحد الطرق المحتملة للتعامل مع هذا السلوك هو إضافة آلية تحدي، حيث يمكن للأفراد وضع علامة على محاولات من هذا النوع، مما يضمن للهيئة القضائية النظر فيها (مما يحفز مطوري الذكاء الاصطناعي على ضمان اصطيادها بشكل صحيح). إذا وافقت الهيئة القضائية، سيحصل المبلغ المبلغ عنها على مكافأة، وإذا لم توافق، فسيكون عليه دفع غرامة.
ما هي وظيفة الدرجات التي تستخدمها؟ تتمثل إحدى الأفكار المستخدمة في برنامج Deep Grant التجريبي الحالي في سؤال المحلفين ، "هل يجب أن يحصل A أو B على المزيد من الائتمان ، وبأي مقدار؟" دالة التسجيل هي score(x) = sum((log(x[B]) - log(x[A]) - log(juror_ratio)) ** 2 ل (A ، B ، المحلف \ _ratio) في هيئة المحلفين \ _answers): أي أنه لكل إجابة من هيئة المحلفين ، يسأل عن مدى بعد المعدل في القائمة الكاملة عن المعدل المقدم من المحلف ويضيف عقوبة تتناسب مع مربع المسافة (في الفضاء اللوغاريتمي). هذا لإظهار أن هناك مساحة تصميم كبيرة لوظائف التسجيل ، ويرتبط اختيار وظيفة التسجيل باختيارك للأسئلة التي يجب طرحها على المحلفين.
كيف تكافئ مقدمي القائمة الكاملة؟ من الناحية المثالية ، تريد منح مكافآت غير صفرية لعدة مشاركين بشكل متكرر لتجنب الآليات الاحتكارية ، ولكنك تريد أيضا تلبية الخاصية التالية: لا يمكن للمشاركين زيادة المكافأة عن طريق إرسال نفس الإجابة (أو المعدلة قليلا) عدة مرات. يتمثل أحد الأساليب الواعدة في الحساب المباشر لمجموعة خطية من القائمة الكاملة للإجابات الأنسب لهيئة المحلفين (مع معاملات غير سلبية ومجموع 1) واستخدام هذه المعاملات نفسها لتقسيم المكافأة. قد تكون هناك أيضا طرق أخرى.
بشكل عام ، الهدف هو اتخاذ آليات الحكم البشري المعروفة بأنها تعمل ، ويتم تقليلها إلى الحد الأدنى من التحيز ، وقد صمدت أمام اختبار الزمن (على سبيل المثال ، تخيل كيف أن الهيكل العدائي لنظام المحاكم يشمل طرفين في نزاع لديهما الكثير من المعلومات ولكنهما متحيزان ، وقاض لديه كمية صغيرة من المعلومات ولكن قد لا يكون متحيزا) ، واستخدام سوق الذكاء الاصطناعي مفتوح كمؤشر عالي الدقة ومنخفض التكلفة للغاية لهذه الآليات (على غرار الطريقة التي يعمل بها نموذج النبوءة الكبرى "التقطير").
تمويل عميق (deep funding)
التمويل العميق هو تطبيق حكم التقطير البشري لملء السؤال "ما هي النسبة المئوية لائتمان X الذي ينتمي إلى Y؟" مشكلة الترجيح في الجزء العلوي من الرسم البياني.
أسهل طريقة هي شرح مباشر باستخدام مثال:
!
ناتج مثال التمويل العميق المكون من مستويين: أصول أفكار Ethereum. تحقق من كود بايثون هنا.
هنا الهدف هو تخصيص الشرف للمساهمات الفلسفية في العقائد الإيثريوم. دعونا نلقي نظرة على مثال:
يعزى 20.5٪ من تمويل العمق الافتراضي الذي يظهر هنا إلى حركة البنك السري ، ويعزى 9.2٪ إلى التقدم التكنولوجي العلمي.
في كل عقدة ، ستواجه سؤالًا: إلى أي حد هو مساهمة أصلية (وبالتالي تستحق الحصول على الفضل) ، وإلى أي حد هو إعادة تجميع للتأثيرات الصاعدة الأخرى؟ بالنسبة لحركة البنوك اللامركزية ، 40٪ منها جديد ، و 60٪ هو تبعي.
يمكنك بعد ذلك إلقاء نظرة على تأثير هذه العقد في المنبع: حصلت الحكومة الصغيرة الليبرالية والأناركية على 17.3٪ من الفضل في حركة cypherpunk ، ولكن 5٪ فقط للديمقراطية المباشرة في سويسرا.
ولكن عليك أن تلاحظ أن الليبرالية الصغيرة الحكومية وعدم الحكومية قد ألهمتا فلسفة العملة البيتكوين، وبالتالي فإنها تؤثر على فلسفة الإيثيريوم عن طريق طريقتين.
لحساب إجمالي حصة مساهمة الحكومة الصغيرة الليبرالية والأناركية في Ethereum ، تحتاج إلى ضرب الحواف على كل مسار ثم إضافة المسارات معا: 0.205 \ * 0.6 \ * 0.173 + 0.195 \ * 0.648 \ * 0.201 ~= 0.0466. لذا ، إذا كان عليك التبرع بمبلغ 100 دولار لمكافأة جميع أولئك الذين ساهموا في فلسفة Ethereum ، فإن الحكومات الصغيرة الليبرالية والفوضويين سيحصلون على 4.66 دولار وفقا لجولة التمويل العميق المحاكية هذه.
ويقصد بهذا النهج أن يكون قابلا للتطبيق على المجالات التي يستند فيها العمل إلى العمل السابق ويتسم بدرجة عالية من الوضوح الهيكلي. الأوساط الأكاديمية (فكر: الرسوم البيانية للاستشهاد) والبرامج مفتوحة المصدر (فكر: تبعيات المكتبات والشوك) مثالان طبيعيان.
هدف نظام تمويل العمق الذي يعمل بشكل جيد هو إنشاء وصيانة رسم بياني عالمي، حيث يمكن لأي ممول مهتم بدعم مشروع معين إرسال الأموال إلى عنوان يمثل تلك العقدة، وتنتشر الأموال تلقائيًا وفقًا لأوزان الحواف في الرسم البياني إلى تبعياتها (وتتكرر إلى تبعياتها وما إلى ذلك).
يمكنك تخيل بروتوكول غير مركزي يستخدم جهاز تمويل عميق مضمن لإصدار رموزه: ستختار الحكومة اللامركزية داخل البروتوكول هيئة محلفين ستدير آلية التمويل العميق، لأن البروتوكول سيصدر الرموز تلقائيًا ويودعها في العقد المقابل له. من خلال ذلك، يكافأ البروتوكول برمجياً جميع المساهمين المباشرين وغير المباشرين به، مما يجعل الشخص يتذكر كيف يكافأ بيتكوين أو إثيريوم بلوك ريوارد نوعًا معينًا من المساهمين (المُعدنين) بالطريقة نفسها. من خلال التأثير على وزن الحواف، يمكن للهيئة المحلفين تعريف أنواع المساهمات التي تُقدّرها باستمرار. يمكن أن يكون هذا الآلية بديلاً غير مركزيًا ومستدامًا على المدى الطويل للتعدين، أو المبيعات، أو توزيع الهبات مرة واحدة.
زيادة الخصوصية
عادةً ما يتعين لاتخاذ قرار صحيح بشأن المشكلة المذكورة في المثال أعلاه القدرة على الوصول إلى المعلومات الخاصة: سجلات الدردشة الداخلية للمؤسسة، والمعلومات المقدمة سرًا من أعضاء المجتمع، وما إلى ذلك. أحد فوائد "استخدام وحيد للذكاء الاصطناعي"، خصوصًا في البيئات ذات الحجم الصغير، هو أن يكون من الأسهل للذكاء الاصطناعي الوصول إلى المعلومات بدلاً من تفشيها للجميع.
لكي يعمل الحكم البشري للتقطير أو التمويل العميق في هذه الحالات ، يمكننا محاولة استخدام التشفير لمنح الذكاء الاصطناعي الوصول الآمن إلى المعلومات الخاصة. الفكرة هي استخدام (MPC) حسابية متعددة الأطراف ، أو (FHE) تشفير متجانسة بالكامل ، أو بيئة تنفيذ موثوقة (TEE) ، أو آليات مماثلة لتوفير معلومات خاصة، ولكن فقط إذا كان مخرجها الوحيد هو "التزام القائمة الكاملة" الذي يذهب مباشرة إلى الميكانيكي.
إذا فعلت ذلك، يجب أن تقيد مجموعة الآلية بنموذج الذكاء الاصطناعي (بدلاً من الإنسان أو مزيج الإنسان والذكاء الاصطناعي، لأنه لا يمكنك السماح للإنسان برؤية البيانات)، ومخصص لتشغيل النماذج في بعض الأساسات المحددة (مثل MPC و FHE والأجهزة الموثوق بها). إحدى الاتجاهات البحثية الرئيسية هي العثور على إصدارات عملية كافية ومعنوية بما فيه الكفاية في وقت قريب.
مزايا تصميم المحرك + عجلة القيادة
هناك العديد من الفوائد الواعدة لمثل هذا التصميم. إلى حد بعيد ، فإن الفائدة الأكثر أهمية هي أنها تسمح ببناء DAOs ، مما يمنح الناخبين البشريين التحكم في الاتجاه ، لكنهم لن يتعثروا بسبب الكثير من القرارات. إنهم يتوصلون إلى حل وسط حيث لا يتعين على الجميع اتخاذ قرارات N ، ولكن لديهم القدرة على تجاوز مجرد اتخاذ قرار (كيف يعمل المندوبون عادة) وإثارة تفضيلات غنية يصعب التعبير عنها مباشرة.
بالإضافة إلى ذلك ، يبدو أن هذه الآلية لها خاصية تجانس الحوافز. ما أعنيه ب "تجانس الحوافز" هنا هو مزيج من عاملين:
الانتشار: أي إجراء منفرد تتخذه آلية التصويت لن يكون له تأثير غير متناسب على مصالح أي مشارك واحد.
الفوضى: الارتباك في القرارات الانتخابية وكيف تؤثر على مصلحة المشاركين أصبحت أكثر تعقيدًا وصعوبة في الحساب.
يستمد مصطلحا الالتباس والانتشار هنا من علم المعلوماتية، وهما صفتان رئيسيتان لأمان كلمة المرور ووظيفة التجزئة.
ومن الأمثلة الجيدة على تجانس الحوافز في العالم الحقيقي اليوم سيادة القانون: فبدلا من اتخاذ إجراءات منتظمة في شكل "200 مليون دولار لشركة أليس" ، و "100 مليون دولار لشركة بوب" على أساس منتظم ، يمرر أعلى الحكومة قواعد مصممة ليتم تطبيقها بالتساوي على عدد كبير من المشاركين ، والتي يتم تفسيرها بعد ذلك من قبل مجموعة أخرى من الجهات الفاعلة. عندما ينجح هذا النهج ، فإن الفائدة هي أنه يقلل بشكل كبير من فوائد الرشوة وغيرها من أشكال الفساد. عندما يتم انتهاكها ، وهو ما يحدث غالبا في الممارسة العملية ، يتم تضخيم هذه المشاكل بسرعة كبيرة.
يبدو أن الذكاء الاصطناعي سيكون جزءًا هامًا من المستقبل، وهذا سيكون جزءًا لا مفر منه من حكم المستقبل. ومع ذلك، إذا كنت تسمح للذكاء الاصطناعي بالمشاركة في الحكم، فهذا يحمل مخاطر واضحة: الذكاء الاصطناعي لديه تحيز، وقد يتعمد تدميره خلال عملية التدريب، ونظرًا لسرعة تطور تقنية الذكاء الاصطناعي، قد يكون "منح السلطة للذكاء الاصطناعي" يعني فعليًا "منح السلطة لأولئك الذين يرقون الذكاء الاصطناعي". يوفر التقويم البشري المقوى بديلاً للتقدم، مما يتيح لنا استخدام قوة الذكاء الاصطناعي بطريقة سوقية حرة، مع الحفاظ في الوقت نفسه على السيطرة الديمقراطية للبشر.
نشكر بشكل خاص ديفانش ميهتا ودافيدي كرابيس وجوليان زاويستوفسكي على التغذية الراجعة والمراجعة، وتينا زين وشو والترز وغيرهم على المناقشة.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
فيتاليك مقال جديد: نموذج جديد للحوكمة المستقبلية "محرك الذكاء الاصطناعي + عجلة قيادة بشرية"
الذكاء الاصطناعي كمحرك، البشر كعجلة القيادة
كتب: فيتاليك، مؤسس إيثريوم
الترجمة: بايشوي، موقع جينسن للأخبار المالية
إذا سألت الناس عن جوانب الهيكل الديمقراطي الذي يفضلونه ، سواء كانت الحكومة أو مكان العمل أو DAOs القائمة على blockchain ، فغالبا ما تسمع نفس الحجج: فهي تتجنب تركيز السلطة ، وتوفر للمستخدمين طمأنة قوية بأنه لا يمكن لأحد تغيير اتجاه النظام تماما حسب الرغبة ، ويمكنهم اتخاذ قرارات عالية الجودة من خلال جمع آراء وحكمة العديد من الناس.
إذا سألت الناس عن الجوانب التي لا يحبونها في هيكل الديمقراطية، فإنهم غالباً ما يقدمون نفس الشكوى: أن الناخبين العاديين ليسوا كافياً ماهرين، لأن كل ناخب لديه فرصة صغيرة جداً للتأثير في النتائج، ونادراً ما يقوم الناخبون بتفكير عالي الجودة في صنع القرارات، وغالباً ما تكون هناك مشاركة منخفضة (مما يجعل النظام عرضة للهجوم) أو واقعية للتمركز، لأن كل شخص يثق تلقائياً ويستنسخ بعض آراء الأشخاص المؤثرين.
الهدف من هذه المقالة هو استكشاف نموذج حيث يمكن استخدام الذكاء الاصطناعي للسماح لنا بالاستفادة من الهياكل الديمقراطية دون آثار سلبية. "الذكاء الاصطناعي هو المحرك ، البشر هم عجلة القيادة". لا يوفر البشر سوى كمية صغيرة من المعلومات للنظام ، ربما بضع مئات فقط ، لكنها كلها مدروسة جيدا وذات جودة عالية للغاية. تتعامل الذكاء الاصطناعي مع هذه البيانات على أنها "وظيفة موضوعية" وتعمل بلا كلل لاتخاذ الكثير من القرارات لبذل قصارى جهدها لتحقيق هذه الأهداف. على وجه الخصوص ، سوف تستكشف هذه المقالة سؤالا مثيرا للاهتمام: هل يمكننا القيام بذلك دون وضع الذكاء الاصطناعي واحد في المركز ، ولكن بدلا من ذلك الاعتماد على سوق مفتوحة تنافسية يمكن لأي الذكاء الاصطناعي (أو هجين بين الإنسان والآلة) المشاركة فيها بحرية؟
!
جدول المحتويات
لماذا لا نسمح مباشرة بالذكاء الاصطناعي بالمسؤولية؟
أسهل طريقة لإدخال تفضيلات البشر في آلية تعتمد على الذكاء الاصطناعي هي إنشاء نموذج ذكاء اصطناعي وإدخال تفضيلاتهم بطريقة ما. هناك طرق بسيطة للقيام بذلك: ما عليك سوى وضع ملف نصي يحتوي على قائمة تعليمات الأفراد في تلميح النظام. بعد ذلك، يمكنك استخدام أحد إطارات الذكاء الاصطناعي لإعطاء الذكاء الاصطناعي قدرة الوصول إلى الإنترنت، وتسليم مفتاح أصولك وبيانات وسائل التواصل الاجتماعي التي تديرها إليه، وهكذا تكون قد أنجزت العمل بنجاح.
بعد عدة تحديثات، قد يكون هذا كافيًا لتلبية احتياجات العديد من حالات الاستخدام، وأتوقع تمامًا أننا سنرى في المستقبل القريب العديد من الهياكل التي تتعلق بمجموعات قراءة الذكاء الاصطناعي تقدم التعليمات (حتى قراءة الدردشات في الوقت الفعلي) وتتخذ إجراءات.
هيكل غير مثالي كآلية لإدارة المؤسسات على المدى الطويل. إحدى الخصائص القيمة التي ينبغي أن تتمتع بها المؤسسات على المدى الطويل هي الحياد الموثوق به. في منشوري الذي أقدم فيه هذا المفهوم ، قمت بسرد أربع خصائص قيمة للحياد الموثوق به:
يفي LLM (أو وكيل الذكاء الاصطناعي) ب 0/4. يقوم النموذج حتما بترميز عدد كبير من الأشخاص المحددين وتفضيلات النتائج أثناء تدريبه. في بعض الأحيان يؤدي هذا إلى اتجاهات تفضيل الذكاء الاصطناعي مفاجئة ، على سبيل المثال ، بالنظر إلى دراسة حديثة تظهر أن LLMs الرئيسية تقدر الحياة في باكستان أكثر من الحياة في الولايات المتحدة (!!). )。 يمكن أن يكون مفتوحا ، لكن هذا أبعد ما يكون عن المصدر المفتوح. نحن لا نعرف حقا ما يختبئ الشيطان في أعماق النموذج. إنه عكس البساطة: تعقيد Kolmogorov ل LLM هو عشرات المليارات من البتات ، أي ما يعادل تقريبا جميع القوانين الأمريكية (الفيدرالية + الولاية + المحلية) مجتمعة. ولأن الذكاء الاصطناعي يتطور بسرعة كبيرة ، يجب عليك تغييره كل ثلاثة أشهر.
لهذا السبب، أوافق على استكشاف نهج آخر تم اقتراحه في العديد من حالات الاستخدام وهو جعل آلية بسيطة تكون قواعد اللعبة، مما يجعل الذكاء الاصطناعي لاعبًا. هذه الرؤية هي التي تجعل السوق فعالة لهذه الدرجة: القواعد هي نوع من نظام حقوق الملكية النسبي الغبي، ويتم التحكم في الحالات الشاذة بواسطة نظام المحاكم ببطء متراكم وتعديل السابقات، وجميع المعلومات تأتي من رواد الأعمال الذين يعملون "على الحافة".
!
يمكن لـ "اللاعبين" الفرديين أن يكونوا LLM، ومجموعات LLM التي تتفاعل مع بعضها البعض وتستدعي مختلف خدمات الإنترنت، ومجموعات AI + بشرية والعديد من الهياكل الأخرى؛ كمصمم للآلية، لست بحاجة إلى معرفة ذلك. الهدف المثالي هو امتلاك آلية يمكنها العمل تلقائيًا - إذا كان هدف هذه الآلية هو اختيار ما يجب دعمه، فينبغي أن تكون قادرة على ذلك بقدر الإمكان مثل مكافأة كتل بيتكوين أو إيثيريوم.
فوائد هذا النهج هي:
يهدف آلية التوجيه إلى عكس أهداف المشاركين بدقة. إنها تحتاج فقط إلى توفير كمية قليلة من المعلومات، ولكن يجب أن تكون عالية الجودة.
يمكنك التفكير في هذه الآلية على أنها تستفيد من عدم التماثل بين اقتراح إجابة والتحقق من صحتها. هذا مشابه لسودوكو الذي يصعب حله ، لكن من السهل التحقق من صحة الحل. (i) عليك إنشاء سوق مفتوح للاعبين للعمل ك "حل للمشكلات" ، ومن ثم (ii) الحفاظ على آلية يديرها الإنسان لأداء المهمة الأبسط بكثير المتمثلة في التحقق من صحة الحل المقترح.
فوتارشي
تم اقتراح Futarchy في الأصل من قبل روبن هانسون وتعني "التصويت من أجل القيمة ، ولكن الرهان من أجل الإيمان". تختار آلية التصويت مجموعة من الأهداف (التي يمكن أن تكون موجودة ، ولكن فقط إذا كان يجب أن تكون قابلة للقياس) ثم تجمعها في مقياس M. عندما تحتاج إلى اتخاذ قرار (لنفترض نعم / لا للتبسيط) ، فإنك تحدد السوق الشرطي: تطلب من الناس المراهنة على ما إذا كان (i) سيختار نعم أو لا ، (ii) إذا اخترت نعم ، قيمة M ، وإلا صفر ، (iii) قيمة M إذا تم تحديد NO ، وإلا فهي صفر. باستخدام هذه المتغيرات الثلاثة ، يمكنك تحديد ما إذا كان السوق يعتقد أن نعم أو لا أكثر ملاءمة لقيمة M.
!
"سعر السهم في الشركة" (أو بالنسبة للعملات المشفرة، سعر الرمز) هو المؤشر الأكثر استشهاداً عادةً، لأنه من السهل فهمه وقياسه، ولكن هذا الآلية يمكن أن تدعم العديد من المؤشرات: مستخدمو النشاط الشهري، وسطيات شعور السعادة المُبلغ عنها ذاتياً لبعض الفئات، وبعض المؤشرات اللامركزية القابلة للقياس وغيرها.
تم اختراع Futarchy في الأصل قبل عصر الذكاء الاصطناعي. ومع ذلك ، فإن Futarchy يتناسب تماما مع نموذج "الحلول المعقدة ، المدققين البسيطين" الموصوف في القسم السابق ، ويمكن أن يكون المتداولون في Futarchy أيضا ذكاء اصطناعيا (أو مزيجا من الذكاء البشري + الاصطناعي). يتمثل دور "الحلال" (متداول السوق التنبئي) في تحديد كيفية تأثير كل خطة مقترحة على قيمة المؤشر المستقبلي. إنه صعب. إذا كان الحل صحيحا ، فإنهم يكسبون المال ، وإذا كان الحل مخطئا ، فإنهم يخسرون المال. يحتاج المدققون (الأشخاص الذين يصوتون على مؤشر ، إذا لاحظوا أن المقياس "مزور" أو قديم ، فقم بضبط المقياس وتحديد القيمة الفعلية للمقياس في وقت ما في المستقبل) فقط للإجابة على السؤال الأبسط "ما هي قيمة المقياس الآن؟"
تقطير الحكم البشري
تقييد تقييم البشر هو نوع من الآليات، ويعمل على النحو التالي. هناك الكثير (تخيل: 1000000) من الأسئلة تحتاج إلى إجابة. الأمثلة الطبيعية تشمل:
لديك فريق يمكنه الإجابة على هذه الأسئلة ، ولكن على حساب إنفاق الكثير من الجهد على كل إجابة. أنت تطلب فقط من الفريق الإجابة على بعض الأسئلة (على سبيل المثال ، إذا كان هناك مليون عنصر في القائمة الإجمالية ، فقد يجيب الفريق على 100 منها فقط). يمكنك حتى أن تسأل الفريق سؤالا غير مباشر: لا تسأل ، "ما هي النسبة المئوية من إجمالي رصيد أليس الذي يجب أن تحصل عليه؟" بدلا من ذلك ، اسأل ، "هل يجب أن تحصل أليس أو بوب على المزيد من الائتمان ، وبأي مقدار؟" عند تصميم آلية هيئة المحلفين ، يمكنك إعادة استخدام الآليات المجربة والحقيقية في العالم الحقيقي ، مثل لجان المنح والمحاكم (لتحديد قيمة الأحكام) والتقييمات ، وبالطبع ، يمكن للمشاركين في هيئة المحلفين أنفسهم استخدام أدوات بحث الذكاء الاصطناعي جديدة لمساعدتهم في العثور على إجابات.
يمكنك بعد ذلك السماح لأي شخص بإرسال قائمة بالإجابات الرقمية على مجموعة الأسئلة بأكملها (على سبيل المثال ، تقديم تقدير لمقدار الائتمان الذي يجب أن يحصل عليه كل مشارك للقائمة بأكملها). يتم تشجيع المشاركين على استخدام الذكاء الاصطناعي لإنجاز هذه المهمة ، ولكن يمكنهم استخدام أي تقنية: الذكاء الاصطناعي ، والهجين بين الإنسان والآلة ، والذكاء الاصطناعي الذي يمكنه الوصول إلى عمليات البحث على الإنترنت وقادر على توظيف بشر آخرين أو عمال ذكاء اصطناعي بشكل مستقل ، المحسنة عبر الإنترنت ، وما إلى ذلك.
بمجرد أن يقدم كل من مزود القائمة الكاملة والمحلف إجاباتهما ، يتم التحقق من القائمة الكاملة مقابل إجابات هيئة المحلفين ، ويتم استخدام مجموعة معينة من القائمة الكاملة الأكثر توافقا مع إجابات هيئة المحلفين كإجابة نهائية.
تختلف آلية الحكم البشري للتقطير عن آلية futarchy ، ولكن هناك بعض أوجه التشابه المهمة:
!
مثال للعبة اللعب البشري لتوزيع الائتمانات ، راجع الكود الخاص بـ Python هنا. يتطلب البرنامج منك أن تكون عضوًا في هيئة المحلفين ويتضمن قائمة كاملة مُضمّنة مسبقًا في الكود تضم توليفة خطية من الإجابات الكاملة التي تحددها الهيئة المحلفة. في هذه الحالة ، الجمع الفائز هو 0.199 * إجابة كلود + 0.801 * إجابة ديبسيك ؛ هذه التوليفة تتوافق أكثر من أي نموذج فردي مع إجابة هيئة المحلفين. ستكون هذه العوامل أيضًا مكافأة للمقدمين.
في هذا المثال "هزيمة سورون"، تتجلى جوانب "الإنسان كعجلة قيادة" في اثنين من الأماكن. أولاً، تم تطبيق التقييم البشري عالي الجودة على كل مشكلة، على الرغم من أن ذلك ما زال يستخدم هيئة المحلفين كـ "مقيم إداري". ثانيًا، هناك آلية تصويت ضمنية تقرر ما إذا كان "هزيمة سورون" هو الهدف الصحيح (بدلاً من، على سبيل المثال، محاولة التحالف مع سورون، أو تسليم جميع الأراضي شرق نهر مهم له كتنازل للسلام). هناك أيضًا حالات أخرى لتطبيقات التقييم البشري المقتصرة، حيث يكون دور هيئة المحلفين أكثر مباشرة ويتضمن قيمًا: على سبيل المثال، تخيل منصة تواصل اجتماعي متناثرة (أو مجتمع فرعي)، حيث يكون دور هيئة المحلفين هو وسم المشاركات العشوائية في المنتديات على أنها مطابقة أو غير مطابقة لقواعد المجتمع.
في نموذج تقييم قابلية تبخر البشرية، هناك بعض المتغيرات المفتوحة:
بشكل عام ، الهدف هو اتخاذ آليات الحكم البشري المعروفة بأنها تعمل ، ويتم تقليلها إلى الحد الأدنى من التحيز ، وقد صمدت أمام اختبار الزمن (على سبيل المثال ، تخيل كيف أن الهيكل العدائي لنظام المحاكم يشمل طرفين في نزاع لديهما الكثير من المعلومات ولكنهما متحيزان ، وقاض لديه كمية صغيرة من المعلومات ولكن قد لا يكون متحيزا) ، واستخدام سوق الذكاء الاصطناعي مفتوح كمؤشر عالي الدقة ومنخفض التكلفة للغاية لهذه الآليات (على غرار الطريقة التي يعمل بها نموذج النبوءة الكبرى "التقطير").
تمويل عميق (deep funding)
التمويل العميق هو تطبيق حكم التقطير البشري لملء السؤال "ما هي النسبة المئوية لائتمان X الذي ينتمي إلى Y؟" مشكلة الترجيح في الجزء العلوي من الرسم البياني.
أسهل طريقة هي شرح مباشر باستخدام مثال:
!
ناتج مثال التمويل العميق المكون من مستويين: أصول أفكار Ethereum. تحقق من كود بايثون هنا.
هنا الهدف هو تخصيص الشرف للمساهمات الفلسفية في العقائد الإيثريوم. دعونا نلقي نظرة على مثال:
ويقصد بهذا النهج أن يكون قابلا للتطبيق على المجالات التي يستند فيها العمل إلى العمل السابق ويتسم بدرجة عالية من الوضوح الهيكلي. الأوساط الأكاديمية (فكر: الرسوم البيانية للاستشهاد) والبرامج مفتوحة المصدر (فكر: تبعيات المكتبات والشوك) مثالان طبيعيان.
هدف نظام تمويل العمق الذي يعمل بشكل جيد هو إنشاء وصيانة رسم بياني عالمي، حيث يمكن لأي ممول مهتم بدعم مشروع معين إرسال الأموال إلى عنوان يمثل تلك العقدة، وتنتشر الأموال تلقائيًا وفقًا لأوزان الحواف في الرسم البياني إلى تبعياتها (وتتكرر إلى تبعياتها وما إلى ذلك).
يمكنك تخيل بروتوكول غير مركزي يستخدم جهاز تمويل عميق مضمن لإصدار رموزه: ستختار الحكومة اللامركزية داخل البروتوكول هيئة محلفين ستدير آلية التمويل العميق، لأن البروتوكول سيصدر الرموز تلقائيًا ويودعها في العقد المقابل له. من خلال ذلك، يكافأ البروتوكول برمجياً جميع المساهمين المباشرين وغير المباشرين به، مما يجعل الشخص يتذكر كيف يكافأ بيتكوين أو إثيريوم بلوك ريوارد نوعًا معينًا من المساهمين (المُعدنين) بالطريقة نفسها. من خلال التأثير على وزن الحواف، يمكن للهيئة المحلفين تعريف أنواع المساهمات التي تُقدّرها باستمرار. يمكن أن يكون هذا الآلية بديلاً غير مركزيًا ومستدامًا على المدى الطويل للتعدين، أو المبيعات، أو توزيع الهبات مرة واحدة.
زيادة الخصوصية
عادةً ما يتعين لاتخاذ قرار صحيح بشأن المشكلة المذكورة في المثال أعلاه القدرة على الوصول إلى المعلومات الخاصة: سجلات الدردشة الداخلية للمؤسسة، والمعلومات المقدمة سرًا من أعضاء المجتمع، وما إلى ذلك. أحد فوائد "استخدام وحيد للذكاء الاصطناعي"، خصوصًا في البيئات ذات الحجم الصغير، هو أن يكون من الأسهل للذكاء الاصطناعي الوصول إلى المعلومات بدلاً من تفشيها للجميع.
لكي يعمل الحكم البشري للتقطير أو التمويل العميق في هذه الحالات ، يمكننا محاولة استخدام التشفير لمنح الذكاء الاصطناعي الوصول الآمن إلى المعلومات الخاصة. الفكرة هي استخدام (MPC) حسابية متعددة الأطراف ، أو (FHE) تشفير متجانسة بالكامل ، أو بيئة تنفيذ موثوقة (TEE) ، أو آليات مماثلة لتوفير معلومات خاصة، ولكن فقط إذا كان مخرجها الوحيد هو "التزام القائمة الكاملة" الذي يذهب مباشرة إلى الميكانيكي.
إذا فعلت ذلك، يجب أن تقيد مجموعة الآلية بنموذج الذكاء الاصطناعي (بدلاً من الإنسان أو مزيج الإنسان والذكاء الاصطناعي، لأنه لا يمكنك السماح للإنسان برؤية البيانات)، ومخصص لتشغيل النماذج في بعض الأساسات المحددة (مثل MPC و FHE والأجهزة الموثوق بها). إحدى الاتجاهات البحثية الرئيسية هي العثور على إصدارات عملية كافية ومعنوية بما فيه الكفاية في وقت قريب.
مزايا تصميم المحرك + عجلة القيادة
هناك العديد من الفوائد الواعدة لمثل هذا التصميم. إلى حد بعيد ، فإن الفائدة الأكثر أهمية هي أنها تسمح ببناء DAOs ، مما يمنح الناخبين البشريين التحكم في الاتجاه ، لكنهم لن يتعثروا بسبب الكثير من القرارات. إنهم يتوصلون إلى حل وسط حيث لا يتعين على الجميع اتخاذ قرارات N ، ولكن لديهم القدرة على تجاوز مجرد اتخاذ قرار (كيف يعمل المندوبون عادة) وإثارة تفضيلات غنية يصعب التعبير عنها مباشرة.
بالإضافة إلى ذلك ، يبدو أن هذه الآلية لها خاصية تجانس الحوافز. ما أعنيه ب "تجانس الحوافز" هنا هو مزيج من عاملين:
يستمد مصطلحا الالتباس والانتشار هنا من علم المعلوماتية، وهما صفتان رئيسيتان لأمان كلمة المرور ووظيفة التجزئة.
ومن الأمثلة الجيدة على تجانس الحوافز في العالم الحقيقي اليوم سيادة القانون: فبدلا من اتخاذ إجراءات منتظمة في شكل "200 مليون دولار لشركة أليس" ، و "100 مليون دولار لشركة بوب" على أساس منتظم ، يمرر أعلى الحكومة قواعد مصممة ليتم تطبيقها بالتساوي على عدد كبير من المشاركين ، والتي يتم تفسيرها بعد ذلك من قبل مجموعة أخرى من الجهات الفاعلة. عندما ينجح هذا النهج ، فإن الفائدة هي أنه يقلل بشكل كبير من فوائد الرشوة وغيرها من أشكال الفساد. عندما يتم انتهاكها ، وهو ما يحدث غالبا في الممارسة العملية ، يتم تضخيم هذه المشاكل بسرعة كبيرة.
يبدو أن الذكاء الاصطناعي سيكون جزءًا هامًا من المستقبل، وهذا سيكون جزءًا لا مفر منه من حكم المستقبل. ومع ذلك، إذا كنت تسمح للذكاء الاصطناعي بالمشاركة في الحكم، فهذا يحمل مخاطر واضحة: الذكاء الاصطناعي لديه تحيز، وقد يتعمد تدميره خلال عملية التدريب، ونظرًا لسرعة تطور تقنية الذكاء الاصطناعي، قد يكون "منح السلطة للذكاء الاصطناعي" يعني فعليًا "منح السلطة لأولئك الذين يرقون الذكاء الاصطناعي". يوفر التقويم البشري المقوى بديلاً للتقدم، مما يتيح لنا استخدام قوة الذكاء الاصطناعي بطريقة سوقية حرة، مع الحفاظ في الوقت نفسه على السيطرة الديمقراطية للبشر.
نشكر بشكل خاص ديفانش ميهتا ودافيدي كرابيس وجوليان زاويستوفسكي على التغذية الراجعة والمراجعة، وتينا زين وشو والترز وغيرهم على المناقشة.