لماذا يعتبر الحوسبة المتمايزة سباقة مهمة لتطوير الذكاء الاصطناعي؟

متقدم1/7/2025, 6:46:55 AM
يغطي مقال اليوم القطاع الناشئ ولكن في كثير من الأحيان يُفهم بشكل خاطئ للحوسبة اللامركزية في عالم العملات المشفرة. نغوص في منظر البنية التحتية للذكاء الاصطناعي لفهم أين يمكن للبدائل اللامركزية المنافسة بشكل واقعي.

إعادة توجيه العنوان الأصلي: Decentralised Compute

يتناول مقال اليوم القطاع الناشئ ولكن غالبًا ما يُفهم بشكل خاطئ للحوسبة اللامركزية في عالم العملات المشفرة. نقوم بالغوص في منظر البنية التحتية للذكاء الاصطناعي لفهم مكانة البدائل اللامركزية التي يمكن أن تنافس بشكل واقعي.

نستكشف الأسئلة مثل: هل يمكن تدريب الذكاء الاصطناعي العام على الشبكات الموزعة؟ ما هي المزايا الفريدة التي تقدمها الشبكات الرقمية؟ ولماذا قد يصبح البنية التحتية للحوسبة غير المشروعة بنفس الأهمية للذكاء الاصطناعي كما هو الحال بالنسبة للبيتكوين في المالية.

نمط شائع ستلاحظه في المقالة هو النمو التصاعدي لكل شيء يتعلق بالذكاء الاصطناعي - الاستثمار والحوسبة والقدرات. يتزامن هذا مع عودة الأسواق الرقمية والوعي بها. نحن متحمسون جدًا لتقاطع هاتين الموجتين التكنولوجيتين الرئيسيتين.

مرحبا!

في يوم مشمس في ممفيس، تينيسي، قامت طائرة تجسس بمروحة بالتحليق مرارًا فوق مبنى صناعي، حيث كان ركابها يلتقطون بشكل هستيري صورًا للمرافق أدناه. لم تكن هذه مشهدًا من التجسس في الحرب الباردة ولكن من عام 2024. الهدف لم يكن تثبيتًا عسكريًا أو موقعًا لتخصيب اليورانيوم ولكن مصنعًا سابقًا للأجهزة الكهربائية يضم أحد أقوى أجهزة الكمبيوتر الفائقة في العالم. وكان ركاب الطائرة ليسوا عملاء أجانب ولكن موظفي شركة مركز بيانات منافسة.

كل بضعة عقود، تظهر تكنولوجيا تحويلية لديها القدرة على تغيير مسار الحضارة بلا شك. ما يليه هو سباق بين أقوى الكيانات في العالم لتحقيق هذه التكنولوجيا أولاً. الأرباح هي ضخمة للغاية، وتداعيات الفشل مدمرة للغاية، لذلك يقوم هذه الكيانات بسرعة تحريك كل أدواتها ومواردها، من المواهب البشرية ورأس المال، نحو اتقان التكنولوجيا.

في القرن العشرين، تناسب تلك التقنيات البارزة هذا التعريف - الأسلحة النووية واستكشاف الفضاء. سار سباق استغلال هذه التقنيات بأقوى الدول الأمة. تأكدت انتصارات الولايات المتحدة في كليهما من مكانتها كقوة فائقة سيطرت على العالم، مما أدى إلى عصر من الازدهار الفائق. بالنسبة للمهزومين - ألمانيا النازية والاتحاد السوفيتي - كانت النتائج مدمرة، حتى مميتة.

المصنع K-25 العملاق بمساحة 44 فدان في أوك ريدج، تينيسي، الولايات المتحدة، حيث تم إنتاج اليورانيوم لأول سلاح نووي.مصدر)

كان لانتصار أميركا ثمن باهظ. كلف مشروع مانهاتن ما يقرب من 2 مليار دولار (حوالي 30 مليار دولار معدلة للتضخم) ووظف أكثر من 120،000 شخص - واحد من كل ألف أمريكي. ويتطلب سباق الفضاء موارد أكبر. كلف برنامج أبولو 28 مليار دولار في ستينيات القرن العشرين (حوالي 300 مليار دولار في أموال اليوم) وشارك فيه أكثر من 400،000 شخص - واحد من كل 490 أمريكيا. في ذروتها في عام 1966 ، سيطرت ناسا على 4.4٪ من الميزانية الفيدرالية الأمريكية بأكملها.

الأبولو 11، قبل إقلاعه في مهمة الوصول إلى القمر (مصدر)

أطلق ChatGPT في عام 2022 فترة جديدة من السباق بأبعاد تحول الحضارة - السعي وراء الذكاء الاصطناعي الفائق (ASI). بينما يتم تضمين AI بالفعل في الحياة اليومية - إدارة تغذية وسائل التواصل الاجتماعي ، وتوصيات Netflix ، ومرشحات البريد العشوائي - فإن ظهور نماذج اللغة الكبيرة (LLMs) يعد بتحول كل شيء: الإنتاجية البشرية ، وخلق الإعلام ، والبحث العلمي ، والابتكار نفسه.

في هذه المرة، ليست الدول الأمة المتنافسة (على الأقل حتى الآن) بل أكبر الشركات في العالم (مايكروسوفت، جوجل، ميتا، أمازون)، وأحدث الشركات الناشئة (أوبن إيه آي، أنثروبيك)، وأغنى شخص (إيلون ماسك). بينما تقوم التكنولوجيا الكبيرة بتوجيه رأس المال الغير مسبوق في بناء البنية التحتية لتدريب نماذج أكثر طاقة، تقوم الشركات الناشئة بتأمينرقم قياسيتمويل رأس المال المغامر. إيلون هو، حسنًا،تفعل أشياء إيلونمركز البيانات تحت المراقبة كان ينتمي إلى شركته، xAI.

ثم هناك أي شخص آخر - الشركات والشركات الصغيرة والشركات الناشئة - الذين قد لا يطمحون إلى بناء ASI ولكنهم حريصون على تسخير القدرات المتطورة التي تفتحها الذكاء الاصطناعي لتحسين أعمالهم أو تعطيل صناعة أو إنشاء أعمال جديدة تماما. إن المكافآت المحتملة هائلة لدرجة أن الجميع يتدافعون للمطالبة بنصيبهم من هذا الاقتصاد الجديد القائم على الذكاء الآلي.

في قلب ثورة الذكاء الاصطناعي يكمن المكون الأساسي الأكثر أهمية: وحدة معالجة الرسومات (GPU). تم تصميم هذا الشريحة الحاسوبية المتخصصة في الأصل لتشغيل ألعاب الفيديو، وأصبحت سلعة الأكثر طلبًا في العالم. الطلب على وحدات معالجة الرسومات (GPUs) هائل لدرجة أن الشركات غالبًا ما تتحملقوائم انتظار تمتد لعدة أشهرفقط لاقتناء بعض. تسبب هذا الطلب في إطلاق NVIDIA، مصنعهم الأساسي، في موقع أكثر الشركات قيمة في العالم.

بالنسبة للشركات غير القادرة أو الراغبة في شراء وحدات المعالجة الرسومية مباشرة، أصبح استئجار قوة الحساب هو الخيار الأفضل التالي. وقد دفع هذا بارتفاع مزودي السحابة الذكية للذكاء الاصطناعي - الشركات التي تدير مراكز بيانات متطورة مصممة لتلبية الاحتياجات الحسابية لازدهار الذكاء الاصطناعي. ومع ذلك، فإن الطلب المتزايد وطبيعته غير المتوقعة يعني أنه لا يوجد ضمان للتسعير أو التوفر.

أنا جادلأن العملات المشفرة تعمل كتكنولوجيا "كوزيان"، مصممة لـ "تزييت العجلات، وتعبيد الطرق، وتعزيز الجسور" لازدهار الابتكارات المختلفة الأخرى. مع ظهور الذكاء الاصطناعي كقوة تحولية في عصرنا، فإن ندرة وتكلفة الدخول المبالغ فيها لوحدات المعالجة الرسومية تشكل عائقا أمام الابتكار. عدة شركات تعمل في مجال العملات المشفرة تتدخل بهدف تجاوز هذه العقبات من خلال حوافز مبنية على تقنية سلسلة الكتل.

في مقال اليوم ، نتراجع أولا عن التشفير لفحص أساسيات البنية التحتية الذكاء الاصطناعي الحديثة - كيف تتعلم الشبكات العصبية ، ولماذا أصبحت وحدات معالجة الرسومات ضرورية ، وكيف تتطور مراكز البيانات اليوم لتلبية المتطلبات الحسابية غير المسبوقة. بعد ذلك ، نتعمق في حلول الحوسبة اللامركزية ، ونستكشف أين يمكنهم التنافس بشكل واقعي مع مقدمي الخدمات التقليديين ، والمزايا الفريدة التي توفرها شبكات التشفير ، ولماذا - على الرغم من أنها لن تعطينا AGI - ستظل ضرورية لضمان بقاء فوائد الذكاء الاصطناعي في متناول الجميع.

لنبدأ بسبب أهمية وحدات معالجة الرسومات (GPUs) في المقام الأول.

وحدات معالجة الرسومات

هذا هو ديفيد، تمثال من الرخام يبلغ طوله 17 قدمًا ويزن 6 طن، وتم إنشاؤه بواسطة العبقري الإيطالي مايكل أنجلو في عصر النهضة. يصور بطل الكتاب المقدس من قصة داود وجاليات ويعتبر رائعًا لتمثيله الكمال لتشريح الإنسان والاهتمام المتقن بالمنظور والتفاصيل.

مثل جميع التماثيل الرخامية، بدأ ديفيد كقطعة رخام كرارا هائلة وخشنة. للوصول إلى شكله النهائي السامي، كان على ميكيلانجيلو أن يقوم بتكسير الحجر بشكل منهجي. بدأ بضربات عريضة وجريئة لتحديد الشكل البشري الأساسي، وتقدم إلى تفاصيل أدق تدريجياً - منحنى عضلة، توتر في الوريد، التعبير الدقيق للإصرار في العيون. استغرق ميكيلانجيلو ثلاث سنوات لتحرير ديفيد من الحجر.

لكن لماذا نناقش شخصية من الرخام عمرها 500 عام في مقال حول الذكاء الاصطناعي؟

مثل ديفيد، تبدأ كل شبكة عصبية كامحة بوتيرة نقاط مُبدئية بأرقام عشوائية (أوزان)، شكلها لا يُميزها عن كتلة الرخام الضخمة.

يتم تغذية هذا النموذج الخام بشكل متكرر ببيانات التدريب - حالات لا حصر لها من المدخلات المقترنة بمخرجاتها الصحيحة. تؤدي كل نقطة بيانات تمر عبر الشبكة إلى تشغيل آلاف العمليات الحسابية. في كل عقدة (خلية عصبية) ، تضاعف الاتصالات الواردة قيمة الإدخال في وزن الاتصال ، وتجمع هذه المنتجات ، وتحول النتيجة من خلال "وظيفة التنشيط" التي تحدد قوة إطلاق الخلايا العصبية.

تماما كما كان مايكل أنجلو يتراجع ، ويقيم عمله ، ويصحح المسار ، تخضع الشبكات العصبية لعملية صقل. بعد كل تمريرة أمامية ، تقارن الشبكة مخرجاتها بالإجابة الصحيحة وتحسب هامش الخطأ الخاص بها. من خلال عملية تسمى الانتشار العكسي ، يقيس مقدار مساهمة كل اتصال في الخطأ ، ومثل ضربات إزميل مايكل أنجلو ، يقوم بإجراء تعديلات على قيمه. إذا أدى الاتصال إلى تنبؤ غير صحيح ، فإن تأثيره ينخفض. إذا ساعد في الوصول إلى الإجابة الصحيحة ، فإن تأثيره يتعزز.

عندما يمر جميع البيانات من خلال الشبكة (إكمال خطوة إلى الأمام وخلفية واحدة لكل نقطة بيانات)، يعتبر ذلك نهاية "الحقبة". يتكرر هذا العملية عدة مرات، حيث تقوم كل مرور بتحسين فهم الشبكة. خلال الحقب الأولى، تكون التغييرات في الوزن كبيرة حيث تقوم الشبكة بتعديلات واسعة - تمامًا مثل ضربات الأداة الأولى الجريئة. في الحقب لاحقة، تصبح التغييرات أكثر دقة، مع إتقان الاتصالات لتحقيق الأداء الأمثل - تمامًا مثل اللمسات النهائية الدقيقة التي أظهرت تفاصيل دافيد.

أخيرًا ، بعد الآلاف أو الملايين من التكرارات ، يظهر النموذج المدرب. مثل ديفيد واقفًا بفخر في شكله النهائي ، يتحول الشبكة العصبية من الضجيج العشوائي إلى نظام قادر على التعرف على الأنماط وإجراء التوقعات وإنشاء صور للقطط تركب الدراجات البخارية أو تمكين الكمبيوتر من فهم اللغة البشرية والاستجابة لها.

لماذا وحدات المعالجة الرسومية؟

ميكيلانجيلو، الذي يعمل بمفرده على داود، لا يستطيع أن يوجه ضربة واحدة بالمنزلق في كل مرة، حيث يتطلب كل ضربة حسابات دقيقة للزاوية والقوة والموضع. هذه الدقة المتنقلة هي السبب في استغراقه ثلاث سنوات متعبة لإكمال تحفته. ولكن تخيلوا أن هناك آلاف من النحاتين الماهرون يعملون على داود بتنسيق مثالي - فريق واحد على تجعيد الشعر، وآخر على عضلات الجذع، ومئات آخرون على التفاصيل المعقدة للوجه واليدين والقدمين. هذا الجهد المتوازي سيضغط على تلك الثلاث سنوات في أيام قليلة فقط.

بالمثل، على الرغم من أن وحدات المعالجة المركزية قوية ودقيقة، إلا أنها يمكن أن تقوم بعملية حسابية واحدة في كل مرة. تدريب الشبكة العصبية لا يتطلب عملية حسابية معقدة واحدة فقط ولكن مئات الملايين من العمليات البسيطة - في الغالب الضرب والجمع في كل عقدة. على سبيل المثال، يمكن تدريب الشبكة العصبية العينية المذكورة سابقًا، التي تحتوي على 18 عقدة فقط وحوالي 100 اتصال (معلمات)، على وحدة المعالجة المركزية في الوقت المناسب.

ومع ذلك، فإن أقوى النماذج الحديثة اليوم، مثل GPT-4 من OpenAI، تحتوي على 1.8 تريليون معلم تقريبًا! حتى النماذج الحديثة الأصغر حجما تحتوي على مليار معلم على الأقل. سيستغرق تدريب هذه النماذج بحساب واحد في كل مرة قرون من الزمان. هنا حيث تتفوق وحدات معالجة الرسومات: يمكنها أداء عدد كبير من العمليات الرياضية البسيطة بشكل متزامن، مما يجعلها مثالية لمعالجة عدة مقاصد لشبكات عصبية متوازية.

تعتبر الوحدات المعالجة الرسومية الحديثة قوية بشكل لا يصدق. على سبيل المثال ، تتألف أحدث وحدة معالجة رسومية من NVIDIA ، B200 ، من أكثر من 200 مليار مفتاح ، وتدعم 2،250 تريليون عملية حسابية موازية في الثانية (2،250 تيرافلوبس). يمكن لوحدة المعالجة الرسومية B200 الواحدة التعامل مع النماذج التي تحتوي على ما يصل إلى 740 مليار معلمة. تمثل هذه الآلات إنجازات الهندسة الحديثة ، مما يفسر لماذا شهدت NVIDIA ، التي تبيع كل وحدة بقيمة 40،000 دولار ، ارتفاع سعر سهمها بنسبة 2،500٪ في خمس سنوات.

جينسن هوانغ يقدم NVIDIA B200

ومع ذلك، حتى هذه الآلات القوية لا يمكن أن تدرب نماذج الذكاء الاصطناعي بمفردها. تذكر أنه خلال التدريب، يجب أن تمر كل حالة بيانات من خلال النموذج في دورة إلى الأمام وإلى الوراء بشكل فردي. تُدرب النماذج اللغوية الكبيرة الحديثة (LLMs) على مجموعات بيانات تشمل مجمل الإنترنت. فعلى سبيل المثال، تم معالجة GPT-4 تقديريًا 12 تريليون رمز (حوالي 9 تريليون كلمة)، ومن المتوقع أن تتمكن الجيل القادم من النماذج من التعامل مع ما يصل إلى 100 تريليون رمز. سيستغرق استخدام معالج الرسوميات الواحد لمثل هذا الحجم الهائل من البيانات مئات السنين.

يكمن الحل في إضافة طبقة أخرى من التوازي - إنشاء مجموعات GPU حيث يتم توزيع مهام التدريب بين العديد من وحدات معالجة الرسومات التي تعمل كنظام موحد. يمكن موازاة أعباء عمل التدريب النموذجية بثلاث طرق:

توازي البيانات: عدة وحدات معالجة الرسومات تحتفظ كل منها بنسخة كاملة من نموذج الشبكة العصبية أثناء معالجة أجزاء مختلفة من بيانات التدريب. تعالج كل وحدة معالجة رسومات دفعة البيانات المخصصة لها بشكل مستقل قبل المزامنة بشكل دوري مع جميع وحدات معالجة الرسومات الأخرى. خلال هذه الفترة من المزامنة، تتواصل وحدات معالجة الرسومات مع بعضها البعض للعثور على متوسط جماعي لأوزانها ومن ثم تحديث أوزانها الفردية بحيث تكون جميعها متطابقة. ونتيجة لذلك، تستمر في التدريب على دفعة بياناتها بشكل فردي قبل أن يحين وقت المزامنة مرة أخرى.

مع زيادة حجم النماذج، يمكن لنسخة واحدة أن تصبح كبيرة جدًا لتناسب بطاقة الرسومات الواحدة. على سبيل المثال، يمكن أن تحتوي بطاقة الرسومات B200 الأحدث فقط على 740 مليار معلمة في حين أن GPT-4 هي نموذج يحتوي على 1.8 تريليون معلمة. عدم توازن البيانات عبر بطاقات الرسومات الفردية لا يعمل في هذه الحالة.

توازي الموتر: يعالج هذا النهج قيد الذاكرة من خلال توزيع عمل وأوزان كل طبقة نموذج عبر وحدات معالجة رسومات متعددة. تتبادل وحدات معالجة الرسومات الحسابات الوسيطة مع المجموعة بأكملها أثناء كل خطوة انتشار للأمام والخلف. عادة ما يتم تجميع وحدات معالجة الرسومات هذه في خوادم من ثماني وحدات ، متصلة عبر NVLink - اتصال NVIDIA المباشر عالي السرعة من وحدة معالجة الرسومات إلى وحدة معالجة الرسومات. يتطلب هذا الإعداد نطاقا تردديا عاليا (يصل إلى 400 جيجابت / ثانية) ، واتصالات بزمن انتقال منخفض بين وحدات معالجة الرسومات. تعمل مجموعة الموتر بشكل فعال كوحدة معالجة رسومات ضخمة واحدة.

توازي خط الأنابيب: تقسم هذه الطريقة النموذج عبر وحدات معالجة رسومات متعددة ، حيث تتعامل كل وحدة معالجة رسومات مع طبقات محددة. تتدفق البيانات عبر وحدات معالجة الرسومات هذه بالتتابع ، مثل سباق التتابع حيث يدير كل عداء (GPU) حصته قبل تمرير العصا. يعد توازي خطوط الأنابيب فعالا بشكل خاص لتوصيل خوادم 8-GPU المختلفة داخل مركز البيانات ، باستخدام شبكات InfiniBand عالية السرعة للاتصال بين الخوادم. في حين أن متطلبات الاتصال الخاصة بها تتجاوز توازي البيانات ، إلا أنها تظل أقل من التبادلات المكثفة لوحدة معالجة الرسومات إلى وحدة معالجة الرسومات في Tensor Parallelism.

مقدار العناقيد الحديثة مذهل. GPT-4 ، بمعلمات تبلغ 1.8 تريليون و 120 طبقة ، استدعى 25،000 من وحدات المعالجة الرسومية A100 للتدريب. استغرق العملية ثلاثة أشهر وتكلفة تزيد عن 60 مليون دولار. تعتبر وحدات المعالجة الرسومية A100 جيلين قديمتين ؛ استخدام وحدات المعالجة الرسومية B200 الحالية سيتطلب فقط حوالي 8,000 وحدة و 20 يومًا من التدريب. مجرد مظهر آخر لمدى سرعة تطور الذكاء الاصطناعي.

لكن فئة نماذج GPT-4 هي ألعاب قديمة الآن. يجري التدريب على الجيل التالي من النماذج المتقدمة في مراكز البيانات التي تضم مجموعات من 100000 وحدة معالجة رسومات B100 أو H100 (الأخيرة أقدم بجيل واحد). هذه المجموعات ، التي تمثل أكثر من 4 مليارات دولار من النفقات الرأسمالية لوحدة معالجة الرسومات وحدها ، هي أقوى أجهزة الكمبيوتر العملاقة للبشرية ، حيث توفر ما لا يقل عن أربعة أضعاف قوة الحوسبة الخام لتلك المملوكة للحكومة.

بصرف النظر عن تأمين الحوسبة الأولية ، يواجه الطامحون ASI مشكلة أخرى عند محاولة إعداد هذه المجموعات: الكهرباء. تستهلك كل وحدة من وحدات معالجة الرسومات هذه 700 واط من الطاقة. عندما تجمع بين 100000 منها ، تستهلك المجموعة بأكملها (بما في ذلك الأجهزة الداعمة) أكثر من 150 ميجاوات من الطاقة. لوضع هذا في المنظور الصحيح ، فإن هذا الاستهلاك يساوي استهلاك مدينة يبلغ عدد سكانها 300000 نسمة - مقارنة بنيو أورلينز أو زيورخ.

الجنون لا يتوقف هنا. يعتقد معظم المتقدمين لـ ASI أن قوانين توسيع LLM—مما يشير إلى أن أداء النموذج يتحسن بشكل قابل للتنبؤ مع زيادة حجم النموذج وحجم مجموعة البيانات وحساب التدريب— سيستمر في الصحة. هناك بالفعل خطط لتشغيلات التدريب لنماذج أكثر قوة. بحلول عام 2025 ، من المتوقع أن يتجاوز تكلفة كل عنقود تدريب 10 مليارات دولار. بحلول عام 2027 ، أكثر من 100 مليار دولار. مع اقتراب هذه الأرقام من استثمار الحكومة الأمريكية في برامج أبولو ، يصبح واضحًا لماذا تحقيق الذكاء الصناعي العام يظهر كسباقنا الحاسم في عصرنا.

المقاييس للنماذج التي تبدأ بـ GPT-5 هي تقديرات

مع زيادة استهلاك الكهرباء بنسبة متناسبة مع حجم العناقيد، ستحتاج تشغيلات التدريب في العام المقبل إلى أكثر من 1 جيجاوات من الطاقة. في العام الذي يليه، 10 جيجاوات أو أكثر. وبدون أي مؤشرات على تباطؤ هذا التوسع، من المتوقع أن تستهلك مراكز البيانات تقريبًا4.5% من الإنتاج العالمي بحلول عام 2030الشبكات الكهربائية الحالية، تكافح بالفعل مع متطلبات النموذج الحالي, لا يمكن توليد الطاقة الكافية لمجموعات المستقبل. وهذا يثير سؤالا حرجا: من أين ستأتي هذه القوة؟ تتبع تقنية كبيرة نهجا مزدوجا.

في المدى البعيد ، الحل الوحيد القابل للتطبيق هو أن يقوم المتطلعون إلى الذكاء الاصطناعي بتوليد كهربائيتهم الخاصة. نظرًا لالتزاماتهم المناخية ، يجب أن تكون هذه الطاقة من مصادر متجددة. تبرز الطاقة النووية كحل رئيسي. أمازونتم شراء مؤخرًامجمع مراكز البيانات الذي يعمل بواسطة محطة طاقة نووية بقيمة 650 مليون دولار. مايكروسوفتتم تعيين رئيس للتكنولوجيات النووية و إحياء محطة جزيرة ثلاثة أميال التاريخية. جوجل لديهاالحصول على العديد من المفاعلات النووية الصغيرةمن شركة كايروس باور في كاليفورنيا. سان ألتمان من OpenAI قد دعمت شركات الطاقة مثل هيليون،Exowatt, و أوكلو.

مايكروسوفت تعيد فتح محطة ثري مايل آيلاند النووية (مصدر الصورة)

في حين يتم زراعة بذور الطاقة النووية الآن ، ستستغرق الثمار (أو القوة) عدة سنوات للنمو. ماذا عن متطلبات الطاقة لتوليد النماذج الفورية؟ الحل المؤقت ينطوي على التدريب الموزع عبر عدة مراكز بيانات. بدلاً من تجميع مطالب قوة ضخمة في موقع واحد ، تقوم شركات مثل مايكروسوفت وجوجل بتوزيع مجموعات التدريب الخاصة بها عبر مواقع متعددة.

التحدي، بالطبع، هو جعل هذه الأنظمة الموزعة تعمل معًا بفعالية. حتى بسرعة الضوء، يستغرق البيانات حوالي 43 مللي ثانية للذهاب والإياب من الساحل الشرقي إلى الساحل الغربي في الولايات المتحدة - إلى أبدية في مصطلحات الحوسبة. بالإضافة إلى ذلك، إذا تأخرت حتى رقاقة واحدة بنسبة مثلاً 10٪، فإنه يتسبب في إبطاء عملية التدريب بنفس النسبة.

يكمن الحل في ربط مراكز البيانات عبر مواقع متعددة بشبكات الألياف الضوئية عالية السرعة وتطبيق مجموعة من تقنيات التوازي التي تمت مناقشتها سابقا لمزامنة عملياتها. يتم تطبيق توازي الموتر على وحدات معالجة الرسومات داخل كل خادم ، مما يمكنها من العمل كوحدة واحدة. يتم استخدام توازي خطوط الأنابيب ، مع متطلبات الشبكة المنخفضة ، لربط الخوادم داخل نفس مركز البيانات. وأخيرا، تقوم مراكز البيانات في مواقع مختلفة (يشار إليها باسم "الجزر") بمزامنة معلوماتها بشكل دوري باستخدام توازي البيانات.

في وقت سابق، لاحظنا أن توازن البيانات غير فعال لوحدات معالجة الرسومات الفردية لأنها لا يمكن أن تستوعب النماذج الكبيرة بشكل مستقل. ومع ذلك، يتحول هذا التحول الديناميكي عندما نقوم بتوازن الجزر - كل منها يحتوي على آلاف من وحدات المعالجة المركزية - بدلاً من الوحدات الفردية. يتم توزيع بيانات التدريب عبر كل جزيرة، وتتزامن هذه الجزر بشكل دوري عبر اتصالات الألياف البصرية النسبياً الأبطأ (بالمقارنة مع NVLink و Infiniband).

مراكز البيانات

لنحول تركيزنا من التدريب ووحدات المعالجة الرسومية إلى مراكز البيانات أنفسها.

قبل عشرين عامًا، أطلقت Amazon خدمات الويب Amazon (AWS) - واحدة من أكثر الأعمال التحولية في التاريخ - وأنشأت صناعة جديدة تعرف باسم الحوسبة السحابية. يتمتع قادة السحابة الحاليون (Amazon و Microsoft و Google و Oracle) بسيطرة مريحة، حيث يحققون إجمالي إيرادات سنوية تقرب من 300 مليار دولار بنسبة ربح تتراوح بين 30-40٪. الآن، أنشأ ظهور الذكاء الاصطناعي فرصًا جديدة في سوق بقيت غالبًا على حالها لسنوات.

تختلف المتطلبات الفيزيائية وتعقيد التقنية والاقتصاديات لمراكز بيانات AI التي تعتمد على GPU بشكل كبير عن نظرائها التقليديين.

ناقشنا سابقا كيف أن وحدات معالجة الرسومات المتعطشة للطاقة. وهذا يؤدي إلى أن تكون مراكز البيانات الذكاء الاصطناعي أكثر كثافة في استخدام الطاقة ، وبالتالي إنتاج المزيد من الحرارة. بينما تستخدم مراكز البيانات التقليدية مراوح عملاقة (تبريد الهواء) لتبديد الحرارة ، فإن هذا النهج ليس كافيا ولا قابلا للتطبيق من الناحية المالية للمرافق الذكاء الاصطناعي. بدلا من ذلك ، تتبنى مراكز البيانات الذكاء الاصطناعي أنظمة تبريد سائلة حيث يتم توصيل كتل المياه مباشرة بوحدات معالجة الرسومات والمكونات الساخنة الأخرى لتبديد الحرارة بشكل أكثر كفاءة وهدوءا. (تأتي وحدات معالجة الرسومات B200 مع هذه البنية المدمجة). يتطلب دعم أنظمة التبريد السائل إضافة أبراج تبريد كبيرة ، ومرفق نظام مياه مركزي ، وأنابيب لنقل المياه من وإلى جميع وحدات معالجة الرسومات - وهو تعديل أساسي للبنية التحتية لمركز البيانات.

بالإضافة إلى استهلاك الطاقة الأعلى المطلق ، تتطلب مراكز بيانات AI متطلبات تحميل مختلفة. في حين تحافظ مراكز البيانات التقليدية على استهلاك الطاقة المتوقع ، فإن أنماط استخدام قوة عمل AI أكثر تقلبًا بكثير. يحدث هذا التقلب لأن وحدات معالجة الرسومات تتبادل بين الحين والآخر بين العمل بطاقة 100٪ والتباطؤ إلى الحد الأدنى عندما يصل التدريب إلى نقاط التفتيش ، حيث يتم تخزين الأوزان إما في الذاكرة أو ، كما رأينا سابقًا ، متزامنة مع الجزر الأخرى. تتطلب مراكز بيانات AI بنية تحتية للطاقة متخصصة لإدارة هذه التقلبات في الحمل.

يعد بناء مجموعات GPU أصعب بكثير من بناء سحابة الكمبيوتر العادية. تحتاج وحدات معالجة الرسومات إلى التحدث مع بعضها البعض بسرعة كبيرة. لتحقيق ذلك ، يجب أن تكون معبأة بالقرب من بعضها البعض. يحتاج مرفق الذكاء الاصطناعي النموذجي إلى أكثر من 200000 كابل خاص يسمى وصلات InfiniBand. تسمح هذه الكابلات لوحدات معالجة الرسومات بالتواصل. إذا توقف كابل واحد فقط عن العمل ، إيقاف تشغيل النظام بأكمله. لا يمكن أن تستمر عملية التدريب حتى يتم إصلاح هذا الكابل.

تجعل متطلبات البنية التحتية هذه من المستحيل تقريبا تحديث مراكز البيانات التقليدية بوحدات معالجة الرسومات عالية الأداء لجعلها جاهزة الذكاء الاصطناعي. وستتطلب مثل هذه الترقية إصلاحا هيكليا شبه كامل. بدلا من ذلك ، تقوم الشركات ببناء مراكز بيانات جديدة مصممة خصيصا الذكاء الاصطناعي من الألف إلى الياء ، مع قيام مؤسسات مختلفة بمتابعة ذلك على مستويات مختلفة.

في المقدمة ، تتسابق شركات التكنولوجيا الرائدة لبناء مراكز بيانات الذكاء الاصطناعي الخاصة بها. تستثمر Meta بكثافة في المرافق فقط لتطوير الذكاء الاصطناعي الخاصة بها ، وتتعامل معها على أنها استثمار رأسمالي مباشر لأنها لا تقدم خدمات سحابية. تقوم Microsoft ببناء مراكز ضخمة مماثلة لتشغيل كل من مشاريع الذكاء الاصطناعي الخاصة بها وخدمة العملاء الرئيسيين مثل OpenAI. دخلت Oracle أيضا هذا المجال بقوة ، مما أدى إلى تأمين OpenAI كعميل بارز. تواصل أمازون توسيع بنيتها التحتية ، لا سيما لدعم شركات الذكاء الاصطناعي الناشئة مثل Anthropic. اختارت xAI من Elon Musk ، التي لا ترغب في الاعتماد على شركة أخرى ، بناء مجموعة GPU الخاصة بها 100,000.

داخل مركز بيانات وحدة معالجة الرسومات xAI 100,000 H100 (مصدر)

بجانب الشركات الحالية، تظهر "neoclouds" - مزودي سحابة متخصصين يركزون حصراً على الحوسبة بوحدة المعالجة الرسومية (GPU) لأعباء الذكاء الاصطناعي. يتم تقسيم هذه الneoclouds إلى فئتين متميزتين بناءً على المقياس.

مزودو السحابة الكبيرة، بما في ذلك CoreWeave, Crusoe، وLLama Labs, تشغيل مجموعات تتكون من أكثر من 2،000 وحدة معالجة الرسومات. يميزون أنفسهم عن خدمات السحابة التقليدية بطريقتين: عرض حلول البنية التحتية المخصصة بدلاً من الحزم القياسية، والتطلبات التزام العملاء على المدى الطويل بدلاً من الترتيبات الدفع حسب الاستخدام.

تعتمد نموذجهم الاقتصادي على استغلال هذه الاتفاقيات طويلة الأمد وقدرة العملاء على السداد لتأمين تمويل البنية التحتية. تأتي الإيرادات من معدلات متميزة تُفرض على الخدمات المتخصصة، والأرباح من الفارق بين تكاليف التمويل المنخفضة ومدفوعات العملاء.

هكذا يعمل عادة مثل هذا الاتفاق: يقوم مزود neocloud بتأمين عقد لمدة ثلاث سنوات مع شركة ناشئة في مجال الذكاء الاصطناعي ذات تمويل جيد لـ 10،000 وحدة معالجة رسومية H100 بقيمة 40 مليون دولار شهريًا. باستخدام هذا التدفق المضمون من الإيرادات بقيمة 1.44 مليار دولار ، يؤمن المزود تمويلًا مصرفيًا مواتٍ (بفائدة 6٪) لشراء وتركيب بنية تحتية تبلغ قيمتها 700 مليون دولار. تغطي الإيرادات الشهرية بقيمة 40 مليون دولار تكاليف التشغيل بقيمة 10 ملايين دولار ومدفوعات القروض بقيمة 20 مليون دولار ، مما يولد أرباحًا بقيمة 10 ملايين دولار شهريًا بينما تتلقى الشركة الناشئة قدرة حاسوبية مخصصة ومبنية خصيصًا.

يتطلب هذا النموذج اختيار العملاء بعناية فائقة. وعادة ما يبحث المزودون عن الشركات التي لديها احتياطيات نقدية كبيرة أو دعم استثماري قوي - وغالبا ما تكون التقييمات 500 مليون دولار أو أكثر.

تقدم سحبات neoclouds الصغيرة مجموعات معالجة الرسومات (GPU) تصل إلى 2000 أو أقل وتلبي فئة منفصلة من سوق الذكاء الاصطناعي - الشركات الناشئة الصغيرة والمتوسطة الحجم. تقوم هذه الشركات إما بتدريب نماذج أصغر (تصل إلى 70 مليار معلمة) أو ضبط النماذج المفتوحة المصدر. (ضبط النموذج هو عملية تكييف نموذج أساسي لحالات الاستخدام المحددة.) كلا هذه الأعباء تتطلب قدرًا معتدلاً ولكن مخصصًا للحوسبة لفترات أقصر.

تقدم هذه المزودات الحوسبة حسب الطلب بأسعار ساعية للوصول إلى مجموعة غير متوقفة لمدة ثابتة. على الرغم من أن هذا يكلف أكثر من العقود طويلة الأجل ، إلا أنه يمنح الشركات الناشئة المرونة للتجربة دون الالتزام باتفاقات تزيد قيمتها عن عشرات الملايين من الدولارات.

وأخيرًا، بصرف النظر عن المتعهدون السحابيين الحاليين ومزودي الخدمات السحابية الجديدة، لدينا وسطاء في مجال البنية التحتية للذكاء الاصطناعي: المنصات والمجمعون. هؤلاء الوسطاء لا يمتلكون بنية تحتية لوحدات المعالجة الرسومية بل يربطون أصحاب الموارد الحاسوبية بأولئك الذين يحتاجون إليها.

مقدمو البلاتفورمات مثل gate.HydraHostوFluidstackتعمل كما تعمل Shopify في مجال الحوسبة باستخدام وحدات المعالجة الرسومية. تمامًا كما يتيح Shopify للتجار إطلاق متاجرهم عبر الإنترنت دون بناء بنية تحتية للتجارة الإلكترونية، تتيح هذه المنصات لمشغلي مراكز البيانات وأصحاب وحدات المعالجة الرسومية تقديم خدمات الحوسبة دون تطوير واجهات العملاء الخاصة بهم. إنها توفر حزمة تقنية كاملة لتشغيل نشاط تجارة الحوسبة باستخدام وحدات المعالجة الرسومية، بما في ذلك أدوات إدارة البنية التحتية، وأنظمة توفير العملاء، وحلول الفوترة.

مجمعي السوق مثلVast.aiتعمل كـ أمازون في عالم وحدة المعالجة الرسومية. يقومون بإنشاء سوق يجمع بين عروض الحوسبة المتنوعة من مقدمي خدمة مختلفين - بدءًا من بطاقات RTX للاستخدام الاستهلاكي إلى بطاقات H100 المهنية. يقوم أصحاب وحدات المعالجة الرسومية بإدراج مواردهم مع مقاييس أداء مفصلة وتصنيفات للموثوقية، في حين يقوم العملاء بشراء وقت الحوسبة من خلال منصة خدمة ذاتية.

الاستدلال

حتى الآن، تركزت مناقشتنا على تدريب (أو ضبط) النماذج. ومع ذلك، بمجرد تدريب النموذج، يجب نشره لخدمة المستخدمين النهائيين - وهو عملية تسمى الاستدلال. في كل مرة تتحدث فيها مع ChatGPT ، فأنت تستخدم وحدات معالجة الرسومات التي تعمل على مهام الاستدلال التي تأخذ إدخالك وتولد استجابة النموذج. دعنا نعود لمناقشة تماثيل الرخام لمدة دقيقة.

هذا هو ديفيد أيضًا - ليس الأصلي لميشيلانجيلو، بل صب من الجص تم تكليفه من قبل الملكة فيكتوريا في عام 1857 لمتحف فيكتوريا وألبرت في لندن. في حين أن ميشيلانجيلو قضى ثلاث سنوات شاقة في تقطيع الرخام بعناية لإنشاء النسخة الأصلية في فلورنسا، تم صنع هذا الصب من قالب مباشر للتمثال - مما يُعيد إنتاج كل منحنى وزاوية وتفصيلة قد صاغها ميشيلانجيلو بكل دقة. يحدث العمل الإبداعي المكثف مرة واحدة. بعد ذلك، يصبح الأمر قضية تكرار هذه الميزات بدقة. في الوقت الحالي، تظهر نسخ ديفيد في كل مكان، من قاعات المتاحف إلى ساحات كازينو لاس فيغاس.

هذه هي بالضبط الطريقة التي يعمل بها الاستدلال في الذكاء الاصطناعي. يشبه تدريب نموذج لغوي كبير عملية النحت الأصلية لمايكل أنجلو - مكثفة من الناحية الحسابية ، وتستغرق وقتا طويلا ، وثقيلة الموارد حيث يتعلم النموذج تدريجيا "الشكل" الصحيح للغة من خلال ملايين التعديلات الصغيرة. لكن استخدام النموذج المدرب - الاستدلال - يشبه إلى حد كبير إنشاء نسخة طبق الأصل. عندما تدردش مع ChatGPT ، فأنت لا تعلمها اللغة من الصفر ولكن باستخدام نسخة من نموذج تم بالفعل إتقان معلماته (مثل منحنيات وزوايا ديفيد الدقيقة).

تختلف أعباء الاستدلال بشكل أساسي عن التدريب. بينما يتطلب التدريب تجمعات كبيرة وكثيفة من أحدث وحدات معالجة الرسومات مثل H100s للتعامل مع الحسابات المكثفة، يمكن أن يعمل الاستدلال على خوادم واحدة تحتوي على وحدة معالجة رسومات باستخدام عتاد قديم مثل A100s أو حتى بطاقات الرسومات للمستهلكين، مما يجعله أكثر كفاءة من حيث التكلفة بشكل كبير. ذلك قال، تمتلك أعباء الاستدلال مطالباتها الفريدة الخاصة:

  • تغطية جغرافية واسعة: يجب نشر النماذج عبر مراكز بيانات متعددة في جميع أنحاء العالم لضمان حصول المستخدمين في سنغافورة على ردود بنفس سرعة المستخدمين في سان فرانسيسكو
  • مدة تشغيل عالية: على عكس التدريب الذي يمكن إيقافه واستئنافه ، يحتاج الاستدلال إلى أن يكون متاحًا على مدار الساعة لأن المستخدمين يتوقعون الردود الفورية في أي وقت
  • التكرار: يجب أن يكون هناك عدة خوادم جاهزة للتعامل مع الطلبات في حالة فشل بعضها أو أن يتعرض بعضها للتحميل الزائد

تجعل هذه الخصائص وظائف الاستدلال مثالية لنماذج التسعير الفورية. بموجب نموذج التسعير الفوري ، تتوفر موارد وحدة المعالجة المركزية بتخفيضات كبيرة - غالبًا 30-50٪ أقل من أسعار الطلب الفوري - مع الفهم أن الخدمة قد تتوقف عندما يحتاج العملاء ذوو الأولوية العالية إلى الموارد. يتناسب هذا النموذج مع الاستدلال لأن النشر المتكرر يسمح بنقل الأعباء العمل إلى وحدات المعالجة المركزية المتاحة بسرعة في حالة انقطاع التيار.

في هذا السياق من وحدات معالجة الرسومات والحوسبة السحابية للذكاء الاصطناعي، نحن الآن في موقف يمكننا من خلاله البدء في استكشاف مكانة العملات المشفرة في كل ذلك. دعونا نبدأ (أخيرًا) في ذلك.

أين تناسب العملات الرقمية في المجال

كثيرا ما تستشهد المشاريع والتقارير بملاحظة بيتر ثيل بأن "الذكاء الاصطناعي مركزية ، والعملات المشفرة لا مركزية" عند مناقشة دور التشفير في التدريب الذكاء الاصطناعي. في حين أن تصريح Thiel صحيح بلا شك ، فقد رأينا للتو أدلة وافرة على الميزة الواضحة لشركات التكنولوجيا الكبرى في تدريب الذكاء الاصطناعي القوية - غالبا ما يكون من غير المختلس اقتراح أن التشفير وأجهزة الكمبيوتر اللامركزية تقدم الحل الأساسي لموازنة تأثير شركات التكنولوجيا الكبرى.

تلك الادعاءات تردد صداها عن التهويلات السابقة بشأن إمكانية تحويل العملات الرقمية العملات الاجتماعية، والألعاب، والعديد من الصناعات الأخرى. فهي ليست فقط غير مجدية ولكنها، كما سأقدم حجة قريباً، غير واقعية - على الأقل في المدى القصير.

بدلاً من ذلك ، سأتبع نهجًا أكثر عملية. سأفترض أن شركة الذكاء الاصطناعي الباحثة عن الحوسبة لا تهتم بمبادئ اللامركزية أو المعارضة الأيديولوجية للتكنولوجيا الكبيرة. بل عندهم مشكلة - يريدون الوصول إلى حوسبة GPU موثوقة بأقل تكلفة ممكنة. إذا كان بإمكان مشروع العملات الرقمية توفير حل أفضل لهذه المشكلة من البدائل غير الرقمية ، فسيستخدمونه.

وعليه، دعونا نفهم أولاً من يتنافس مع مشاريع العملات المشفرة. في وقت سابق، ناقشنا الفئات المختلفة لمزودي خدمات السحابة الذكاء الاصطناعي - الشركات التكنولوجية الكبيرة وموفري الخدمات الفائقة الكبرى، والشركات النيوكلاود الكبيرة والصغيرة، ومزودي المنصات والأسواق.

الأطروحة الأساسية وراء الحوسبة اللامركزية (مثل جميع مشاريع DePIN) هي أن سوق الحوسبة الحالي يعمل بشكل غير فعال. الطلب على وحدات معالجة الرسومات لا يزال مرتفعًا بشكل استثنائي، في حين يبقى العرض متفككًا وغير مستغل في مراكز البيانات العالمية والمنازل الفردية. يتنافس معظم المشاريع في هذا القطاع بشكل مباشر مع الأسواق من خلال تجميع هذا العرض المتفكك لتقليل عدم الكفاءة.

بعد تأسيس ذلك، دعونا نلقي نظرة على كيفية يمكن لهذه المشاريع (وسوق الحوسبة بشكل عام) المساعدة في مجالات العمل المختلفة للذكاء الاصطناعي - التدريب والضبط الدقيق والاستدلال.

تدريب

أولا وقبل كل شيء. لا، لن يتم تدريب ASI على شبكة عالمية من وحدات المعالجة الرسومية المركزية الموزعة. على الأقل، ليس على المسار الحالي للذكاء الاصطناعي. وفيما يلي السبب.

سبق أن ناقشنا مدى اتساع أحجام أنظمة نماذج الأساس. تحتاج إلى 100000 من أقوى وحدات معالجة الرسومات في العالم للبدء في المنافسة. هذا الرقم يزداد فقط مع مرور السنوات. بحلول عام 2026 ، من المتوقع أن يتجاوز تكلفة تشغيل التدريب 100 مليار دولار ، مما يتطلب ربما مليون وحدة معالجة الرسومات أو أكثر.

فقط الشركات التقنية الكبيرة، المدعومة بالسحب السحابية الكبرى والشراكات المباشرة مع Nvidia، يمكنها تجميع مجموعات بهذا الحجم. تذكر، نحن في سباق نحو ASI، وجميع المشاركين مدفوعون بشكل كبير وممولون. إذا كان هناك إمداد إضافي لهذا العدد الكبير من وحدات معالجة الرسومات (وهو ليس كذلك) فإنهم سيكونون الأوائل الذين يقتنصونها.

حتى لو تمكن مشروع تشفير ما بالطريقة الماهرة من تجميع الحوسبة الضرورية، فإن عقبتين أساسيتين تمنعان تطوير الذكاء الاصطناعي المركزي:

أولاً ، لا يزال الوحدات المعالجة الرسومية بحاجة إلى أن تكون متصلة في مجموعات كبيرة لتعمل بشكل فعال. حتى إذا تم تقسيم هذه المجموعات بين الجزر في المدن ، فسيتعين توصيلها بواسطة خطوط بصرية منفصلة. لا يمكن تحقيق أيٍ من ذلك في إعداد لامركزي. بالإضافة إلى توفير وحدات معالجة الرسومات ، تتطلب إنشاء مراكز البيانات الجاهزة للذكاء الاصطناعي تخطيطًا دقيقًا - عملية تستغرق عادة من عام إلى عامين. (قامت xAI بذلك في 122 يومًا فقط ولكن من غير المرجح أن يقوم إيلون بإطلاق عملة مشفرة في المستقبل القريب).

ثانياً ، إن إنشاء مركز بيانات AI فحسب ليس كافيًا لولادة AI ذكية بشكل فائق. كمؤسس لشركة Anthropic ، Dario Amodeiتم شرحه مؤخراً، فإن التحجيم في الذكاء الاصطناعي مشابه للتفاعل الكيميائي. مثلما يتطلب التفاعل الكيميائي كواشف متعددة بنسب دقيقة للمضي قدما ، يعتمد التوسع الذكاء الاصطناعي الناجح على ثلاثة مكونات أساسية تنمو بشكل متناسق: شبكات أكبر ، وأوقات تدريب أطول ، ومجموعات بيانات أكبر. إذا قمت بتوسيع نطاق مكون واحد دون المكونات الأخرى ، فستتوقف العملية.

حتى لو تمكنا من تراكم كل من الحوسبة والحصول على تجمعات للعمل معًا بطريقة ما، ما زلنا بحاجة إلى تيرابايت من البيانات عالية الجودة لكي يكون النموذج المدرب جيدًا. بدون مصادر البيانات الخاصة للتكنولوجيا الكبيرة، ورأس المال لإبرام صفقات تبلغ قيمتها عدة ملايين من الدولارات مع المنتديات على الإنترنت ووسائل الإعلام، أو النماذج الحالية لتوليد البيانات الاصطناعية، فإن الحصول على بيانات تدريب كافية يصبح أمرًا مستحيلًا.

هناك بعض التكهنات في الآونة الأخيرة بأن قوانين التوسع قد تصل إلى طريق مسدود، مما قد يؤدي إلى وصول LLMs إلى سقف أداء. يرى البعض ذلك كفرصة لتطوير الذكاء الاصطناعي المتمركز. ومع ذلك، يغفل هذا الأمر عن عامل حاسم - تركز المواهب. تحتضن شركات التكنولوجيا الكبيرة ومختبرات الذكاء الاصطناعي الباحثين الرئيسيين في العالم اليوم. الاكتشافات البديلة المبتكرة لتحقيق الذكاء الاصطناعي العام ستنشأ على الأرجح من هذه المراكز. نظرًا للمنافسة الشرسة في هذا المجال، ستظل هذه الاكتشافات محروسة بشكل وثيق.

بناءً على جميع هذه الحجج ، أنا واثق بنسبة 99.99٪ من أن تدريب الذكاء الاصطناعي العام أو حتى نماذج أقوى في العالم لن يتم تدريبها على مشروع حوسبة مركزية. في هذه الحالة ، ما هي النماذج التي يمكن أن تساعد العملات الرقمية في تدريبها؟

من أجل تدريب النماذج عبر مجموعات GPU منفصلة موضوعة في مواقع جغرافية مختلفة ، نحتاج إلى تنفيذ توازي البيانات بينها. (تذكر أن توازي البيانات هو كيفية مزامنة جزر مختلفة من وحدات معالجة الرسومات ، كل منها يعمل على أجزاء منفصلة من بيانات التدريب ، مع بعضها البعض). كلما زاد حجم النموذج الذي يتم تدريبه ، زادت كمية البيانات التي يجب تبادلها بين هذه الجزر. كما ناقشنا ، بالنسبة للنماذج الحدودية التي تحتوي على أكثر من تريليون معلمة ، فإن عرض النطاق الترددي المطلوب كبير بما يكفي ليتطلب اتصالات ألياف بصرية مخصصة.

ومع ذلك ، بالنسبة للطرز الأصغر ، تنخفض متطلبات النطاق الترددي بشكل متناسب. خلقت الاختراقات الأخيرة في خوارزميات التدريب منخفضة الاتصال ، لا سيما في التزامن المتأخر ، فرصا واعدة لتدريب النماذج الصغيرة والمتوسطة الحجم بطريقة لامركزية. يقود فريقان هذه الجهود التجريبية.

Nous Research هي شركة تسريع الذكاء الاصطناعي ولاعب رائد في تطوير الذكاء الاصطناعي مفتوحة المصدر. اشتهروا بسلسلة Hermes من نماذج اللغة والمشاريع المبتكرة مثل World Sim. في وقت سابق من هذا العام ، قاموا بتشغيل شبكة فرعية BitTensor بتصنيف LLM لبضعة أشهر. لقد غمسوا أصابع قدميهم في الحوسبة اللامركزية من خلال إطلاق DisTrO مشروع (التدريب الموزع عبر الإنترنت) ، حيث نجحوا في تدريب نموذج Llama-2 للمعلمة 1.2B مع تحقيق تخفيض 857x في متطلبات النطاق الترددي بين وحدات معالجة الرسومات.

تقرير DisTrO من قبل Nous Research

الذكاء الأعلى، وهو ناشئة تطوير البنية التحتية للذكاء الاصطناعي المتوزع بمقياس كبير، تهدف إلى تجميع الموارد الحسابية العالمية وتمكين التدريب التعاوني للنماذج ذات التقنية المتقدمة من خلال الأنظمة الموزعة. منتجاتهم إطار OpenDiLoCo (تنفيذ DeepMind's طريقة الاتصال المنخفض الموزعة) بنجاح تدريب نموذج مليار معلمة عبر قارتين وثلاثة بلدان مع الحفاظ على استخدام الحوسبة بنسبة 90-95٪.

لكن كيف تعمل هذه التدريبات اللامركزية؟

يتطلب التوازن البيانات التقليدي أن تتقاسم وتتوافق وحدات معالجة الرسومات (GPUs) أوزانها بعد كل خطوة تدريب - مستحيل عبر اتصالات الإنترنت. بدلاً من ذلك، تسمح هذه المشاريع لكل "جزيرة" من وحدات المعالجة المركزية بالتدريب بشكل مستقل لمئات الخطوات قبل المزامنة. فكر فيها كفرق بحثية مستقلة تعمل على نفس المشروع: بدلاً من التحقق باستمرار من بعضها البعض، يحرزون تقدمًا كبيرًا بشكل مستقل قبل مشاركة نتائجهم.

يتم مزامنة DisTrO و OpenDiLoCo فقط كل 500 خطوة ، باستخدام نهج مزدوج للمحسن:

  • محسن "داخلي" يتعامل مع التحديثات المحلية على كل وحدة معالجة الرسومات، مثل فريق يكتشف اكتشافات محلية
  • أداة تحسين "خارجية" تدير المزامنات الدورية بين وحدات المعالجة الرسومية، حيث تعمل كمنسق يجمع جميع النتائج معًا

عندما يتزامنون، بدلاً من مشاركة جميع الأوزان، يشاركون 'تدرجًا زائفًا' - وهو في الأساس الفرق بين أوزانهم الحالية والأوزان من آخر مزامنة. هذا فعال بشكل ملحوظ، مثل مشاركة ما تغير في مستند بدلاً من إرسال المستند بأكمله في كل مرة.

INTELLECT-1، تطبيق عملي لـ OpenDiLoCo من Prime Intellect ، يدفع هذا النهج أبعد من ذلك بتدريب نموذج بسعة 10 مليار معلمة - وهو أكبر مجهود تدريب متموِّل للتوزيع حتى الآن. لقد أضافوا تحسينات رئيسية مثل:

  • ضغط البيانات التي يحتاجون إلى مشاركتها، مما يجعل الاتصال أكثر كفاءة بكثير
  • بناء أنظمة النسخ الاحتياطي حتى يمكن استمرار التدريب حتى لو توقفت بعض الحواسيب
  • جعل عملية المزامنة سريعة للغاية - أقل من دقيقة

INTELLECT-1، الذي تم تدريبه بواسطة أكثر من 20 مجموعة من وحدات معالجة الرسومات الموزعة عبر العالم، أكمل مؤخرًاالتدريب المسبقوسيتم إصداره قريبًا كنموذج مفتوح المصدر بالكامل.

لوحة تدريب INTELLECT-1

فرق مثلماكروكوسموسيستخدمون خوارزميات مشابهة لـنماذج القطارفي نظام Bittensor.

إذا استمرت خوارزميات التدريب المتمركزة هذه في التحسن، فقد تكون قادرة على دعم نماذج تصل إلى 100 مليار معامل مع جيل الـ GPU التالي. حتى نماذج بهذا الحجم يمكن أن تكون مفيدة جدًا لمجموعة واسعة من حالات الاستخدام:

  1. البحث والتجربة مع الهندسات الجديدة التي لا تتطلب حسابات ضخمة على الحدود
  2. نماذج عامة أصغر حجمًا مُحسَّنة للأداء والسرعة على حساب الذكاء الخام
  3. نماذج محددة للمجال

Fine-tuning

الضبط الدقيق هو عملية أخذ نموذج أساسي مدرب مسبقا (عادة ما يكون نموذجا مفتوح المصدر بواسطة Meta أو Mistral أو Alibaba) وتدريبه بشكل أكبر على مجموعة بيانات محددة لتكييفه مع مهام أو مجالات معينة. يتطلب هذا حوسبة أقل بكثير من التدريب من الصفر لأن النموذج قد تعلم بالفعل أنماطا لغوية عامة ويحتاج فقط إلى ضبط أوزانه للمجال الجديد.

متطلبات الحوسبة لمقياس الضبط الدقيق مع حجم النموذج. بافتراض التدريب على H100:

  • نماذج صغيرة (معلمات 1-7B): وحدة معالجة رسومات واحدة ، الانتهاء في غضون 12 ساعة
  • نماذج متوسطة (7-13B): أنظمة تجميع GPU 2-4 ، الانتهاء خلال 36 ساعة
  • الطرز الكبيرة (>30B): ما يصل إلى 8 مجموعات GPU ، اكتمال في غضون 4 أيام

نظرًا لهذه المواصفات، لا يتطلب ضبط الدقة الخوارزميات الموزعة المعقدة التي تم مناقشتها سابقًا. يوفر النموذج عند الطلب، حيث يستأجر مطورون مجموعات GPU لفترات قصيرة ومكثفة، الدعم الكافي. تتمتع أسواق الحوسبة اللامركزية التي تتمتع بتوافر قوي لوحدات معالجة الرسومات بموقع مثالي للتعامل مع هذه الأعباء العمل.

الاستدلال

الاستدلال هو المكان الذي تتمتع فيه أسواق الحوسبة اللامركزية بأوضح مسار لملاءمة المنتج للسوق. ومن المفارقات أن هذا هو سير العمل الأقل مناقشة في سياق التدريب اللامركزي. ينبع هذا من عاملين: يفتقر الاستدلال إلى جاذبية 100000 عملية تدريب على "نموذج الله" لوحدة معالجة الرسومات ، ويرجع ذلك جزئيا إلى المرحلة الحالية من ثورة الذكاء الاصطناعي.

اعتبارًا من اليوم، يذهب معظم الحوسبة فعلاً نحو التدريب. سباق الوصول إلى الذكاء الاصطناعي العام يؤدي إلى استثمارات ضخمة مقدمة في بنية التدريب. ومع ذلك، يتحول هذا التوازن بشكل لا مفر منه عندما تنتقل تطبيقات الذكاء الاصطناعي من مرحلة البحث إلى مرحلة الإنتاج. لكي يكون نموذج الأعمال الخاص بالذكاء الاصطناعي قابلاً للتحمل، يجب أن تتجاوز الإيرادات الناتجة من الاستدلال تكاليف كل من التدريب والاستدلال مجتمعة. بينما كان تدريب GPT-4 مكلفًا للغاية، إلا أن ذلك كان تكلفة مرة واحدة. وتُدفع نفقات الحوسبة المستمرة - وطريقة OpenAI لتحقيق الربحية - من خلال خدمة مليارات طلبات الاستدلال للعملاء المدفوعين.

تجد سوق الحوسبة ، المركزية أو غير المركزية ، بفضل تجميع مجموعة متنوعة من نماذج وحدات معالجة الرسومات (القديمة والجديدة) من جميع أنحاء العالم ، نفسها في موقف فريد لخدمة أعباء العمل الاستدلالية.

تتفوق أسواق الحوسبة، سواء كانت لامركزية أو تقليدية، بطبيعتها على أعباء العمل التفسيرية من خلال تجميع نماذج وحدات معالجة الرسومات المتنوعة (سواء الحالية أو القديمة) على مستوى العالم. تلك المزايا الفطرية لديها تتوافق تمامًا مع متطلبات العمل التفسيري: التوزيع الجغرافي الواسع، والتشغيل المستمر، والاحتياطي النظامي، والتوافق عبر أجيال وحدات معالجة الرسومات.

ولكن لماذا العملات المشفرة؟

لقد ناقشنا سابقًا سيناريوهات العمل المختلفة التي يمكن أن يساعد فيها الحوسبة اللامركزية والتي لا يمكن أن يساعدها فيها. الآن، نحن بحاجة إلى الإجابة على سؤال مهم آخر: لماذا يختار المطور تأمين الحوسبة من مزود لامركزي عن مزود مركزي؟ ما هي المزايا المقنعة التي تقدمها الحلول اللامركزية؟

التسعير والنطاق

حققت العملات المستقرة ملاءمة المنتج للسوق من خلال تقديم بديل متفوق للمدفوعات التقليدية عبر الحدود. عامل كبير هو أن العملات المستقرة هي ببساطة أرخص بكثير! وبالمثل ، فإن العامل الأكبر الوحيد الذي يدفع المطور الذكاء الاصطناعي لاختيار مزود السحابة هو التكلفة. لكي يتنافس موفرو الحوسبة اللامركزية بفعالية، يجب عليهم أولا تقديم أسعار فائقة.

سوق الحوسبة ، مثل جميع الأسواق ، هو عمل شبكة تتأثر بتأثيرات الشبكة. كلما زادت إمدادات وحدات معالجة الرسومات (GPUs) على منصة ما ، زادت سيولة الأصول وتوفرها للعملاء ، مما يجذب المزيد من الطلب. مع زيادة الطلب ، يتحفز المزيد من مالكي وحدات معالجة الرسومات للانضمام إلى الشبكة ، مما يخلق دورة مثمرة. يمكن أن تمكن زيادة العرض أيضًا من تحقيق تسعير أكثر تنافسية من خلال تحسين التوافق وتقليل وقت الخمول. عندما يتمكن العملاء من العثور باستمرار على الحوسبة التي يحتاجونها بأسعار جذابة ، فمن المرجح أن يبنوا اعتمادات تقنية دائمة على النظام ، مما يعزز أكثر فأكثر تأثيرات الشبكة.

هذه الديناميكية قوية بشكل خاص في الاستدلال ، حيث يمكن للتوزيع الجغرافي للعرض أن يعزز بالفعل عرض المنتج عن طريق تقليل زمن الوصول للمستخدمين النهائيين. سيكون للسوق الأول الذي يحقق دولاب الموازنة للسيولة على نطاق واسع ميزة تنافسية كبيرة ، حيث يواجه كل من الموردين والعملاء تكاليف التبديل بمجرد دمجهم مع أدوات النظام الأساسي وسير العمل.

تؤثر شبكة سوق GPU على دولاب الموازنة

في مثل هذه الأسواق التي يستحوذ فيها الفائز على كل شيء ، تشغيل الشبكةوبلوغ سرعة الهروب هو المرحلة الأكثر حساسية. هنا ، توفر العملات المشفرة لمشاريع الحوسبة المتمركزة أداة قوية للغاية لمنافسيها المركزيين الذين ليس لديهم ببساطة: حافز الرمز.

يمكن أن تكون الميكانيكا مباشرة ولكنها قوية. سيطلق البروتوكول أولا رمزا يتضمن جدولا زمنيا للمكافآت التضخمية ، وربما يوزع المخصصات الأولية على المساهمين الأوائل من خلال عمليات الإنزال الجوي. ستكون هذه الانبعاثات الرمزية بمثابة الأداة الأساسية لتمهيد جانبي السوق.

بالنسبة لموفري وحدات معالجة الرسومات (GPU)، يجب تصميم هيكل المكافآت بعناية لتشكيل سلوك جانب العرض. سيكسب موفرو الخدمة عملات تشفير متناسبة مع معدلات حسابهم المساهمة ومعدلات استخدامهم، ولكن يجب أن يتجاوز النظام المكافآت الخطية البسيطة. يمكن للبروتوكول تنفيذ مضاعفات مكافآت ديناميكية لمعالجة عدم التوازن الجغرافي أو نوع الأجهزة - على غرار كيفية استخدام أوبر لتوفير تسعير الحالة الطارئة لتحفيز السائقين في المناطق ذات الطلب العالي.

يمكن لمزود الخدمة كسب مكافآت 1.5x لتقديم الحوسبة في المناطق التي تعاني من قلة الخدمة أو مكافآت 2x لتوفير أنواع GPU النادرة مؤقتًا. سيشجع تقسيم نظام المكافآت بناءً على معدلات الاستخدام المستمرة مزودي الخدمة على الحفاظ على الاستقرار في التوافر بدلاً من التحول بين المنصات بصورة فرصية.

على جانب الطلب ، سيحصل العملاء على مكافآت رمزية تدعم استخدامهم بشكل فعال. قد يقدم البروتوكول مكافآت متزايدة لالتزامات الحوسبة الأطول - مما يحفز المستخدمين على بناء تبعيات تقنية أعمق على النظام الأساسي. يمكن هيكلة هذه المكافآت بشكل أكبر لتتماشى مع الأولويات الاستراتيجية للمنصة، مثل التقاط الطلب في منطقة جغرافية معينة.

يمكن الاحتفاظ بالمعدلات الأساسية للحوسبة عند أسعار السوق أو أقل منها قليلا ، مع استخدام البروتوكولات بوابة أوراقلمراقبة ومطابقة أسعار المنافسين بشكل مستمر. ثم تعمل مكافآت الرمز كطبقة حافز إضافية فوق هذه الأسعار الأساسية التنافسية. سيسمح هذا النموذج المزدوج للتسعير بالمنصة بالحفاظ على تنافسية الأسعار مع استخدام حوافز الرمز لتعزيز سلوكيات محددة تعزز الشبكة.

من خلال توزيع حوافز الرمز المميز ، سيبدأ كل من المزودين والعملاء في تجميع حصة في الشبكة. في حين قد يبيع بعضهم ، ربما معظمهم ، هذه الحصص ، قد يحتفظ البعض الآخر بها ، ليصبحوا على الواقع أصحاب مصلحة ومبشرين للمنصة. سيكون لدى هؤلاء المشاركين الملتزمين مصلحة مشتركة في نجاح الشبكة ، مما يسهم في نموها واعتمادها بعيدًا عن استخدامها المباشر أو توفير موارد الحوسبة.

مع مرور الوقت، ومع وصول الشبكة إلى سرعة الهروب وتأسيس تأثيرات قوية للشبكة، يمكن تدريجياً التخفيف من هذه الحوافز المرتبطة بالرموز. فوائد الطبيعة الناجمة عن كونها أكبر سوق - تحسين التطابق، زيادة الاستخدام، تغطية جغرافية أوسع - ستصبح عوامل مستدامة تحفز النمو.

كيف يمكن لحوافز الرمز تعزيز مروحة سوق وحدة معالجة الرسومات

مقاومة الرقابة

في حين أن السعر والنطاق هما عوامل تميّز حاسمتان، فإن شبكات الحوسبة اللامركزية تتناول مخاوف متزايدة: القيود التشغيلية من مقدمي الخدمات المركزية. لقد أظهر مقدمو الخدمات السحابية التقليدية استعدادهم لتعليق أو إنهاء الخدمات بناءً علىسياسات المحتوى والضغوط الخارجية. تثير هذه السابقة أسئلة مشروعة حول كيف يمكن أن تمتد سياسات مماثلة إلى تطوير ونشر نماذج الذكاء الاصطناعي.

نظرا لأن النماذج الذكاء الاصطناعي أصبحت أكثر تعقيدا وتعالج حالات الاستخدام المتنوعة بشكل متزايد ، فهناك احتمال حقيقي بأن يقوم مقدمو الخدمات السحابية بتطبيق قيود على تدريب النموذج وتقديمه ، على غرار مناهج الإشراف على المحتوى الحالية. قد يؤثر هذا ليس فقط على محتوى NSFW والموضوعات المثيرة للجدل ، ولكن أيضا على حالات الاستخدام المشروعة في مجالات مثل التصوير الطبي أو البحث العلمي أو الفنون الإبداعية التي قد تؤدي إلى مرشحات آلية شديدة الحذر.

تقدم الشبكة المركزية بديلاً عن طريق السماح لأطراف السوق باتخاذ قرارات البنية التحتية الخاصة بهم، مما قد يخلق بيئة أكثر حرية ولا تقييدًا للابتكار.

الجانب الآخر من البنية غير المصرح بها هو أن الخصوصية تصبح أكثر صعوبة. عندما يتم توزيع الحوسبة عبر شبكة من مقدمي الخدمات بدلا من احتوائها داخل مراكز بيانات كيان موثوق به واحد، يحتاج المطورون إلى التفكير مليا في أمان البيانات. على الرغم من أن التشفير وبيئات التنفيذ الموثوقة يمكن أن تساعد ، إلا أن هناك مقايضة متأصلة بين مقاومة الرقابة والخصوصية التي يجب على المطورين التنقل فيها بناء على متطلباتهم الخاصة.

الثقة وإنفاذ العقود

نظرًا للطلب الهائل على الحساب الذكي للذكاء الاصطناعي، يمكن لمزودي وحدة المعالجة الرسومية استغلال موقفهم لاستخراج أقصى ربح من العملاء الناجحين. في منشور من العام الماضي، شارك المطور المستقل الشهير بيتر ليفيلز كيف تعرض هو ومطورون آخرون لزيادة أسعار مقدمي الخدمات الخاصة بهم فجأة بنسبة تزيد عن 600٪ بعد مشاركة إيرادات تطبيق الذكاء الاصطناعي الخاص بهم علنًا.

يمكن للأنظمة اللامركزية أن تقدم حلاً لهذه المشكلة - فإن فرض العقود بدون ثقة. عندما تُشفر الاتفاقيات على السلسلة بدلاً من أن تكون مدفونة في شروط الخدمة، فإنها تصبح شفافة ولا تتغير. لا يمكن لمقدم الخدمة زيادة الأسعار بشكل تعسفي أو تغيير الشروط في منتصف العقد دون أن يتم الاتفاق صراحة على التغييرات من خلال البروتوكول.

بالإضافة إلى التسعير، يمكن للشبكات اللامركزية الاستفادة بيئات التنفيذ الموثوقة (TEEs)لتوفير الحوسبة القابلة للتحقق. يضمن هذا أن يحصل المطورون فعلاً على موارد وحدة المعالجة الرسومية التي يدفعون عنها - سواء من حيث المواصفات الأجهزة أو الوصول المخصص. على سبيل المثال ، عندما يدفع المطورون مقابل الوصول المخصص إلى ثماني وحدات معالجة رسومية H100 لتدريب النماذج ، يمكن للأدلة التشفيرية التحقق من أن عبء العمل الخاص بهم يعمل فعلاً على H100s مع 80 جيجابايت كاملة من الذاكرة لكل وحدة معالجة رسومية ، بدلاً من التخفيض صامتًا إلى بطاقات منخفضة الجودة أو مشاركة الموارد مع مستخدمين آخرين.

غير مقيد

تتمكن الشبكات الحاسوبية اللامركزية من توفير بدائل للمطورين حقًا بدون أذونات. على عكس المزودين التقليديين الذين يتطلبون عمليات KYC وفحص الائتمان الشاملة ، يمكن لأي شخص الانضمام إلى هذه الشبكات والبدء في استهلاك أو توفير موارد الحوسبة. هذا يقلل بشكل كبير من حاجز الدخول ، خاصة بالنسبة للمطورين في الأسواق الناشئة أو أولئك الذين يعملون في مشاريع تجريبية.

يصبح أهمية هذا الطابع الغير قابل للتصرف أكثر قوة عندما ننظر إلى مستقبل وكلاء الذكاء الاصطناعي. بدأ وكلاء الذكاء الاصطناعي للتو في العثور على أرضية لهم، معوكلاء متكاملين عمودياًمن المتوقع أن يتجاوز حجم صناعة البرمجيات كخدمة (SaaS)، مثلما هو الحال معمحطة الحقيقةوZerebro، نحن نشهد أولى علامات اكتساب الوكلاء للحكمة وتعلمهم كيفية استخدام أدوات خارجية مثل وسائل التواصل الاجتماعي ومولدات الصور.

مع تزايد تطور هذه الأنظمة الذاتية ، قد تحتاج إلى توفير موارد الحوسبة الخاصة بها بشكل ديناميكي. الشبكة اللامركزية حيث يمكن تنفيذ العقود بشكل غير موثوق فيه بواسطة الكود بدلاً من الوسطاء البشريين هي البنية التحتية الطبيعية لهذا المستقبل. يمكن للوكلاء التفاوض على العقود بشكل ذاتي ، ومراقبة الأداء ، وضبط استخدام الحوسبة الخاصة بهم استنادًا إلى الطلب - كل ذلك بدون الحاجة إلى تدخل أو موافقة بشرية.

المنظر الطبيعي

مفهوم الشبكات المحوسبة اللامركزية ليس جديدًا - فقد حاولت المشاريع تمكين الوصول إلى الموارد الحاسوبية النادرة قبل طفرة الذكاء الاصطناعي الحالية.شبكة العرضتعمل منذ عام 2017، وتجمع موارد وحدة المعالجة الرسومية لعرض الرسومات على الحاسوب.أكاشتم إطلاقه في عام 2020 لإنشاء سوق مفتوح للحوسبة العامة. وجدت كلا المشروعين نجاحًا معتدلاً في تخصصاتهما ولكنهما الآن يركزان على أعباء العمل الذكاء الاصطناعي.

بالمثل ، شبكات التخزين المركزية مثلفايلكوينوأرويفيتوسعون في مجال الحوسبة. إنهم يدركون أنه مع تصبح الذكاء الاصطناعي المستهلك الرئيسي لكل من التخزين والحوسبة، فإن تقديم حلول متكاملة لهذا الأمر له معنى.

تمامًا كما يواجه مراكز البيانات التقليدية صعوبة في المنافسة مع منشآت الذكاء الاصطناعي المصممة لأغراض معينة ، فإن هذه الشبكات المعتمدة تواجه معركة صعبة ضد الحلول الأصلية للذكاء الاصطناعي. إنها تفتقر إلى الأساس الوراثي لتنفيذ التنسيق المعقد المطلوب لأعباء العمل الذكاء الاصطناعي. بدلاً من ذلك ، يجدون قدمًا عن طريق توفير الحوسبة لشبكات الذكاء الاصطناعي الأخرى. على سبيل المثال ، الآن يتاح لـ Render و Akash معالجات الرسومات الخاصة بهم في سوق io.net.

من هم هذه الأسواق الجديدة الذكاء الاصطناعي؟io.netهو واحد من القادة المبكرين في تجميع إمدادات وحدة معالجة الرسومات عالية الجودة للشركات، مع أكثر من 300،000 وحدة معالجة رسومات موثقة على شبكته. يدعون أنهم يقدمون توفيرات تصل إلى 90% على الشركات المركزية وتمكنوا من تحقيق أرباح يومية تزيد عن 25،000 دولار (9 ملايين دولار سنويًا). بالمثل، إيثيريجمع أكثر من 40،000 وحدة معالجة الرسومات (بما في ذلك أكثر من 4،000 H100) لخدمة حالات الاستخدام في الذكاء الاصطناعي والحوسبة السحابية.

سابقًا، تحدثنا عن كيفية إنشاء برايم إنتيليكت لأطر تدريب لاسلكية بمقياس كبير. بالإضافة إلى هذه الجهود، يوفرون أيضًا بوابة.سوق وحدة المعالجة الرسوميةحيث يمكن للمستخدمين استئجار H100s حسب الطلب.جينسينهو مشروع آخر يراهن كثيرًا على التدريب المركزي بإطار تدريب مماثل بالإضافة إلى نهج سوق وحدة المعالجة الرسومية.

بينما تعتبر كل هذه الأسواق مستقلة عن الأعباء (حيث تدعم كل من التدريب والاستنتاج)، إلا أن عددًا قليلاً من المشاريع تركز فقط على الاستنتاج - وهو العبء الحسابي الموزع الذي نحن أكثر شغفًا به. تتصدر هذه المشاريع Exo Labs، التي تتيح للمستخدمين تشغيل LLMs على مستوى النخبة على الأجهزة اليومية. لقد طوّروا منصة مفتوحة المصدر تسمح بتوزيع مهام الاستنتاج الذكاء الاصطناعي عبر أجهزة متعددة مثل iPhones و Androids و Macs.أظهرت مؤخرًاتشغيل نموذج 70-B (قابل للتوسع حتى 400-B) موزع عبر أربعة M4 Pro Mac Minis.

البنية التحتية الأساسية

عندما قام ساتوشي بإطلاق بيتكوين في عام 2008، كانت فوائده - الذهب الرقمي مع الإمداد الصعب والأموال المقاومة للرقابة - نظرية بحتة. كان النظام المالي التقليدي، على الرغم من أخطائه، يعمل بشكل جيد. لم تبدأ المصارف المركزية بعد في الطباعة الفوضوية للأموال. لم تصبح العقوبات الدولية سلاحًا ضد الاقتصادات بأكملها. بدت الحاجة إلى بديل أكاديمية بدلاً من عاجلة.

لقد استغرق عقد من التيسير الكمي، الذي تمحور في توسيع نقدي في عصر كوفيد، لكي تتبلور فوائد بيتكوين النظرية إلى قيمة ملموسة. اليوم، مع تآكل التضخم للمدخرات وتهديدات التوترات الجيوسياسية لهيمنة الدولار، فإن دور بيتكوين كـ"الذهب الرقمي" قد تطور من حلم السايفربانك إلى أصل يعتمده المؤسسات والدول القومية.

تكررت هذه النمط مع العملات المستقرة. بمجرد توفر سلسلة كتل عامة في إيثريوم، أصبحت العملات المستقرة فورًا واحدة من أكثر حالات الاستخدام الواعدة. ومع ذلك، استغرق الأمر سنوات من التحسينات التدريجية في التكنولوجيا واقتصادات بلدان مثل الأرجنتين وتركيا التي تعاني من التضخم لكي تتطور العملات المستقرة من الابتكار النقدي النيش إلى البنية التحتية المالية الحرجة التي تحرك تريليونات الدولارات في حجم سنوي.

العملات المشفرة بطبيعتها تكون تكنولوجيا دفاعية - الابتكارات التي يبدو أنها غير ضرورية خلال الأوقات الجيدة ولكنها تصبح أساسية خلال الأزمات. إن الحاجة إلى هذه الحلول لا تظهر إلا عندما تفشل الأنظمة الحالية أو تكشف عن ألوانها الحقيقية.

نحن اليوم نعيش عصر الذهبي للذكاء الاصطناعي. يتدفق رأس المال المخاطر بحرية، وتتنافس الشركات لتقديم أقل الأسعار، والقيود، إن وجدت، نادرة. في هذا البيئة، يمكن أن تبدو البدائل اللامركزية غير ضرورية. لماذا تتعامل مع تعقيدات الاقتصاد الرمزي ونظم الإثبات عندما تعمل المزودات التقليدية بشكل جيد؟

ولكن وفقًا للموجات التكنولوجية الرئيسية السابقة، فإن هذا العطاء هو مؤقت. لقد مرت سنتان فقط على ثورة الذكاء الاصطناعي. مع نضج التكنولوجيا وظهور الفائزين في سباق الذكاء الاصطناعي، ستظهر قوتهم الحقيقية. ستتحكم الشركات نفسها التي تقدم الوصول السخي اليوم في النهاية - من خلال التسعير والسياسات والأذونات.

هذا ليس مجرد دورة تقنية أخرى مهددة. تصبح الذكاء الاصطناعي الأساس الجديد للحضارة - العدسة التي سنعالج من خلالها المعلومات ونخلق الفن ونتخذ القرارات، وفي نهاية المطاف نتطور كأنواع. الحسابات أكثر من مجرد مورد؛ إنها عملة الذكاء نفسه. سيشكل أولئك الذين يتحكمون في تدفقها الحدود المعرفية للبشرية.

الحوسبة المتمركزة ليست مجرد توفير وحدات معالجة رسومية أرخص أو خيارات نشر أكثر مرونة (على الرغم من أنه يجب أن يقدم كلاهما لينجح). إنها عن ضمان أن الوصول إلى الذكاء الاصطناعي - التكنولوجيا الأكثر تحولاً للبشرية - يبقى غير قابل للرقابة ومستقلاً. إنه درعنا ضد مستقبل لا مفر منه حيث يحكم عدد قليل من الشركات ليس فقط من يمكنه استخدام الذكاء الاصطناعي ، ولكن أيضًا كيف يمكنهم التفكير به.

نحن نبني هذه الأنظمة اليوم ليس لأنها ضرورية على الفور، ولكن لأنها ستكون ضرورية غدًا. عندما يصبح الذكاء الاصطناعي جوهريًا للمجتمع مثل النقود، فإن الحوسبة غير المشروطة لن تكون بديلاً فحسب - بل ستكون مهمة جدًا لمقاومة الهيمنة الرقمية تمامًا مثل البيتكوين والعملات المستقرة هي لمقاومة السيطرة المالية.

ربما تكون سباقًا نحو الذكاء الاصطناعي الفائق خارج نطاق الأنظمة المتميزة. ولكن التأكد من أن ثمار هذا الذكاء تبقى متاحة للجميع؟ إنه سباق يستحق الجهد.

تنصل:

  1. تم نشر هذه المقالة مرة أخرى من[Decentralised.co]. إعادة توجيه العنوان الأصلي: الحوسبة اللامركزية. جميع حقوق النشر تنتمي إلى الكاتب الأصلي [Shlok Khemani]. إذا كان هناك اعتراضات على هذا النشر المكرر، يرجى الاتصال بـ بوابة تعلمفريقنا سيتولى التعامل معه بسرعة.
  2. تنصل المسؤولية: الآراء والآراء المعبر عنها في هذه المقالة هي فقط تلك المعبر عنها بواسطة المؤلف ولا تشكل أي نصيحة استثمارية.
  3. تتم ترجمة المقالة إلى لغات أخرى من قبل فريق تعلم جيت. ما لم يُذكر، فإن نسخ أو توزيع أو سرقة المقالات المترجمة ممنوع.

لماذا يعتبر الحوسبة المتمايزة سباقة مهمة لتطوير الذكاء الاصطناعي؟

متقدم1/7/2025, 6:46:55 AM
يغطي مقال اليوم القطاع الناشئ ولكن في كثير من الأحيان يُفهم بشكل خاطئ للحوسبة اللامركزية في عالم العملات المشفرة. نغوص في منظر البنية التحتية للذكاء الاصطناعي لفهم أين يمكن للبدائل اللامركزية المنافسة بشكل واقعي.

إعادة توجيه العنوان الأصلي: Decentralised Compute

يتناول مقال اليوم القطاع الناشئ ولكن غالبًا ما يُفهم بشكل خاطئ للحوسبة اللامركزية في عالم العملات المشفرة. نقوم بالغوص في منظر البنية التحتية للذكاء الاصطناعي لفهم مكانة البدائل اللامركزية التي يمكن أن تنافس بشكل واقعي.

نستكشف الأسئلة مثل: هل يمكن تدريب الذكاء الاصطناعي العام على الشبكات الموزعة؟ ما هي المزايا الفريدة التي تقدمها الشبكات الرقمية؟ ولماذا قد يصبح البنية التحتية للحوسبة غير المشروعة بنفس الأهمية للذكاء الاصطناعي كما هو الحال بالنسبة للبيتكوين في المالية.

نمط شائع ستلاحظه في المقالة هو النمو التصاعدي لكل شيء يتعلق بالذكاء الاصطناعي - الاستثمار والحوسبة والقدرات. يتزامن هذا مع عودة الأسواق الرقمية والوعي بها. نحن متحمسون جدًا لتقاطع هاتين الموجتين التكنولوجيتين الرئيسيتين.

مرحبا!

في يوم مشمس في ممفيس، تينيسي، قامت طائرة تجسس بمروحة بالتحليق مرارًا فوق مبنى صناعي، حيث كان ركابها يلتقطون بشكل هستيري صورًا للمرافق أدناه. لم تكن هذه مشهدًا من التجسس في الحرب الباردة ولكن من عام 2024. الهدف لم يكن تثبيتًا عسكريًا أو موقعًا لتخصيب اليورانيوم ولكن مصنعًا سابقًا للأجهزة الكهربائية يضم أحد أقوى أجهزة الكمبيوتر الفائقة في العالم. وكان ركاب الطائرة ليسوا عملاء أجانب ولكن موظفي شركة مركز بيانات منافسة.

كل بضعة عقود، تظهر تكنولوجيا تحويلية لديها القدرة على تغيير مسار الحضارة بلا شك. ما يليه هو سباق بين أقوى الكيانات في العالم لتحقيق هذه التكنولوجيا أولاً. الأرباح هي ضخمة للغاية، وتداعيات الفشل مدمرة للغاية، لذلك يقوم هذه الكيانات بسرعة تحريك كل أدواتها ومواردها، من المواهب البشرية ورأس المال، نحو اتقان التكنولوجيا.

في القرن العشرين، تناسب تلك التقنيات البارزة هذا التعريف - الأسلحة النووية واستكشاف الفضاء. سار سباق استغلال هذه التقنيات بأقوى الدول الأمة. تأكدت انتصارات الولايات المتحدة في كليهما من مكانتها كقوة فائقة سيطرت على العالم، مما أدى إلى عصر من الازدهار الفائق. بالنسبة للمهزومين - ألمانيا النازية والاتحاد السوفيتي - كانت النتائج مدمرة، حتى مميتة.

المصنع K-25 العملاق بمساحة 44 فدان في أوك ريدج، تينيسي، الولايات المتحدة، حيث تم إنتاج اليورانيوم لأول سلاح نووي.مصدر)

كان لانتصار أميركا ثمن باهظ. كلف مشروع مانهاتن ما يقرب من 2 مليار دولار (حوالي 30 مليار دولار معدلة للتضخم) ووظف أكثر من 120،000 شخص - واحد من كل ألف أمريكي. ويتطلب سباق الفضاء موارد أكبر. كلف برنامج أبولو 28 مليار دولار في ستينيات القرن العشرين (حوالي 300 مليار دولار في أموال اليوم) وشارك فيه أكثر من 400،000 شخص - واحد من كل 490 أمريكيا. في ذروتها في عام 1966 ، سيطرت ناسا على 4.4٪ من الميزانية الفيدرالية الأمريكية بأكملها.

الأبولو 11، قبل إقلاعه في مهمة الوصول إلى القمر (مصدر)

أطلق ChatGPT في عام 2022 فترة جديدة من السباق بأبعاد تحول الحضارة - السعي وراء الذكاء الاصطناعي الفائق (ASI). بينما يتم تضمين AI بالفعل في الحياة اليومية - إدارة تغذية وسائل التواصل الاجتماعي ، وتوصيات Netflix ، ومرشحات البريد العشوائي - فإن ظهور نماذج اللغة الكبيرة (LLMs) يعد بتحول كل شيء: الإنتاجية البشرية ، وخلق الإعلام ، والبحث العلمي ، والابتكار نفسه.

في هذه المرة، ليست الدول الأمة المتنافسة (على الأقل حتى الآن) بل أكبر الشركات في العالم (مايكروسوفت، جوجل، ميتا، أمازون)، وأحدث الشركات الناشئة (أوبن إيه آي، أنثروبيك)، وأغنى شخص (إيلون ماسك). بينما تقوم التكنولوجيا الكبيرة بتوجيه رأس المال الغير مسبوق في بناء البنية التحتية لتدريب نماذج أكثر طاقة، تقوم الشركات الناشئة بتأمينرقم قياسيتمويل رأس المال المغامر. إيلون هو، حسنًا،تفعل أشياء إيلونمركز البيانات تحت المراقبة كان ينتمي إلى شركته، xAI.

ثم هناك أي شخص آخر - الشركات والشركات الصغيرة والشركات الناشئة - الذين قد لا يطمحون إلى بناء ASI ولكنهم حريصون على تسخير القدرات المتطورة التي تفتحها الذكاء الاصطناعي لتحسين أعمالهم أو تعطيل صناعة أو إنشاء أعمال جديدة تماما. إن المكافآت المحتملة هائلة لدرجة أن الجميع يتدافعون للمطالبة بنصيبهم من هذا الاقتصاد الجديد القائم على الذكاء الآلي.

في قلب ثورة الذكاء الاصطناعي يكمن المكون الأساسي الأكثر أهمية: وحدة معالجة الرسومات (GPU). تم تصميم هذا الشريحة الحاسوبية المتخصصة في الأصل لتشغيل ألعاب الفيديو، وأصبحت سلعة الأكثر طلبًا في العالم. الطلب على وحدات معالجة الرسومات (GPUs) هائل لدرجة أن الشركات غالبًا ما تتحملقوائم انتظار تمتد لعدة أشهرفقط لاقتناء بعض. تسبب هذا الطلب في إطلاق NVIDIA، مصنعهم الأساسي، في موقع أكثر الشركات قيمة في العالم.

بالنسبة للشركات غير القادرة أو الراغبة في شراء وحدات المعالجة الرسومية مباشرة، أصبح استئجار قوة الحساب هو الخيار الأفضل التالي. وقد دفع هذا بارتفاع مزودي السحابة الذكية للذكاء الاصطناعي - الشركات التي تدير مراكز بيانات متطورة مصممة لتلبية الاحتياجات الحسابية لازدهار الذكاء الاصطناعي. ومع ذلك، فإن الطلب المتزايد وطبيعته غير المتوقعة يعني أنه لا يوجد ضمان للتسعير أو التوفر.

أنا جادلأن العملات المشفرة تعمل كتكنولوجيا "كوزيان"، مصممة لـ "تزييت العجلات، وتعبيد الطرق، وتعزيز الجسور" لازدهار الابتكارات المختلفة الأخرى. مع ظهور الذكاء الاصطناعي كقوة تحولية في عصرنا، فإن ندرة وتكلفة الدخول المبالغ فيها لوحدات المعالجة الرسومية تشكل عائقا أمام الابتكار. عدة شركات تعمل في مجال العملات المشفرة تتدخل بهدف تجاوز هذه العقبات من خلال حوافز مبنية على تقنية سلسلة الكتل.

في مقال اليوم ، نتراجع أولا عن التشفير لفحص أساسيات البنية التحتية الذكاء الاصطناعي الحديثة - كيف تتعلم الشبكات العصبية ، ولماذا أصبحت وحدات معالجة الرسومات ضرورية ، وكيف تتطور مراكز البيانات اليوم لتلبية المتطلبات الحسابية غير المسبوقة. بعد ذلك ، نتعمق في حلول الحوسبة اللامركزية ، ونستكشف أين يمكنهم التنافس بشكل واقعي مع مقدمي الخدمات التقليديين ، والمزايا الفريدة التي توفرها شبكات التشفير ، ولماذا - على الرغم من أنها لن تعطينا AGI - ستظل ضرورية لضمان بقاء فوائد الذكاء الاصطناعي في متناول الجميع.

لنبدأ بسبب أهمية وحدات معالجة الرسومات (GPUs) في المقام الأول.

وحدات معالجة الرسومات

هذا هو ديفيد، تمثال من الرخام يبلغ طوله 17 قدمًا ويزن 6 طن، وتم إنشاؤه بواسطة العبقري الإيطالي مايكل أنجلو في عصر النهضة. يصور بطل الكتاب المقدس من قصة داود وجاليات ويعتبر رائعًا لتمثيله الكمال لتشريح الإنسان والاهتمام المتقن بالمنظور والتفاصيل.

مثل جميع التماثيل الرخامية، بدأ ديفيد كقطعة رخام كرارا هائلة وخشنة. للوصول إلى شكله النهائي السامي، كان على ميكيلانجيلو أن يقوم بتكسير الحجر بشكل منهجي. بدأ بضربات عريضة وجريئة لتحديد الشكل البشري الأساسي، وتقدم إلى تفاصيل أدق تدريجياً - منحنى عضلة، توتر في الوريد، التعبير الدقيق للإصرار في العيون. استغرق ميكيلانجيلو ثلاث سنوات لتحرير ديفيد من الحجر.

لكن لماذا نناقش شخصية من الرخام عمرها 500 عام في مقال حول الذكاء الاصطناعي؟

مثل ديفيد، تبدأ كل شبكة عصبية كامحة بوتيرة نقاط مُبدئية بأرقام عشوائية (أوزان)، شكلها لا يُميزها عن كتلة الرخام الضخمة.

يتم تغذية هذا النموذج الخام بشكل متكرر ببيانات التدريب - حالات لا حصر لها من المدخلات المقترنة بمخرجاتها الصحيحة. تؤدي كل نقطة بيانات تمر عبر الشبكة إلى تشغيل آلاف العمليات الحسابية. في كل عقدة (خلية عصبية) ، تضاعف الاتصالات الواردة قيمة الإدخال في وزن الاتصال ، وتجمع هذه المنتجات ، وتحول النتيجة من خلال "وظيفة التنشيط" التي تحدد قوة إطلاق الخلايا العصبية.

تماما كما كان مايكل أنجلو يتراجع ، ويقيم عمله ، ويصحح المسار ، تخضع الشبكات العصبية لعملية صقل. بعد كل تمريرة أمامية ، تقارن الشبكة مخرجاتها بالإجابة الصحيحة وتحسب هامش الخطأ الخاص بها. من خلال عملية تسمى الانتشار العكسي ، يقيس مقدار مساهمة كل اتصال في الخطأ ، ومثل ضربات إزميل مايكل أنجلو ، يقوم بإجراء تعديلات على قيمه. إذا أدى الاتصال إلى تنبؤ غير صحيح ، فإن تأثيره ينخفض. إذا ساعد في الوصول إلى الإجابة الصحيحة ، فإن تأثيره يتعزز.

عندما يمر جميع البيانات من خلال الشبكة (إكمال خطوة إلى الأمام وخلفية واحدة لكل نقطة بيانات)، يعتبر ذلك نهاية "الحقبة". يتكرر هذا العملية عدة مرات، حيث تقوم كل مرور بتحسين فهم الشبكة. خلال الحقب الأولى، تكون التغييرات في الوزن كبيرة حيث تقوم الشبكة بتعديلات واسعة - تمامًا مثل ضربات الأداة الأولى الجريئة. في الحقب لاحقة، تصبح التغييرات أكثر دقة، مع إتقان الاتصالات لتحقيق الأداء الأمثل - تمامًا مثل اللمسات النهائية الدقيقة التي أظهرت تفاصيل دافيد.

أخيرًا ، بعد الآلاف أو الملايين من التكرارات ، يظهر النموذج المدرب. مثل ديفيد واقفًا بفخر في شكله النهائي ، يتحول الشبكة العصبية من الضجيج العشوائي إلى نظام قادر على التعرف على الأنماط وإجراء التوقعات وإنشاء صور للقطط تركب الدراجات البخارية أو تمكين الكمبيوتر من فهم اللغة البشرية والاستجابة لها.

لماذا وحدات المعالجة الرسومية؟

ميكيلانجيلو، الذي يعمل بمفرده على داود، لا يستطيع أن يوجه ضربة واحدة بالمنزلق في كل مرة، حيث يتطلب كل ضربة حسابات دقيقة للزاوية والقوة والموضع. هذه الدقة المتنقلة هي السبب في استغراقه ثلاث سنوات متعبة لإكمال تحفته. ولكن تخيلوا أن هناك آلاف من النحاتين الماهرون يعملون على داود بتنسيق مثالي - فريق واحد على تجعيد الشعر، وآخر على عضلات الجذع، ومئات آخرون على التفاصيل المعقدة للوجه واليدين والقدمين. هذا الجهد المتوازي سيضغط على تلك الثلاث سنوات في أيام قليلة فقط.

بالمثل، على الرغم من أن وحدات المعالجة المركزية قوية ودقيقة، إلا أنها يمكن أن تقوم بعملية حسابية واحدة في كل مرة. تدريب الشبكة العصبية لا يتطلب عملية حسابية معقدة واحدة فقط ولكن مئات الملايين من العمليات البسيطة - في الغالب الضرب والجمع في كل عقدة. على سبيل المثال، يمكن تدريب الشبكة العصبية العينية المذكورة سابقًا، التي تحتوي على 18 عقدة فقط وحوالي 100 اتصال (معلمات)، على وحدة المعالجة المركزية في الوقت المناسب.

ومع ذلك، فإن أقوى النماذج الحديثة اليوم، مثل GPT-4 من OpenAI، تحتوي على 1.8 تريليون معلم تقريبًا! حتى النماذج الحديثة الأصغر حجما تحتوي على مليار معلم على الأقل. سيستغرق تدريب هذه النماذج بحساب واحد في كل مرة قرون من الزمان. هنا حيث تتفوق وحدات معالجة الرسومات: يمكنها أداء عدد كبير من العمليات الرياضية البسيطة بشكل متزامن، مما يجعلها مثالية لمعالجة عدة مقاصد لشبكات عصبية متوازية.

تعتبر الوحدات المعالجة الرسومية الحديثة قوية بشكل لا يصدق. على سبيل المثال ، تتألف أحدث وحدة معالجة رسومية من NVIDIA ، B200 ، من أكثر من 200 مليار مفتاح ، وتدعم 2،250 تريليون عملية حسابية موازية في الثانية (2،250 تيرافلوبس). يمكن لوحدة المعالجة الرسومية B200 الواحدة التعامل مع النماذج التي تحتوي على ما يصل إلى 740 مليار معلمة. تمثل هذه الآلات إنجازات الهندسة الحديثة ، مما يفسر لماذا شهدت NVIDIA ، التي تبيع كل وحدة بقيمة 40،000 دولار ، ارتفاع سعر سهمها بنسبة 2،500٪ في خمس سنوات.

جينسن هوانغ يقدم NVIDIA B200

ومع ذلك، حتى هذه الآلات القوية لا يمكن أن تدرب نماذج الذكاء الاصطناعي بمفردها. تذكر أنه خلال التدريب، يجب أن تمر كل حالة بيانات من خلال النموذج في دورة إلى الأمام وإلى الوراء بشكل فردي. تُدرب النماذج اللغوية الكبيرة الحديثة (LLMs) على مجموعات بيانات تشمل مجمل الإنترنت. فعلى سبيل المثال، تم معالجة GPT-4 تقديريًا 12 تريليون رمز (حوالي 9 تريليون كلمة)، ومن المتوقع أن تتمكن الجيل القادم من النماذج من التعامل مع ما يصل إلى 100 تريليون رمز. سيستغرق استخدام معالج الرسوميات الواحد لمثل هذا الحجم الهائل من البيانات مئات السنين.

يكمن الحل في إضافة طبقة أخرى من التوازي - إنشاء مجموعات GPU حيث يتم توزيع مهام التدريب بين العديد من وحدات معالجة الرسومات التي تعمل كنظام موحد. يمكن موازاة أعباء عمل التدريب النموذجية بثلاث طرق:

توازي البيانات: عدة وحدات معالجة الرسومات تحتفظ كل منها بنسخة كاملة من نموذج الشبكة العصبية أثناء معالجة أجزاء مختلفة من بيانات التدريب. تعالج كل وحدة معالجة رسومات دفعة البيانات المخصصة لها بشكل مستقل قبل المزامنة بشكل دوري مع جميع وحدات معالجة الرسومات الأخرى. خلال هذه الفترة من المزامنة، تتواصل وحدات معالجة الرسومات مع بعضها البعض للعثور على متوسط جماعي لأوزانها ومن ثم تحديث أوزانها الفردية بحيث تكون جميعها متطابقة. ونتيجة لذلك، تستمر في التدريب على دفعة بياناتها بشكل فردي قبل أن يحين وقت المزامنة مرة أخرى.

مع زيادة حجم النماذج، يمكن لنسخة واحدة أن تصبح كبيرة جدًا لتناسب بطاقة الرسومات الواحدة. على سبيل المثال، يمكن أن تحتوي بطاقة الرسومات B200 الأحدث فقط على 740 مليار معلمة في حين أن GPT-4 هي نموذج يحتوي على 1.8 تريليون معلمة. عدم توازن البيانات عبر بطاقات الرسومات الفردية لا يعمل في هذه الحالة.

توازي الموتر: يعالج هذا النهج قيد الذاكرة من خلال توزيع عمل وأوزان كل طبقة نموذج عبر وحدات معالجة رسومات متعددة. تتبادل وحدات معالجة الرسومات الحسابات الوسيطة مع المجموعة بأكملها أثناء كل خطوة انتشار للأمام والخلف. عادة ما يتم تجميع وحدات معالجة الرسومات هذه في خوادم من ثماني وحدات ، متصلة عبر NVLink - اتصال NVIDIA المباشر عالي السرعة من وحدة معالجة الرسومات إلى وحدة معالجة الرسومات. يتطلب هذا الإعداد نطاقا تردديا عاليا (يصل إلى 400 جيجابت / ثانية) ، واتصالات بزمن انتقال منخفض بين وحدات معالجة الرسومات. تعمل مجموعة الموتر بشكل فعال كوحدة معالجة رسومات ضخمة واحدة.

توازي خط الأنابيب: تقسم هذه الطريقة النموذج عبر وحدات معالجة رسومات متعددة ، حيث تتعامل كل وحدة معالجة رسومات مع طبقات محددة. تتدفق البيانات عبر وحدات معالجة الرسومات هذه بالتتابع ، مثل سباق التتابع حيث يدير كل عداء (GPU) حصته قبل تمرير العصا. يعد توازي خطوط الأنابيب فعالا بشكل خاص لتوصيل خوادم 8-GPU المختلفة داخل مركز البيانات ، باستخدام شبكات InfiniBand عالية السرعة للاتصال بين الخوادم. في حين أن متطلبات الاتصال الخاصة بها تتجاوز توازي البيانات ، إلا أنها تظل أقل من التبادلات المكثفة لوحدة معالجة الرسومات إلى وحدة معالجة الرسومات في Tensor Parallelism.

مقدار العناقيد الحديثة مذهل. GPT-4 ، بمعلمات تبلغ 1.8 تريليون و 120 طبقة ، استدعى 25،000 من وحدات المعالجة الرسومية A100 للتدريب. استغرق العملية ثلاثة أشهر وتكلفة تزيد عن 60 مليون دولار. تعتبر وحدات المعالجة الرسومية A100 جيلين قديمتين ؛ استخدام وحدات المعالجة الرسومية B200 الحالية سيتطلب فقط حوالي 8,000 وحدة و 20 يومًا من التدريب. مجرد مظهر آخر لمدى سرعة تطور الذكاء الاصطناعي.

لكن فئة نماذج GPT-4 هي ألعاب قديمة الآن. يجري التدريب على الجيل التالي من النماذج المتقدمة في مراكز البيانات التي تضم مجموعات من 100000 وحدة معالجة رسومات B100 أو H100 (الأخيرة أقدم بجيل واحد). هذه المجموعات ، التي تمثل أكثر من 4 مليارات دولار من النفقات الرأسمالية لوحدة معالجة الرسومات وحدها ، هي أقوى أجهزة الكمبيوتر العملاقة للبشرية ، حيث توفر ما لا يقل عن أربعة أضعاف قوة الحوسبة الخام لتلك المملوكة للحكومة.

بصرف النظر عن تأمين الحوسبة الأولية ، يواجه الطامحون ASI مشكلة أخرى عند محاولة إعداد هذه المجموعات: الكهرباء. تستهلك كل وحدة من وحدات معالجة الرسومات هذه 700 واط من الطاقة. عندما تجمع بين 100000 منها ، تستهلك المجموعة بأكملها (بما في ذلك الأجهزة الداعمة) أكثر من 150 ميجاوات من الطاقة. لوضع هذا في المنظور الصحيح ، فإن هذا الاستهلاك يساوي استهلاك مدينة يبلغ عدد سكانها 300000 نسمة - مقارنة بنيو أورلينز أو زيورخ.

الجنون لا يتوقف هنا. يعتقد معظم المتقدمين لـ ASI أن قوانين توسيع LLM—مما يشير إلى أن أداء النموذج يتحسن بشكل قابل للتنبؤ مع زيادة حجم النموذج وحجم مجموعة البيانات وحساب التدريب— سيستمر في الصحة. هناك بالفعل خطط لتشغيلات التدريب لنماذج أكثر قوة. بحلول عام 2025 ، من المتوقع أن يتجاوز تكلفة كل عنقود تدريب 10 مليارات دولار. بحلول عام 2027 ، أكثر من 100 مليار دولار. مع اقتراب هذه الأرقام من استثمار الحكومة الأمريكية في برامج أبولو ، يصبح واضحًا لماذا تحقيق الذكاء الصناعي العام يظهر كسباقنا الحاسم في عصرنا.

المقاييس للنماذج التي تبدأ بـ GPT-5 هي تقديرات

مع زيادة استهلاك الكهرباء بنسبة متناسبة مع حجم العناقيد، ستحتاج تشغيلات التدريب في العام المقبل إلى أكثر من 1 جيجاوات من الطاقة. في العام الذي يليه، 10 جيجاوات أو أكثر. وبدون أي مؤشرات على تباطؤ هذا التوسع، من المتوقع أن تستهلك مراكز البيانات تقريبًا4.5% من الإنتاج العالمي بحلول عام 2030الشبكات الكهربائية الحالية، تكافح بالفعل مع متطلبات النموذج الحالي, لا يمكن توليد الطاقة الكافية لمجموعات المستقبل. وهذا يثير سؤالا حرجا: من أين ستأتي هذه القوة؟ تتبع تقنية كبيرة نهجا مزدوجا.

في المدى البعيد ، الحل الوحيد القابل للتطبيق هو أن يقوم المتطلعون إلى الذكاء الاصطناعي بتوليد كهربائيتهم الخاصة. نظرًا لالتزاماتهم المناخية ، يجب أن تكون هذه الطاقة من مصادر متجددة. تبرز الطاقة النووية كحل رئيسي. أمازونتم شراء مؤخرًامجمع مراكز البيانات الذي يعمل بواسطة محطة طاقة نووية بقيمة 650 مليون دولار. مايكروسوفتتم تعيين رئيس للتكنولوجيات النووية و إحياء محطة جزيرة ثلاثة أميال التاريخية. جوجل لديهاالحصول على العديد من المفاعلات النووية الصغيرةمن شركة كايروس باور في كاليفورنيا. سان ألتمان من OpenAI قد دعمت شركات الطاقة مثل هيليون،Exowatt, و أوكلو.

مايكروسوفت تعيد فتح محطة ثري مايل آيلاند النووية (مصدر الصورة)

في حين يتم زراعة بذور الطاقة النووية الآن ، ستستغرق الثمار (أو القوة) عدة سنوات للنمو. ماذا عن متطلبات الطاقة لتوليد النماذج الفورية؟ الحل المؤقت ينطوي على التدريب الموزع عبر عدة مراكز بيانات. بدلاً من تجميع مطالب قوة ضخمة في موقع واحد ، تقوم شركات مثل مايكروسوفت وجوجل بتوزيع مجموعات التدريب الخاصة بها عبر مواقع متعددة.

التحدي، بالطبع، هو جعل هذه الأنظمة الموزعة تعمل معًا بفعالية. حتى بسرعة الضوء، يستغرق البيانات حوالي 43 مللي ثانية للذهاب والإياب من الساحل الشرقي إلى الساحل الغربي في الولايات المتحدة - إلى أبدية في مصطلحات الحوسبة. بالإضافة إلى ذلك، إذا تأخرت حتى رقاقة واحدة بنسبة مثلاً 10٪، فإنه يتسبب في إبطاء عملية التدريب بنفس النسبة.

يكمن الحل في ربط مراكز البيانات عبر مواقع متعددة بشبكات الألياف الضوئية عالية السرعة وتطبيق مجموعة من تقنيات التوازي التي تمت مناقشتها سابقا لمزامنة عملياتها. يتم تطبيق توازي الموتر على وحدات معالجة الرسومات داخل كل خادم ، مما يمكنها من العمل كوحدة واحدة. يتم استخدام توازي خطوط الأنابيب ، مع متطلبات الشبكة المنخفضة ، لربط الخوادم داخل نفس مركز البيانات. وأخيرا، تقوم مراكز البيانات في مواقع مختلفة (يشار إليها باسم "الجزر") بمزامنة معلوماتها بشكل دوري باستخدام توازي البيانات.

في وقت سابق، لاحظنا أن توازن البيانات غير فعال لوحدات معالجة الرسومات الفردية لأنها لا يمكن أن تستوعب النماذج الكبيرة بشكل مستقل. ومع ذلك، يتحول هذا التحول الديناميكي عندما نقوم بتوازن الجزر - كل منها يحتوي على آلاف من وحدات المعالجة المركزية - بدلاً من الوحدات الفردية. يتم توزيع بيانات التدريب عبر كل جزيرة، وتتزامن هذه الجزر بشكل دوري عبر اتصالات الألياف البصرية النسبياً الأبطأ (بالمقارنة مع NVLink و Infiniband).

مراكز البيانات

لنحول تركيزنا من التدريب ووحدات المعالجة الرسومية إلى مراكز البيانات أنفسها.

قبل عشرين عامًا، أطلقت Amazon خدمات الويب Amazon (AWS) - واحدة من أكثر الأعمال التحولية في التاريخ - وأنشأت صناعة جديدة تعرف باسم الحوسبة السحابية. يتمتع قادة السحابة الحاليون (Amazon و Microsoft و Google و Oracle) بسيطرة مريحة، حيث يحققون إجمالي إيرادات سنوية تقرب من 300 مليار دولار بنسبة ربح تتراوح بين 30-40٪. الآن، أنشأ ظهور الذكاء الاصطناعي فرصًا جديدة في سوق بقيت غالبًا على حالها لسنوات.

تختلف المتطلبات الفيزيائية وتعقيد التقنية والاقتصاديات لمراكز بيانات AI التي تعتمد على GPU بشكل كبير عن نظرائها التقليديين.

ناقشنا سابقا كيف أن وحدات معالجة الرسومات المتعطشة للطاقة. وهذا يؤدي إلى أن تكون مراكز البيانات الذكاء الاصطناعي أكثر كثافة في استخدام الطاقة ، وبالتالي إنتاج المزيد من الحرارة. بينما تستخدم مراكز البيانات التقليدية مراوح عملاقة (تبريد الهواء) لتبديد الحرارة ، فإن هذا النهج ليس كافيا ولا قابلا للتطبيق من الناحية المالية للمرافق الذكاء الاصطناعي. بدلا من ذلك ، تتبنى مراكز البيانات الذكاء الاصطناعي أنظمة تبريد سائلة حيث يتم توصيل كتل المياه مباشرة بوحدات معالجة الرسومات والمكونات الساخنة الأخرى لتبديد الحرارة بشكل أكثر كفاءة وهدوءا. (تأتي وحدات معالجة الرسومات B200 مع هذه البنية المدمجة). يتطلب دعم أنظمة التبريد السائل إضافة أبراج تبريد كبيرة ، ومرفق نظام مياه مركزي ، وأنابيب لنقل المياه من وإلى جميع وحدات معالجة الرسومات - وهو تعديل أساسي للبنية التحتية لمركز البيانات.

بالإضافة إلى استهلاك الطاقة الأعلى المطلق ، تتطلب مراكز بيانات AI متطلبات تحميل مختلفة. في حين تحافظ مراكز البيانات التقليدية على استهلاك الطاقة المتوقع ، فإن أنماط استخدام قوة عمل AI أكثر تقلبًا بكثير. يحدث هذا التقلب لأن وحدات معالجة الرسومات تتبادل بين الحين والآخر بين العمل بطاقة 100٪ والتباطؤ إلى الحد الأدنى عندما يصل التدريب إلى نقاط التفتيش ، حيث يتم تخزين الأوزان إما في الذاكرة أو ، كما رأينا سابقًا ، متزامنة مع الجزر الأخرى. تتطلب مراكز بيانات AI بنية تحتية للطاقة متخصصة لإدارة هذه التقلبات في الحمل.

يعد بناء مجموعات GPU أصعب بكثير من بناء سحابة الكمبيوتر العادية. تحتاج وحدات معالجة الرسومات إلى التحدث مع بعضها البعض بسرعة كبيرة. لتحقيق ذلك ، يجب أن تكون معبأة بالقرب من بعضها البعض. يحتاج مرفق الذكاء الاصطناعي النموذجي إلى أكثر من 200000 كابل خاص يسمى وصلات InfiniBand. تسمح هذه الكابلات لوحدات معالجة الرسومات بالتواصل. إذا توقف كابل واحد فقط عن العمل ، إيقاف تشغيل النظام بأكمله. لا يمكن أن تستمر عملية التدريب حتى يتم إصلاح هذا الكابل.

تجعل متطلبات البنية التحتية هذه من المستحيل تقريبا تحديث مراكز البيانات التقليدية بوحدات معالجة الرسومات عالية الأداء لجعلها جاهزة الذكاء الاصطناعي. وستتطلب مثل هذه الترقية إصلاحا هيكليا شبه كامل. بدلا من ذلك ، تقوم الشركات ببناء مراكز بيانات جديدة مصممة خصيصا الذكاء الاصطناعي من الألف إلى الياء ، مع قيام مؤسسات مختلفة بمتابعة ذلك على مستويات مختلفة.

في المقدمة ، تتسابق شركات التكنولوجيا الرائدة لبناء مراكز بيانات الذكاء الاصطناعي الخاصة بها. تستثمر Meta بكثافة في المرافق فقط لتطوير الذكاء الاصطناعي الخاصة بها ، وتتعامل معها على أنها استثمار رأسمالي مباشر لأنها لا تقدم خدمات سحابية. تقوم Microsoft ببناء مراكز ضخمة مماثلة لتشغيل كل من مشاريع الذكاء الاصطناعي الخاصة بها وخدمة العملاء الرئيسيين مثل OpenAI. دخلت Oracle أيضا هذا المجال بقوة ، مما أدى إلى تأمين OpenAI كعميل بارز. تواصل أمازون توسيع بنيتها التحتية ، لا سيما لدعم شركات الذكاء الاصطناعي الناشئة مثل Anthropic. اختارت xAI من Elon Musk ، التي لا ترغب في الاعتماد على شركة أخرى ، بناء مجموعة GPU الخاصة بها 100,000.

داخل مركز بيانات وحدة معالجة الرسومات xAI 100,000 H100 (مصدر)

بجانب الشركات الحالية، تظهر "neoclouds" - مزودي سحابة متخصصين يركزون حصراً على الحوسبة بوحدة المعالجة الرسومية (GPU) لأعباء الذكاء الاصطناعي. يتم تقسيم هذه الneoclouds إلى فئتين متميزتين بناءً على المقياس.

مزودو السحابة الكبيرة، بما في ذلك CoreWeave, Crusoe، وLLama Labs, تشغيل مجموعات تتكون من أكثر من 2،000 وحدة معالجة الرسومات. يميزون أنفسهم عن خدمات السحابة التقليدية بطريقتين: عرض حلول البنية التحتية المخصصة بدلاً من الحزم القياسية، والتطلبات التزام العملاء على المدى الطويل بدلاً من الترتيبات الدفع حسب الاستخدام.

تعتمد نموذجهم الاقتصادي على استغلال هذه الاتفاقيات طويلة الأمد وقدرة العملاء على السداد لتأمين تمويل البنية التحتية. تأتي الإيرادات من معدلات متميزة تُفرض على الخدمات المتخصصة، والأرباح من الفارق بين تكاليف التمويل المنخفضة ومدفوعات العملاء.

هكذا يعمل عادة مثل هذا الاتفاق: يقوم مزود neocloud بتأمين عقد لمدة ثلاث سنوات مع شركة ناشئة في مجال الذكاء الاصطناعي ذات تمويل جيد لـ 10،000 وحدة معالجة رسومية H100 بقيمة 40 مليون دولار شهريًا. باستخدام هذا التدفق المضمون من الإيرادات بقيمة 1.44 مليار دولار ، يؤمن المزود تمويلًا مصرفيًا مواتٍ (بفائدة 6٪) لشراء وتركيب بنية تحتية تبلغ قيمتها 700 مليون دولار. تغطي الإيرادات الشهرية بقيمة 40 مليون دولار تكاليف التشغيل بقيمة 10 ملايين دولار ومدفوعات القروض بقيمة 20 مليون دولار ، مما يولد أرباحًا بقيمة 10 ملايين دولار شهريًا بينما تتلقى الشركة الناشئة قدرة حاسوبية مخصصة ومبنية خصيصًا.

يتطلب هذا النموذج اختيار العملاء بعناية فائقة. وعادة ما يبحث المزودون عن الشركات التي لديها احتياطيات نقدية كبيرة أو دعم استثماري قوي - وغالبا ما تكون التقييمات 500 مليون دولار أو أكثر.

تقدم سحبات neoclouds الصغيرة مجموعات معالجة الرسومات (GPU) تصل إلى 2000 أو أقل وتلبي فئة منفصلة من سوق الذكاء الاصطناعي - الشركات الناشئة الصغيرة والمتوسطة الحجم. تقوم هذه الشركات إما بتدريب نماذج أصغر (تصل إلى 70 مليار معلمة) أو ضبط النماذج المفتوحة المصدر. (ضبط النموذج هو عملية تكييف نموذج أساسي لحالات الاستخدام المحددة.) كلا هذه الأعباء تتطلب قدرًا معتدلاً ولكن مخصصًا للحوسبة لفترات أقصر.

تقدم هذه المزودات الحوسبة حسب الطلب بأسعار ساعية للوصول إلى مجموعة غير متوقفة لمدة ثابتة. على الرغم من أن هذا يكلف أكثر من العقود طويلة الأجل ، إلا أنه يمنح الشركات الناشئة المرونة للتجربة دون الالتزام باتفاقات تزيد قيمتها عن عشرات الملايين من الدولارات.

وأخيرًا، بصرف النظر عن المتعهدون السحابيين الحاليين ومزودي الخدمات السحابية الجديدة، لدينا وسطاء في مجال البنية التحتية للذكاء الاصطناعي: المنصات والمجمعون. هؤلاء الوسطاء لا يمتلكون بنية تحتية لوحدات المعالجة الرسومية بل يربطون أصحاب الموارد الحاسوبية بأولئك الذين يحتاجون إليها.

مقدمو البلاتفورمات مثل gate.HydraHostوFluidstackتعمل كما تعمل Shopify في مجال الحوسبة باستخدام وحدات المعالجة الرسومية. تمامًا كما يتيح Shopify للتجار إطلاق متاجرهم عبر الإنترنت دون بناء بنية تحتية للتجارة الإلكترونية، تتيح هذه المنصات لمشغلي مراكز البيانات وأصحاب وحدات المعالجة الرسومية تقديم خدمات الحوسبة دون تطوير واجهات العملاء الخاصة بهم. إنها توفر حزمة تقنية كاملة لتشغيل نشاط تجارة الحوسبة باستخدام وحدات المعالجة الرسومية، بما في ذلك أدوات إدارة البنية التحتية، وأنظمة توفير العملاء، وحلول الفوترة.

مجمعي السوق مثلVast.aiتعمل كـ أمازون في عالم وحدة المعالجة الرسومية. يقومون بإنشاء سوق يجمع بين عروض الحوسبة المتنوعة من مقدمي خدمة مختلفين - بدءًا من بطاقات RTX للاستخدام الاستهلاكي إلى بطاقات H100 المهنية. يقوم أصحاب وحدات المعالجة الرسومية بإدراج مواردهم مع مقاييس أداء مفصلة وتصنيفات للموثوقية، في حين يقوم العملاء بشراء وقت الحوسبة من خلال منصة خدمة ذاتية.

الاستدلال

حتى الآن، تركزت مناقشتنا على تدريب (أو ضبط) النماذج. ومع ذلك، بمجرد تدريب النموذج، يجب نشره لخدمة المستخدمين النهائيين - وهو عملية تسمى الاستدلال. في كل مرة تتحدث فيها مع ChatGPT ، فأنت تستخدم وحدات معالجة الرسومات التي تعمل على مهام الاستدلال التي تأخذ إدخالك وتولد استجابة النموذج. دعنا نعود لمناقشة تماثيل الرخام لمدة دقيقة.

هذا هو ديفيد أيضًا - ليس الأصلي لميشيلانجيلو، بل صب من الجص تم تكليفه من قبل الملكة فيكتوريا في عام 1857 لمتحف فيكتوريا وألبرت في لندن. في حين أن ميشيلانجيلو قضى ثلاث سنوات شاقة في تقطيع الرخام بعناية لإنشاء النسخة الأصلية في فلورنسا، تم صنع هذا الصب من قالب مباشر للتمثال - مما يُعيد إنتاج كل منحنى وزاوية وتفصيلة قد صاغها ميشيلانجيلو بكل دقة. يحدث العمل الإبداعي المكثف مرة واحدة. بعد ذلك، يصبح الأمر قضية تكرار هذه الميزات بدقة. في الوقت الحالي، تظهر نسخ ديفيد في كل مكان، من قاعات المتاحف إلى ساحات كازينو لاس فيغاس.

هذه هي بالضبط الطريقة التي يعمل بها الاستدلال في الذكاء الاصطناعي. يشبه تدريب نموذج لغوي كبير عملية النحت الأصلية لمايكل أنجلو - مكثفة من الناحية الحسابية ، وتستغرق وقتا طويلا ، وثقيلة الموارد حيث يتعلم النموذج تدريجيا "الشكل" الصحيح للغة من خلال ملايين التعديلات الصغيرة. لكن استخدام النموذج المدرب - الاستدلال - يشبه إلى حد كبير إنشاء نسخة طبق الأصل. عندما تدردش مع ChatGPT ، فأنت لا تعلمها اللغة من الصفر ولكن باستخدام نسخة من نموذج تم بالفعل إتقان معلماته (مثل منحنيات وزوايا ديفيد الدقيقة).

تختلف أعباء الاستدلال بشكل أساسي عن التدريب. بينما يتطلب التدريب تجمعات كبيرة وكثيفة من أحدث وحدات معالجة الرسومات مثل H100s للتعامل مع الحسابات المكثفة، يمكن أن يعمل الاستدلال على خوادم واحدة تحتوي على وحدة معالجة رسومات باستخدام عتاد قديم مثل A100s أو حتى بطاقات الرسومات للمستهلكين، مما يجعله أكثر كفاءة من حيث التكلفة بشكل كبير. ذلك قال، تمتلك أعباء الاستدلال مطالباتها الفريدة الخاصة:

  • تغطية جغرافية واسعة: يجب نشر النماذج عبر مراكز بيانات متعددة في جميع أنحاء العالم لضمان حصول المستخدمين في سنغافورة على ردود بنفس سرعة المستخدمين في سان فرانسيسكو
  • مدة تشغيل عالية: على عكس التدريب الذي يمكن إيقافه واستئنافه ، يحتاج الاستدلال إلى أن يكون متاحًا على مدار الساعة لأن المستخدمين يتوقعون الردود الفورية في أي وقت
  • التكرار: يجب أن يكون هناك عدة خوادم جاهزة للتعامل مع الطلبات في حالة فشل بعضها أو أن يتعرض بعضها للتحميل الزائد

تجعل هذه الخصائص وظائف الاستدلال مثالية لنماذج التسعير الفورية. بموجب نموذج التسعير الفوري ، تتوفر موارد وحدة المعالجة المركزية بتخفيضات كبيرة - غالبًا 30-50٪ أقل من أسعار الطلب الفوري - مع الفهم أن الخدمة قد تتوقف عندما يحتاج العملاء ذوو الأولوية العالية إلى الموارد. يتناسب هذا النموذج مع الاستدلال لأن النشر المتكرر يسمح بنقل الأعباء العمل إلى وحدات المعالجة المركزية المتاحة بسرعة في حالة انقطاع التيار.

في هذا السياق من وحدات معالجة الرسومات والحوسبة السحابية للذكاء الاصطناعي، نحن الآن في موقف يمكننا من خلاله البدء في استكشاف مكانة العملات المشفرة في كل ذلك. دعونا نبدأ (أخيرًا) في ذلك.

أين تناسب العملات الرقمية في المجال

كثيرا ما تستشهد المشاريع والتقارير بملاحظة بيتر ثيل بأن "الذكاء الاصطناعي مركزية ، والعملات المشفرة لا مركزية" عند مناقشة دور التشفير في التدريب الذكاء الاصطناعي. في حين أن تصريح Thiel صحيح بلا شك ، فقد رأينا للتو أدلة وافرة على الميزة الواضحة لشركات التكنولوجيا الكبرى في تدريب الذكاء الاصطناعي القوية - غالبا ما يكون من غير المختلس اقتراح أن التشفير وأجهزة الكمبيوتر اللامركزية تقدم الحل الأساسي لموازنة تأثير شركات التكنولوجيا الكبرى.

تلك الادعاءات تردد صداها عن التهويلات السابقة بشأن إمكانية تحويل العملات الرقمية العملات الاجتماعية، والألعاب، والعديد من الصناعات الأخرى. فهي ليست فقط غير مجدية ولكنها، كما سأقدم حجة قريباً، غير واقعية - على الأقل في المدى القصير.

بدلاً من ذلك ، سأتبع نهجًا أكثر عملية. سأفترض أن شركة الذكاء الاصطناعي الباحثة عن الحوسبة لا تهتم بمبادئ اللامركزية أو المعارضة الأيديولوجية للتكنولوجيا الكبيرة. بل عندهم مشكلة - يريدون الوصول إلى حوسبة GPU موثوقة بأقل تكلفة ممكنة. إذا كان بإمكان مشروع العملات الرقمية توفير حل أفضل لهذه المشكلة من البدائل غير الرقمية ، فسيستخدمونه.

وعليه، دعونا نفهم أولاً من يتنافس مع مشاريع العملات المشفرة. في وقت سابق، ناقشنا الفئات المختلفة لمزودي خدمات السحابة الذكاء الاصطناعي - الشركات التكنولوجية الكبيرة وموفري الخدمات الفائقة الكبرى، والشركات النيوكلاود الكبيرة والصغيرة، ومزودي المنصات والأسواق.

الأطروحة الأساسية وراء الحوسبة اللامركزية (مثل جميع مشاريع DePIN) هي أن سوق الحوسبة الحالي يعمل بشكل غير فعال. الطلب على وحدات معالجة الرسومات لا يزال مرتفعًا بشكل استثنائي، في حين يبقى العرض متفككًا وغير مستغل في مراكز البيانات العالمية والمنازل الفردية. يتنافس معظم المشاريع في هذا القطاع بشكل مباشر مع الأسواق من خلال تجميع هذا العرض المتفكك لتقليل عدم الكفاءة.

بعد تأسيس ذلك، دعونا نلقي نظرة على كيفية يمكن لهذه المشاريع (وسوق الحوسبة بشكل عام) المساعدة في مجالات العمل المختلفة للذكاء الاصطناعي - التدريب والضبط الدقيق والاستدلال.

تدريب

أولا وقبل كل شيء. لا، لن يتم تدريب ASI على شبكة عالمية من وحدات المعالجة الرسومية المركزية الموزعة. على الأقل، ليس على المسار الحالي للذكاء الاصطناعي. وفيما يلي السبب.

سبق أن ناقشنا مدى اتساع أحجام أنظمة نماذج الأساس. تحتاج إلى 100000 من أقوى وحدات معالجة الرسومات في العالم للبدء في المنافسة. هذا الرقم يزداد فقط مع مرور السنوات. بحلول عام 2026 ، من المتوقع أن يتجاوز تكلفة تشغيل التدريب 100 مليار دولار ، مما يتطلب ربما مليون وحدة معالجة الرسومات أو أكثر.

فقط الشركات التقنية الكبيرة، المدعومة بالسحب السحابية الكبرى والشراكات المباشرة مع Nvidia، يمكنها تجميع مجموعات بهذا الحجم. تذكر، نحن في سباق نحو ASI، وجميع المشاركين مدفوعون بشكل كبير وممولون. إذا كان هناك إمداد إضافي لهذا العدد الكبير من وحدات معالجة الرسومات (وهو ليس كذلك) فإنهم سيكونون الأوائل الذين يقتنصونها.

حتى لو تمكن مشروع تشفير ما بالطريقة الماهرة من تجميع الحوسبة الضرورية، فإن عقبتين أساسيتين تمنعان تطوير الذكاء الاصطناعي المركزي:

أولاً ، لا يزال الوحدات المعالجة الرسومية بحاجة إلى أن تكون متصلة في مجموعات كبيرة لتعمل بشكل فعال. حتى إذا تم تقسيم هذه المجموعات بين الجزر في المدن ، فسيتعين توصيلها بواسطة خطوط بصرية منفصلة. لا يمكن تحقيق أيٍ من ذلك في إعداد لامركزي. بالإضافة إلى توفير وحدات معالجة الرسومات ، تتطلب إنشاء مراكز البيانات الجاهزة للذكاء الاصطناعي تخطيطًا دقيقًا - عملية تستغرق عادة من عام إلى عامين. (قامت xAI بذلك في 122 يومًا فقط ولكن من غير المرجح أن يقوم إيلون بإطلاق عملة مشفرة في المستقبل القريب).

ثانياً ، إن إنشاء مركز بيانات AI فحسب ليس كافيًا لولادة AI ذكية بشكل فائق. كمؤسس لشركة Anthropic ، Dario Amodeiتم شرحه مؤخراً، فإن التحجيم في الذكاء الاصطناعي مشابه للتفاعل الكيميائي. مثلما يتطلب التفاعل الكيميائي كواشف متعددة بنسب دقيقة للمضي قدما ، يعتمد التوسع الذكاء الاصطناعي الناجح على ثلاثة مكونات أساسية تنمو بشكل متناسق: شبكات أكبر ، وأوقات تدريب أطول ، ومجموعات بيانات أكبر. إذا قمت بتوسيع نطاق مكون واحد دون المكونات الأخرى ، فستتوقف العملية.

حتى لو تمكنا من تراكم كل من الحوسبة والحصول على تجمعات للعمل معًا بطريقة ما، ما زلنا بحاجة إلى تيرابايت من البيانات عالية الجودة لكي يكون النموذج المدرب جيدًا. بدون مصادر البيانات الخاصة للتكنولوجيا الكبيرة، ورأس المال لإبرام صفقات تبلغ قيمتها عدة ملايين من الدولارات مع المنتديات على الإنترنت ووسائل الإعلام، أو النماذج الحالية لتوليد البيانات الاصطناعية، فإن الحصول على بيانات تدريب كافية يصبح أمرًا مستحيلًا.

هناك بعض التكهنات في الآونة الأخيرة بأن قوانين التوسع قد تصل إلى طريق مسدود، مما قد يؤدي إلى وصول LLMs إلى سقف أداء. يرى البعض ذلك كفرصة لتطوير الذكاء الاصطناعي المتمركز. ومع ذلك، يغفل هذا الأمر عن عامل حاسم - تركز المواهب. تحتضن شركات التكنولوجيا الكبيرة ومختبرات الذكاء الاصطناعي الباحثين الرئيسيين في العالم اليوم. الاكتشافات البديلة المبتكرة لتحقيق الذكاء الاصطناعي العام ستنشأ على الأرجح من هذه المراكز. نظرًا للمنافسة الشرسة في هذا المجال، ستظل هذه الاكتشافات محروسة بشكل وثيق.

بناءً على جميع هذه الحجج ، أنا واثق بنسبة 99.99٪ من أن تدريب الذكاء الاصطناعي العام أو حتى نماذج أقوى في العالم لن يتم تدريبها على مشروع حوسبة مركزية. في هذه الحالة ، ما هي النماذج التي يمكن أن تساعد العملات الرقمية في تدريبها؟

من أجل تدريب النماذج عبر مجموعات GPU منفصلة موضوعة في مواقع جغرافية مختلفة ، نحتاج إلى تنفيذ توازي البيانات بينها. (تذكر أن توازي البيانات هو كيفية مزامنة جزر مختلفة من وحدات معالجة الرسومات ، كل منها يعمل على أجزاء منفصلة من بيانات التدريب ، مع بعضها البعض). كلما زاد حجم النموذج الذي يتم تدريبه ، زادت كمية البيانات التي يجب تبادلها بين هذه الجزر. كما ناقشنا ، بالنسبة للنماذج الحدودية التي تحتوي على أكثر من تريليون معلمة ، فإن عرض النطاق الترددي المطلوب كبير بما يكفي ليتطلب اتصالات ألياف بصرية مخصصة.

ومع ذلك ، بالنسبة للطرز الأصغر ، تنخفض متطلبات النطاق الترددي بشكل متناسب. خلقت الاختراقات الأخيرة في خوارزميات التدريب منخفضة الاتصال ، لا سيما في التزامن المتأخر ، فرصا واعدة لتدريب النماذج الصغيرة والمتوسطة الحجم بطريقة لامركزية. يقود فريقان هذه الجهود التجريبية.

Nous Research هي شركة تسريع الذكاء الاصطناعي ولاعب رائد في تطوير الذكاء الاصطناعي مفتوحة المصدر. اشتهروا بسلسلة Hermes من نماذج اللغة والمشاريع المبتكرة مثل World Sim. في وقت سابق من هذا العام ، قاموا بتشغيل شبكة فرعية BitTensor بتصنيف LLM لبضعة أشهر. لقد غمسوا أصابع قدميهم في الحوسبة اللامركزية من خلال إطلاق DisTrO مشروع (التدريب الموزع عبر الإنترنت) ، حيث نجحوا في تدريب نموذج Llama-2 للمعلمة 1.2B مع تحقيق تخفيض 857x في متطلبات النطاق الترددي بين وحدات معالجة الرسومات.

تقرير DisTrO من قبل Nous Research

الذكاء الأعلى، وهو ناشئة تطوير البنية التحتية للذكاء الاصطناعي المتوزع بمقياس كبير، تهدف إلى تجميع الموارد الحسابية العالمية وتمكين التدريب التعاوني للنماذج ذات التقنية المتقدمة من خلال الأنظمة الموزعة. منتجاتهم إطار OpenDiLoCo (تنفيذ DeepMind's طريقة الاتصال المنخفض الموزعة) بنجاح تدريب نموذج مليار معلمة عبر قارتين وثلاثة بلدان مع الحفاظ على استخدام الحوسبة بنسبة 90-95٪.

لكن كيف تعمل هذه التدريبات اللامركزية؟

يتطلب التوازن البيانات التقليدي أن تتقاسم وتتوافق وحدات معالجة الرسومات (GPUs) أوزانها بعد كل خطوة تدريب - مستحيل عبر اتصالات الإنترنت. بدلاً من ذلك، تسمح هذه المشاريع لكل "جزيرة" من وحدات المعالجة المركزية بالتدريب بشكل مستقل لمئات الخطوات قبل المزامنة. فكر فيها كفرق بحثية مستقلة تعمل على نفس المشروع: بدلاً من التحقق باستمرار من بعضها البعض، يحرزون تقدمًا كبيرًا بشكل مستقل قبل مشاركة نتائجهم.

يتم مزامنة DisTrO و OpenDiLoCo فقط كل 500 خطوة ، باستخدام نهج مزدوج للمحسن:

  • محسن "داخلي" يتعامل مع التحديثات المحلية على كل وحدة معالجة الرسومات، مثل فريق يكتشف اكتشافات محلية
  • أداة تحسين "خارجية" تدير المزامنات الدورية بين وحدات المعالجة الرسومية، حيث تعمل كمنسق يجمع جميع النتائج معًا

عندما يتزامنون، بدلاً من مشاركة جميع الأوزان، يشاركون 'تدرجًا زائفًا' - وهو في الأساس الفرق بين أوزانهم الحالية والأوزان من آخر مزامنة. هذا فعال بشكل ملحوظ، مثل مشاركة ما تغير في مستند بدلاً من إرسال المستند بأكمله في كل مرة.

INTELLECT-1، تطبيق عملي لـ OpenDiLoCo من Prime Intellect ، يدفع هذا النهج أبعد من ذلك بتدريب نموذج بسعة 10 مليار معلمة - وهو أكبر مجهود تدريب متموِّل للتوزيع حتى الآن. لقد أضافوا تحسينات رئيسية مثل:

  • ضغط البيانات التي يحتاجون إلى مشاركتها، مما يجعل الاتصال أكثر كفاءة بكثير
  • بناء أنظمة النسخ الاحتياطي حتى يمكن استمرار التدريب حتى لو توقفت بعض الحواسيب
  • جعل عملية المزامنة سريعة للغاية - أقل من دقيقة

INTELLECT-1، الذي تم تدريبه بواسطة أكثر من 20 مجموعة من وحدات معالجة الرسومات الموزعة عبر العالم، أكمل مؤخرًاالتدريب المسبقوسيتم إصداره قريبًا كنموذج مفتوح المصدر بالكامل.

لوحة تدريب INTELLECT-1

فرق مثلماكروكوسموسيستخدمون خوارزميات مشابهة لـنماذج القطارفي نظام Bittensor.

إذا استمرت خوارزميات التدريب المتمركزة هذه في التحسن، فقد تكون قادرة على دعم نماذج تصل إلى 100 مليار معامل مع جيل الـ GPU التالي. حتى نماذج بهذا الحجم يمكن أن تكون مفيدة جدًا لمجموعة واسعة من حالات الاستخدام:

  1. البحث والتجربة مع الهندسات الجديدة التي لا تتطلب حسابات ضخمة على الحدود
  2. نماذج عامة أصغر حجمًا مُحسَّنة للأداء والسرعة على حساب الذكاء الخام
  3. نماذج محددة للمجال

Fine-tuning

الضبط الدقيق هو عملية أخذ نموذج أساسي مدرب مسبقا (عادة ما يكون نموذجا مفتوح المصدر بواسطة Meta أو Mistral أو Alibaba) وتدريبه بشكل أكبر على مجموعة بيانات محددة لتكييفه مع مهام أو مجالات معينة. يتطلب هذا حوسبة أقل بكثير من التدريب من الصفر لأن النموذج قد تعلم بالفعل أنماطا لغوية عامة ويحتاج فقط إلى ضبط أوزانه للمجال الجديد.

متطلبات الحوسبة لمقياس الضبط الدقيق مع حجم النموذج. بافتراض التدريب على H100:

  • نماذج صغيرة (معلمات 1-7B): وحدة معالجة رسومات واحدة ، الانتهاء في غضون 12 ساعة
  • نماذج متوسطة (7-13B): أنظمة تجميع GPU 2-4 ، الانتهاء خلال 36 ساعة
  • الطرز الكبيرة (>30B): ما يصل إلى 8 مجموعات GPU ، اكتمال في غضون 4 أيام

نظرًا لهذه المواصفات، لا يتطلب ضبط الدقة الخوارزميات الموزعة المعقدة التي تم مناقشتها سابقًا. يوفر النموذج عند الطلب، حيث يستأجر مطورون مجموعات GPU لفترات قصيرة ومكثفة، الدعم الكافي. تتمتع أسواق الحوسبة اللامركزية التي تتمتع بتوافر قوي لوحدات معالجة الرسومات بموقع مثالي للتعامل مع هذه الأعباء العمل.

الاستدلال

الاستدلال هو المكان الذي تتمتع فيه أسواق الحوسبة اللامركزية بأوضح مسار لملاءمة المنتج للسوق. ومن المفارقات أن هذا هو سير العمل الأقل مناقشة في سياق التدريب اللامركزي. ينبع هذا من عاملين: يفتقر الاستدلال إلى جاذبية 100000 عملية تدريب على "نموذج الله" لوحدة معالجة الرسومات ، ويرجع ذلك جزئيا إلى المرحلة الحالية من ثورة الذكاء الاصطناعي.

اعتبارًا من اليوم، يذهب معظم الحوسبة فعلاً نحو التدريب. سباق الوصول إلى الذكاء الاصطناعي العام يؤدي إلى استثمارات ضخمة مقدمة في بنية التدريب. ومع ذلك، يتحول هذا التوازن بشكل لا مفر منه عندما تنتقل تطبيقات الذكاء الاصطناعي من مرحلة البحث إلى مرحلة الإنتاج. لكي يكون نموذج الأعمال الخاص بالذكاء الاصطناعي قابلاً للتحمل، يجب أن تتجاوز الإيرادات الناتجة من الاستدلال تكاليف كل من التدريب والاستدلال مجتمعة. بينما كان تدريب GPT-4 مكلفًا للغاية، إلا أن ذلك كان تكلفة مرة واحدة. وتُدفع نفقات الحوسبة المستمرة - وطريقة OpenAI لتحقيق الربحية - من خلال خدمة مليارات طلبات الاستدلال للعملاء المدفوعين.

تجد سوق الحوسبة ، المركزية أو غير المركزية ، بفضل تجميع مجموعة متنوعة من نماذج وحدات معالجة الرسومات (القديمة والجديدة) من جميع أنحاء العالم ، نفسها في موقف فريد لخدمة أعباء العمل الاستدلالية.

تتفوق أسواق الحوسبة، سواء كانت لامركزية أو تقليدية، بطبيعتها على أعباء العمل التفسيرية من خلال تجميع نماذج وحدات معالجة الرسومات المتنوعة (سواء الحالية أو القديمة) على مستوى العالم. تلك المزايا الفطرية لديها تتوافق تمامًا مع متطلبات العمل التفسيري: التوزيع الجغرافي الواسع، والتشغيل المستمر، والاحتياطي النظامي، والتوافق عبر أجيال وحدات معالجة الرسومات.

ولكن لماذا العملات المشفرة؟

لقد ناقشنا سابقًا سيناريوهات العمل المختلفة التي يمكن أن يساعد فيها الحوسبة اللامركزية والتي لا يمكن أن يساعدها فيها. الآن، نحن بحاجة إلى الإجابة على سؤال مهم آخر: لماذا يختار المطور تأمين الحوسبة من مزود لامركزي عن مزود مركزي؟ ما هي المزايا المقنعة التي تقدمها الحلول اللامركزية؟

التسعير والنطاق

حققت العملات المستقرة ملاءمة المنتج للسوق من خلال تقديم بديل متفوق للمدفوعات التقليدية عبر الحدود. عامل كبير هو أن العملات المستقرة هي ببساطة أرخص بكثير! وبالمثل ، فإن العامل الأكبر الوحيد الذي يدفع المطور الذكاء الاصطناعي لاختيار مزود السحابة هو التكلفة. لكي يتنافس موفرو الحوسبة اللامركزية بفعالية، يجب عليهم أولا تقديم أسعار فائقة.

سوق الحوسبة ، مثل جميع الأسواق ، هو عمل شبكة تتأثر بتأثيرات الشبكة. كلما زادت إمدادات وحدات معالجة الرسومات (GPUs) على منصة ما ، زادت سيولة الأصول وتوفرها للعملاء ، مما يجذب المزيد من الطلب. مع زيادة الطلب ، يتحفز المزيد من مالكي وحدات معالجة الرسومات للانضمام إلى الشبكة ، مما يخلق دورة مثمرة. يمكن أن تمكن زيادة العرض أيضًا من تحقيق تسعير أكثر تنافسية من خلال تحسين التوافق وتقليل وقت الخمول. عندما يتمكن العملاء من العثور باستمرار على الحوسبة التي يحتاجونها بأسعار جذابة ، فمن المرجح أن يبنوا اعتمادات تقنية دائمة على النظام ، مما يعزز أكثر فأكثر تأثيرات الشبكة.

هذه الديناميكية قوية بشكل خاص في الاستدلال ، حيث يمكن للتوزيع الجغرافي للعرض أن يعزز بالفعل عرض المنتج عن طريق تقليل زمن الوصول للمستخدمين النهائيين. سيكون للسوق الأول الذي يحقق دولاب الموازنة للسيولة على نطاق واسع ميزة تنافسية كبيرة ، حيث يواجه كل من الموردين والعملاء تكاليف التبديل بمجرد دمجهم مع أدوات النظام الأساسي وسير العمل.

تؤثر شبكة سوق GPU على دولاب الموازنة

في مثل هذه الأسواق التي يستحوذ فيها الفائز على كل شيء ، تشغيل الشبكةوبلوغ سرعة الهروب هو المرحلة الأكثر حساسية. هنا ، توفر العملات المشفرة لمشاريع الحوسبة المتمركزة أداة قوية للغاية لمنافسيها المركزيين الذين ليس لديهم ببساطة: حافز الرمز.

يمكن أن تكون الميكانيكا مباشرة ولكنها قوية. سيطلق البروتوكول أولا رمزا يتضمن جدولا زمنيا للمكافآت التضخمية ، وربما يوزع المخصصات الأولية على المساهمين الأوائل من خلال عمليات الإنزال الجوي. ستكون هذه الانبعاثات الرمزية بمثابة الأداة الأساسية لتمهيد جانبي السوق.

بالنسبة لموفري وحدات معالجة الرسومات (GPU)، يجب تصميم هيكل المكافآت بعناية لتشكيل سلوك جانب العرض. سيكسب موفرو الخدمة عملات تشفير متناسبة مع معدلات حسابهم المساهمة ومعدلات استخدامهم، ولكن يجب أن يتجاوز النظام المكافآت الخطية البسيطة. يمكن للبروتوكول تنفيذ مضاعفات مكافآت ديناميكية لمعالجة عدم التوازن الجغرافي أو نوع الأجهزة - على غرار كيفية استخدام أوبر لتوفير تسعير الحالة الطارئة لتحفيز السائقين في المناطق ذات الطلب العالي.

يمكن لمزود الخدمة كسب مكافآت 1.5x لتقديم الحوسبة في المناطق التي تعاني من قلة الخدمة أو مكافآت 2x لتوفير أنواع GPU النادرة مؤقتًا. سيشجع تقسيم نظام المكافآت بناءً على معدلات الاستخدام المستمرة مزودي الخدمة على الحفاظ على الاستقرار في التوافر بدلاً من التحول بين المنصات بصورة فرصية.

على جانب الطلب ، سيحصل العملاء على مكافآت رمزية تدعم استخدامهم بشكل فعال. قد يقدم البروتوكول مكافآت متزايدة لالتزامات الحوسبة الأطول - مما يحفز المستخدمين على بناء تبعيات تقنية أعمق على النظام الأساسي. يمكن هيكلة هذه المكافآت بشكل أكبر لتتماشى مع الأولويات الاستراتيجية للمنصة، مثل التقاط الطلب في منطقة جغرافية معينة.

يمكن الاحتفاظ بالمعدلات الأساسية للحوسبة عند أسعار السوق أو أقل منها قليلا ، مع استخدام البروتوكولات بوابة أوراقلمراقبة ومطابقة أسعار المنافسين بشكل مستمر. ثم تعمل مكافآت الرمز كطبقة حافز إضافية فوق هذه الأسعار الأساسية التنافسية. سيسمح هذا النموذج المزدوج للتسعير بالمنصة بالحفاظ على تنافسية الأسعار مع استخدام حوافز الرمز لتعزيز سلوكيات محددة تعزز الشبكة.

من خلال توزيع حوافز الرمز المميز ، سيبدأ كل من المزودين والعملاء في تجميع حصة في الشبكة. في حين قد يبيع بعضهم ، ربما معظمهم ، هذه الحصص ، قد يحتفظ البعض الآخر بها ، ليصبحوا على الواقع أصحاب مصلحة ومبشرين للمنصة. سيكون لدى هؤلاء المشاركين الملتزمين مصلحة مشتركة في نجاح الشبكة ، مما يسهم في نموها واعتمادها بعيدًا عن استخدامها المباشر أو توفير موارد الحوسبة.

مع مرور الوقت، ومع وصول الشبكة إلى سرعة الهروب وتأسيس تأثيرات قوية للشبكة، يمكن تدريجياً التخفيف من هذه الحوافز المرتبطة بالرموز. فوائد الطبيعة الناجمة عن كونها أكبر سوق - تحسين التطابق، زيادة الاستخدام، تغطية جغرافية أوسع - ستصبح عوامل مستدامة تحفز النمو.

كيف يمكن لحوافز الرمز تعزيز مروحة سوق وحدة معالجة الرسومات

مقاومة الرقابة

في حين أن السعر والنطاق هما عوامل تميّز حاسمتان، فإن شبكات الحوسبة اللامركزية تتناول مخاوف متزايدة: القيود التشغيلية من مقدمي الخدمات المركزية. لقد أظهر مقدمو الخدمات السحابية التقليدية استعدادهم لتعليق أو إنهاء الخدمات بناءً علىسياسات المحتوى والضغوط الخارجية. تثير هذه السابقة أسئلة مشروعة حول كيف يمكن أن تمتد سياسات مماثلة إلى تطوير ونشر نماذج الذكاء الاصطناعي.

نظرا لأن النماذج الذكاء الاصطناعي أصبحت أكثر تعقيدا وتعالج حالات الاستخدام المتنوعة بشكل متزايد ، فهناك احتمال حقيقي بأن يقوم مقدمو الخدمات السحابية بتطبيق قيود على تدريب النموذج وتقديمه ، على غرار مناهج الإشراف على المحتوى الحالية. قد يؤثر هذا ليس فقط على محتوى NSFW والموضوعات المثيرة للجدل ، ولكن أيضا على حالات الاستخدام المشروعة في مجالات مثل التصوير الطبي أو البحث العلمي أو الفنون الإبداعية التي قد تؤدي إلى مرشحات آلية شديدة الحذر.

تقدم الشبكة المركزية بديلاً عن طريق السماح لأطراف السوق باتخاذ قرارات البنية التحتية الخاصة بهم، مما قد يخلق بيئة أكثر حرية ولا تقييدًا للابتكار.

الجانب الآخر من البنية غير المصرح بها هو أن الخصوصية تصبح أكثر صعوبة. عندما يتم توزيع الحوسبة عبر شبكة من مقدمي الخدمات بدلا من احتوائها داخل مراكز بيانات كيان موثوق به واحد، يحتاج المطورون إلى التفكير مليا في أمان البيانات. على الرغم من أن التشفير وبيئات التنفيذ الموثوقة يمكن أن تساعد ، إلا أن هناك مقايضة متأصلة بين مقاومة الرقابة والخصوصية التي يجب على المطورين التنقل فيها بناء على متطلباتهم الخاصة.

الثقة وإنفاذ العقود

نظرًا للطلب الهائل على الحساب الذكي للذكاء الاصطناعي، يمكن لمزودي وحدة المعالجة الرسومية استغلال موقفهم لاستخراج أقصى ربح من العملاء الناجحين. في منشور من العام الماضي، شارك المطور المستقل الشهير بيتر ليفيلز كيف تعرض هو ومطورون آخرون لزيادة أسعار مقدمي الخدمات الخاصة بهم فجأة بنسبة تزيد عن 600٪ بعد مشاركة إيرادات تطبيق الذكاء الاصطناعي الخاص بهم علنًا.

يمكن للأنظمة اللامركزية أن تقدم حلاً لهذه المشكلة - فإن فرض العقود بدون ثقة. عندما تُشفر الاتفاقيات على السلسلة بدلاً من أن تكون مدفونة في شروط الخدمة، فإنها تصبح شفافة ولا تتغير. لا يمكن لمقدم الخدمة زيادة الأسعار بشكل تعسفي أو تغيير الشروط في منتصف العقد دون أن يتم الاتفاق صراحة على التغييرات من خلال البروتوكول.

بالإضافة إلى التسعير، يمكن للشبكات اللامركزية الاستفادة بيئات التنفيذ الموثوقة (TEEs)لتوفير الحوسبة القابلة للتحقق. يضمن هذا أن يحصل المطورون فعلاً على موارد وحدة المعالجة الرسومية التي يدفعون عنها - سواء من حيث المواصفات الأجهزة أو الوصول المخصص. على سبيل المثال ، عندما يدفع المطورون مقابل الوصول المخصص إلى ثماني وحدات معالجة رسومية H100 لتدريب النماذج ، يمكن للأدلة التشفيرية التحقق من أن عبء العمل الخاص بهم يعمل فعلاً على H100s مع 80 جيجابايت كاملة من الذاكرة لكل وحدة معالجة رسومية ، بدلاً من التخفيض صامتًا إلى بطاقات منخفضة الجودة أو مشاركة الموارد مع مستخدمين آخرين.

غير مقيد

تتمكن الشبكات الحاسوبية اللامركزية من توفير بدائل للمطورين حقًا بدون أذونات. على عكس المزودين التقليديين الذين يتطلبون عمليات KYC وفحص الائتمان الشاملة ، يمكن لأي شخص الانضمام إلى هذه الشبكات والبدء في استهلاك أو توفير موارد الحوسبة. هذا يقلل بشكل كبير من حاجز الدخول ، خاصة بالنسبة للمطورين في الأسواق الناشئة أو أولئك الذين يعملون في مشاريع تجريبية.

يصبح أهمية هذا الطابع الغير قابل للتصرف أكثر قوة عندما ننظر إلى مستقبل وكلاء الذكاء الاصطناعي. بدأ وكلاء الذكاء الاصطناعي للتو في العثور على أرضية لهم، معوكلاء متكاملين عمودياًمن المتوقع أن يتجاوز حجم صناعة البرمجيات كخدمة (SaaS)، مثلما هو الحال معمحطة الحقيقةوZerebro، نحن نشهد أولى علامات اكتساب الوكلاء للحكمة وتعلمهم كيفية استخدام أدوات خارجية مثل وسائل التواصل الاجتماعي ومولدات الصور.

مع تزايد تطور هذه الأنظمة الذاتية ، قد تحتاج إلى توفير موارد الحوسبة الخاصة بها بشكل ديناميكي. الشبكة اللامركزية حيث يمكن تنفيذ العقود بشكل غير موثوق فيه بواسطة الكود بدلاً من الوسطاء البشريين هي البنية التحتية الطبيعية لهذا المستقبل. يمكن للوكلاء التفاوض على العقود بشكل ذاتي ، ومراقبة الأداء ، وضبط استخدام الحوسبة الخاصة بهم استنادًا إلى الطلب - كل ذلك بدون الحاجة إلى تدخل أو موافقة بشرية.

المنظر الطبيعي

مفهوم الشبكات المحوسبة اللامركزية ليس جديدًا - فقد حاولت المشاريع تمكين الوصول إلى الموارد الحاسوبية النادرة قبل طفرة الذكاء الاصطناعي الحالية.شبكة العرضتعمل منذ عام 2017، وتجمع موارد وحدة المعالجة الرسومية لعرض الرسومات على الحاسوب.أكاشتم إطلاقه في عام 2020 لإنشاء سوق مفتوح للحوسبة العامة. وجدت كلا المشروعين نجاحًا معتدلاً في تخصصاتهما ولكنهما الآن يركزان على أعباء العمل الذكاء الاصطناعي.

بالمثل ، شبكات التخزين المركزية مثلفايلكوينوأرويفيتوسعون في مجال الحوسبة. إنهم يدركون أنه مع تصبح الذكاء الاصطناعي المستهلك الرئيسي لكل من التخزين والحوسبة، فإن تقديم حلول متكاملة لهذا الأمر له معنى.

تمامًا كما يواجه مراكز البيانات التقليدية صعوبة في المنافسة مع منشآت الذكاء الاصطناعي المصممة لأغراض معينة ، فإن هذه الشبكات المعتمدة تواجه معركة صعبة ضد الحلول الأصلية للذكاء الاصطناعي. إنها تفتقر إلى الأساس الوراثي لتنفيذ التنسيق المعقد المطلوب لأعباء العمل الذكاء الاصطناعي. بدلاً من ذلك ، يجدون قدمًا عن طريق توفير الحوسبة لشبكات الذكاء الاصطناعي الأخرى. على سبيل المثال ، الآن يتاح لـ Render و Akash معالجات الرسومات الخاصة بهم في سوق io.net.

من هم هذه الأسواق الجديدة الذكاء الاصطناعي؟io.netهو واحد من القادة المبكرين في تجميع إمدادات وحدة معالجة الرسومات عالية الجودة للشركات، مع أكثر من 300،000 وحدة معالجة رسومات موثقة على شبكته. يدعون أنهم يقدمون توفيرات تصل إلى 90% على الشركات المركزية وتمكنوا من تحقيق أرباح يومية تزيد عن 25،000 دولار (9 ملايين دولار سنويًا). بالمثل، إيثيريجمع أكثر من 40،000 وحدة معالجة الرسومات (بما في ذلك أكثر من 4،000 H100) لخدمة حالات الاستخدام في الذكاء الاصطناعي والحوسبة السحابية.

سابقًا، تحدثنا عن كيفية إنشاء برايم إنتيليكت لأطر تدريب لاسلكية بمقياس كبير. بالإضافة إلى هذه الجهود، يوفرون أيضًا بوابة.سوق وحدة المعالجة الرسوميةحيث يمكن للمستخدمين استئجار H100s حسب الطلب.جينسينهو مشروع آخر يراهن كثيرًا على التدريب المركزي بإطار تدريب مماثل بالإضافة إلى نهج سوق وحدة المعالجة الرسومية.

بينما تعتبر كل هذه الأسواق مستقلة عن الأعباء (حيث تدعم كل من التدريب والاستنتاج)، إلا أن عددًا قليلاً من المشاريع تركز فقط على الاستنتاج - وهو العبء الحسابي الموزع الذي نحن أكثر شغفًا به. تتصدر هذه المشاريع Exo Labs، التي تتيح للمستخدمين تشغيل LLMs على مستوى النخبة على الأجهزة اليومية. لقد طوّروا منصة مفتوحة المصدر تسمح بتوزيع مهام الاستنتاج الذكاء الاصطناعي عبر أجهزة متعددة مثل iPhones و Androids و Macs.أظهرت مؤخرًاتشغيل نموذج 70-B (قابل للتوسع حتى 400-B) موزع عبر أربعة M4 Pro Mac Minis.

البنية التحتية الأساسية

عندما قام ساتوشي بإطلاق بيتكوين في عام 2008، كانت فوائده - الذهب الرقمي مع الإمداد الصعب والأموال المقاومة للرقابة - نظرية بحتة. كان النظام المالي التقليدي، على الرغم من أخطائه، يعمل بشكل جيد. لم تبدأ المصارف المركزية بعد في الطباعة الفوضوية للأموال. لم تصبح العقوبات الدولية سلاحًا ضد الاقتصادات بأكملها. بدت الحاجة إلى بديل أكاديمية بدلاً من عاجلة.

لقد استغرق عقد من التيسير الكمي، الذي تمحور في توسيع نقدي في عصر كوفيد، لكي تتبلور فوائد بيتكوين النظرية إلى قيمة ملموسة. اليوم، مع تآكل التضخم للمدخرات وتهديدات التوترات الجيوسياسية لهيمنة الدولار، فإن دور بيتكوين كـ"الذهب الرقمي" قد تطور من حلم السايفربانك إلى أصل يعتمده المؤسسات والدول القومية.

تكررت هذه النمط مع العملات المستقرة. بمجرد توفر سلسلة كتل عامة في إيثريوم، أصبحت العملات المستقرة فورًا واحدة من أكثر حالات الاستخدام الواعدة. ومع ذلك، استغرق الأمر سنوات من التحسينات التدريجية في التكنولوجيا واقتصادات بلدان مثل الأرجنتين وتركيا التي تعاني من التضخم لكي تتطور العملات المستقرة من الابتكار النقدي النيش إلى البنية التحتية المالية الحرجة التي تحرك تريليونات الدولارات في حجم سنوي.

العملات المشفرة بطبيعتها تكون تكنولوجيا دفاعية - الابتكارات التي يبدو أنها غير ضرورية خلال الأوقات الجيدة ولكنها تصبح أساسية خلال الأزمات. إن الحاجة إلى هذه الحلول لا تظهر إلا عندما تفشل الأنظمة الحالية أو تكشف عن ألوانها الحقيقية.

نحن اليوم نعيش عصر الذهبي للذكاء الاصطناعي. يتدفق رأس المال المخاطر بحرية، وتتنافس الشركات لتقديم أقل الأسعار، والقيود، إن وجدت، نادرة. في هذا البيئة، يمكن أن تبدو البدائل اللامركزية غير ضرورية. لماذا تتعامل مع تعقيدات الاقتصاد الرمزي ونظم الإثبات عندما تعمل المزودات التقليدية بشكل جيد؟

ولكن وفقًا للموجات التكنولوجية الرئيسية السابقة، فإن هذا العطاء هو مؤقت. لقد مرت سنتان فقط على ثورة الذكاء الاصطناعي. مع نضج التكنولوجيا وظهور الفائزين في سباق الذكاء الاصطناعي، ستظهر قوتهم الحقيقية. ستتحكم الشركات نفسها التي تقدم الوصول السخي اليوم في النهاية - من خلال التسعير والسياسات والأذونات.

هذا ليس مجرد دورة تقنية أخرى مهددة. تصبح الذكاء الاصطناعي الأساس الجديد للحضارة - العدسة التي سنعالج من خلالها المعلومات ونخلق الفن ونتخذ القرارات، وفي نهاية المطاف نتطور كأنواع. الحسابات أكثر من مجرد مورد؛ إنها عملة الذكاء نفسه. سيشكل أولئك الذين يتحكمون في تدفقها الحدود المعرفية للبشرية.

الحوسبة المتمركزة ليست مجرد توفير وحدات معالجة رسومية أرخص أو خيارات نشر أكثر مرونة (على الرغم من أنه يجب أن يقدم كلاهما لينجح). إنها عن ضمان أن الوصول إلى الذكاء الاصطناعي - التكنولوجيا الأكثر تحولاً للبشرية - يبقى غير قابل للرقابة ومستقلاً. إنه درعنا ضد مستقبل لا مفر منه حيث يحكم عدد قليل من الشركات ليس فقط من يمكنه استخدام الذكاء الاصطناعي ، ولكن أيضًا كيف يمكنهم التفكير به.

نحن نبني هذه الأنظمة اليوم ليس لأنها ضرورية على الفور، ولكن لأنها ستكون ضرورية غدًا. عندما يصبح الذكاء الاصطناعي جوهريًا للمجتمع مثل النقود، فإن الحوسبة غير المشروطة لن تكون بديلاً فحسب - بل ستكون مهمة جدًا لمقاومة الهيمنة الرقمية تمامًا مثل البيتكوين والعملات المستقرة هي لمقاومة السيطرة المالية.

ربما تكون سباقًا نحو الذكاء الاصطناعي الفائق خارج نطاق الأنظمة المتميزة. ولكن التأكد من أن ثمار هذا الذكاء تبقى متاحة للجميع؟ إنه سباق يستحق الجهد.

تنصل:

  1. تم نشر هذه المقالة مرة أخرى من[Decentralised.co]. إعادة توجيه العنوان الأصلي: الحوسبة اللامركزية. جميع حقوق النشر تنتمي إلى الكاتب الأصلي [Shlok Khemani]. إذا كان هناك اعتراضات على هذا النشر المكرر، يرجى الاتصال بـ بوابة تعلمفريقنا سيتولى التعامل معه بسرعة.
  2. تنصل المسؤولية: الآراء والآراء المعبر عنها في هذه المقالة هي فقط تلك المعبر عنها بواسطة المؤلف ولا تشكل أي نصيحة استثمارية.
  3. تتم ترجمة المقالة إلى لغات أخرى من قبل فريق تعلم جيت. ما لم يُذكر، فإن نسخ أو توزيع أو سرقة المقالات المترجمة ممنوع.
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!