العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
جيمعة جوجل بالفعل تتصرف مثل جيميني—شخص جعلها تفكر مثل كلود أوبس أيضًا
إذا كنت تتابع المشهد المحلي للذكاء الاصطناعي، فمن المحتمل أنك تعرف Qwopus—النموذج مفتوح المصدر الذي حاول تلخيص استنتاجات Claude Opus 4.6 في نموذج Qwen الخاص بشركة علي بابا، بحيث يمكنك تشغيل شيء يشبه Opus على أجهزتك مجانًا. لقد نجح بشكل مفاجئ جيد. المشكلة الواضحة: Qwen هو نموذج صيني، وليس الجميع مرتاحًا لذلك. سمع Jackrong، المطور المجهول الاسم نفسه وراء ذلك المشروع، التعليقات. إجابته هي Gemopus—عائلة جديدة من النماذج المخصصة على نمط Claude Opus مبنية بالكامل على Gemma 4 مفتوحة المصدر من جوجل. الحمض النووي الأمريكي، نفس الفكرة: استنتاجات على مستوى الحدود، تعمل محليًا على الأجهزة التي تملكها بالفعل. تأتي العائلة بنسختين. Gemopus-4-26B-A4B هو الخيار الأثقل—نموذج مزيج من الخبراء يضم 26 مليار معلمة إجمالاً، لكنه ينشط حوالي 4 مليارات فقط أثناء الاستنتاج، مما يعني أنه يتفوق على وزنه على الأجهزة المقيدة. المعلمات هي ما يحدد قدرة الذكاء الاصطناعي على التعلم، والاستنتاج، وتخزين المعلومات. وجود 26 مليار معلمة إجمالاً يمنح النموذج مدى واسعًا من المعرفة. لكن عن طريق “إيقاظ” فقط الـ 4 مليارات المعلمة ذات الصلة بموجهك المحدد، فإنه يوفر نتائج عالية الجودة من ذكاء اصطناعي ضخم مع البقاء خفيفًا بما يكفي ليعمل بسلاسة على الأجهزة اليومية. والآخر هو Gemopus-4-E4B، نموذج حافة بقيمة 4 مليارات معلمة مصمم للعمل بشكل مريح على iPhone حديث أو MacBook خفيف الوزن—بدون الحاجة إلى GPU. اختيار النموذج الأساسي مهم هنا. تم إصدار Gemma 4 من جوجل في 2 أبريل، وهو مبني مباشرة من نفس البحث والتقنية مثل Gemini 3—قالت الشركة ذلك صراحة عند الإطلاق. هذا يعني أن Gemopus يحمل شيئًا لا يمكن لأي تعديل مبني على Qwen أن يدعيه: الحمض النووي لنموذج مغلق متطور من جوجل تحت الغطاء، مغلف بأسلوب تفكير Anthropic على القمة. أفضل ما في العالمين، أكثر أو أقل. ما يميز Gemopus عن موجة التعديلات الأخرى على Gemma التي تملأ حاليًا منصة Hugging Face هو الفلسفة وراءه. اختار Jackrong عمدًا عدم إجبار مسارات استنتاج Claude على أوزان Gemma—اختصار تتبناه معظم الإصدارات المنافسة. حجته، المدعومة بأبحاث حديثة، هي أن ملء نموذج طالب بنص استنتاجات سطحية لمعلمه لا ينقل فعليًا القدرة على الاستنتاج الحقيقي. إنه يعلم التقليد، وليس المنطق. “لا حاجة لخيال مفرط أو تكرار خرافي لنمط تفكير Claude”، تقول بطاقة النموذج. بدلاً من ذلك، ركز على جودة الإجابة، والوضوح الهيكلي، والطبيعة الحوارية—معالجة نغمة Wikipedia الجامدة في Gemma وميولها إلى إلقاء المحاضرات حول أشياء لم تسأل عنها. قام مهندس بنية الذكاء الاصطناعي Kyle Hessling بإجراء اختبارات مستقلة ونشر النتائج مباشرة على بطاقة النموذج. كانت حكمه على نسخة 26B إيجابية جدًا. “سعيد جدًا باختبار هذا النموذج بقوة وهو تعديل ممتاز لنموذج استثنائي بالفعل،” كتب على X. “يتميز بطلبات ذات مرة على سياقات طويلة، ويعمل بسرعة مذهلة بفضل بنية MOE (مزيج الخبراء).”
النسخة E4B الأصغر اجتازت جميع 14 اختبار كفاءة أساسي—اتباع التعليمات، البرمجة، الرياضيات، الاستنتاج متعدد الخطوات، الترجمة، السلامة، التخزين المؤقت—وتخطت جميع 12 اختبار سياق طويل عند 30K و60K رمز. في اختبار استرجاع الإبرة في كومة القش، اجتازت 13 من 13 اختبارًا بما في ذلك اختبار التمدد عند مليون رمز باستخدام YaRN 8× RoPE.
يمتد نموذج 26B بشكل أصلي إلى سياق 131K وإلى 524K مع YaRN، والذي قام Hessling أيضًا باختباره بشكل مكثف: “كما سحق اختباراتي البسيطة لاسترجاع الإبرة في كومة القش حتى سياق ممتد يصل إلى 524 ألف!” على الأجهزة الحدية، E4B سريع حقًا. يذكر Jackrong أنه يحقق 45–60 رمز في الثانية على iPhone 17 Pro Max، و90–120 رمز في الثانية على MacBook Air M3/M4 عبر MLX. بنية MoE لنموذج 26B تعني أنه يتوزع بشكل مرن على أنظمة الذاكرة الموحدة أو وحدات معالجة الرسوميات التي تحتوي على أقل من 10 جيجابايت من VRAM. وصفه Hessling بأنه توصيته اليومية للأنظمة التي تعاني من نقص VRAM.
كلا النموذجين متاحين بصيغة GGUF، مما يعني أنه يمكنك إدخاله مباشرة في LM Studio أو llama.cpp بدون إعدادات. الكود الكامل للتدريب ودليل التعديل خطوة بخطوة موجود على GitHub الخاص بـ Jackrong—نفس خط الأنابيب الذي استخدمه لـ Qwopus، ونفس إعدادات Unsloth و LoRA، ويمكن إعادة إنتاجه على Colab. Gemopus ليس خاليًا من عيوبه. لا تزال وظيفة استدعاء الأدوات معطلة عبر سلسلة Gemma 4 في llama.cpp و LM Studio—فشل في الاستدعاء، عدم تطابق في التنسيق، حلقات—لذا إذا كان سير عملك يعتمد على وكلاء يستخدمون أدوات خارجية، فهذه ليست نماذجك بعد. يصف Jackrong نفسه بأنه “مرجع استكشافي هندسي أكثر منه حل جاهز للإنتاج بالكامل”، ويوصي بسلسلة Qwopus 3.5 الخاصة به لمن يحتاج شيئًا أكثر استقرارًا للأعباء الحقيقية. وبما أنه تجنب عمدًا تقنيات تقليل استنتاجات Claude-style بشكل مكثف، فلا تتوقع أن يكون أكثر ذكاءً من Opus كما هو الحال في Qwopus—كان ذلك تنازلًا واعيًا من أجل الاستقرار، وليس سهوًا.
بالنسبة لمن يرغب في التعمق أكثر في تعديل Gemma من أجل الاستنتاج تحديدًا، هناك أيضًا مشروع مجتمع منفصل يستحق المتابعة: Ornstein من المطور المجهول DJLougen، والذي يأخذ نفس قاعدة Gemma 4 ذات الـ 26B ويركز بشكل خاص على تحسين سلاسل استنتاجاته دون الاعتماد على منطق أو أسلوب أي نموذج طرف ثالث معين. تحذير صادق: ديناميكيات تدريب Gemma أكثر فوضوية من Qwen للمعدلين—تذبذبات أوسع في الخسارة، وحساسية أكبر للمعلمات الفائقة. يقول Jackrong ذلك بنفسه. إذا كنت بحاجة إلى نموذج محلي أكثر اختبارًا من أجل سير عمل الإنتاج، فإن سلسلته Qwopus 3.5 تظل أكثر موثوقية. ولكن إذا كنت تريد نموذجًا أمريكيًا بأسلوب Opus، فإن Gemopus هو خيارك الأفضل حاليًا. هناك نسخة أكثر كثافة بحجم 31B من Gemopus قيد التطوير، مع Hessling يلمح إليها بأنها “مميزة بالتأكيد.” إذا رغبت في تجربة تشغيل نماذج محلية على أجهزتك، راجع دليلنا حول كيفية البدء مع الذكاء الاصطناعي المحلي.