خلف فضيحة "الكذب" في OpenAI: نموذج كلاسيكي لفشل مؤسسي

مقال بواسطة: مركز أبحاث Web 4

أكبر سؤال فلسفي ليس: “هل يمكن الوثوق بشخص ما؟”، بل: “كيف نصمم نظامًا يجعل الثقة غير ضرورية؟”. وإلا فنحن نستخدم هيكل حوكمة من القرن الـ19 لمواجهة أقوى لعبة سلطة في القرن الـ21.

01 تقرير استقصائي يهزّ وادي السيليكون

في 6 أبريل 2026، نشرت مجلة “نيويوركر” تقريرًا استقصائيًا معمقًا استغرق 18 شهرًا لإنجازه، كاشفًا عن واقعة داخلية في OpenAI ما زالت حتى الآن تترك الكثير من المطلعين في قلق.

المادة الأساسية في هذا التقرير هي مذكرة داخلية من سبعين صفحة جمعها الرئيس السابق للعلوم في OpenAI Ilya Sutskever في خريف 2023، إضافةً إلى أكثر من مئتي صفحة من الملاحظات الخاصة التي احتفظ بها الشريك المؤسس في Anthropic Dario Amodei. بعد نشر التقرير، تشير كل الأدلة إلى استنتاج واحد: أن سام ألتمان، قائد OpenAI، لديه نمط سلوك يتمثل في “الكذب باستمرار”.

هذه ليست مجرد شائعة تقنية عادية. إنها تساؤلٌ من نوع بنيوي حول ما إذا كان أعلى مسؤول في واحدة من أقوى شركات التكنولوجيا في تاريخ البشرية جديرًا بالثقة.

02 هذه ليست مشكلة ألتمان وحده

إذا كنت تفهم الأمر من هذا المنظور فقط، فأنت تفوت السؤال الأكثر أهمية حقًا.

ما الذي يلاحقه الإعلام السائد؟ هل ألتمان يستحق الثقة؟

لكن السؤال الحقيقي هو: عندما تُسند تقنية يمكنها تغيير مسار الحضارة الإنسانية إلى تصميم مؤسسي “يعتمد على الوعي الذاتي”، فإن الأزمة ليست أمرًا عرضيًا، بل أمرٌ حتمي.

لقد أطلقنا اسمًا على هذه الظاهرة: التعطل البنيوي لحوكمة الذكاء الاصطناعي.

هذه ليست مشكلة ألتمان وحده. إنها العَرَض المشترك في كامل قطاع الذكاء الاصطناعي.

تُعدّ “الثقة” واحدة من أكثر الكلمات تكرارًا في مجال الذكاء الاصطناعي. تكاد كل شركة ذكاء اصطناعي تخبرك: ثق بنا، فنحن نضع السلامة أولًا، وثق أن تقنياتنا ستعود بالنفع على البشرية. لكن تحقيق “نيويوركر” كشف حقيقة قاسية: لم تقم OpenAI ببناء أي بنية مؤسسية تجعل الثقة غير ضرورية.

القرار الرئيسي في هذه المؤسسة يُتخذ بواسطة شخص واحد، أو على الأكثر بواسطة بضعة أشخاص. لا توجد رقابة خارجية. لا توجد آليات شفافية ملزمة. الالتزام أداة، لا قيدًا.

كتب كامو في “أسطورة سيزيف”: “إن الحكم على ما إذا كانت الحياة تستحق العيش يعادل الإجابة عن السؤال الفلسفي الأساسي.” والمنطق ذاته ينطبق على مجال الذكاء الاصطناعي: عندما تكون التقنية قادرة على تغيير الحضارة، وتكون القيود المؤسسية هشة إلى هذا الحد، فكيف نبني نظامًا لا يحتاج إلى الاعتماد على النزاهة الفردية؟

03 قائمة الوعود التي تمّت خيانتها

يُدرج تقرير “نيويوركر” قائمة كاملة من “وعودٍ تمّت خيانتها”.

البند الأول هو مفاوضات 2019 مع مايكروسوفت. في ذلك الوقت كانت OpenAI تنتقل من منظمة غير ربحية إلى كيان “ذو ربح محدود بسقف”. خلال المفاوضات، اقترح الشريك المؤسس لدى Anthropic Dario Amodei شرط الأمان الأساسي “الاندماج والمساعدة” — أي أنه إذا كانت شركة أخرى أقرب من ناحية السلامة إلى AGI، يتعين على OpenAI أن تتوقف عن المنافسة وتندمج معها. كان هذا هو خطه الأحمر في المفاوضات. بعد توقيع العقد، اكتشف Amodei أن مايكروسوفت تملك حق النقض على هذا الاندماج، وأن الشرط لا يعني شيئًا. وعندما واجه ألتمان مباشرة للتحقق، أنكر ألتمان في البداية وجود هذا الشرط، إلى أن طلب Amodei من أحد زملائه أن يقدّم شاهدًا في الحال؛ عندها اعترف ألتمان، ثم دافع بأن “لا يذكر”. كتب Amodei في ملاحظاته الخاصة: “تمت خيانة 80% من الميثاق”.

البند الثاني هو وعد القدرة الحاسوبية لعام 2023. كانت OpenAI قد أعلنت بشكل عالٍ عن تأسيس “فريق التوافق الفائق”، وتعهدت بأن تُخصص الشركة 20% من قدرتها الحاسوبية له. لكن المطلعين كشفوا أن القدرة الحاسوبية التي حصل عليها الفريق فعليًا كانت فقط 1% إلى 2%، وأنه تم استخدام أقدم وأسوء الشرائح. وعندما اعترض المسؤول Jan Leike، كانت الإجابة من الإدارة قاسية وغير مبالية: “هذا الوعد لم يكن واقعيًا أبدًا.” انتبه هنا إلى الانتقائية في الذاكرة: نفّذوا 20% في الوعد، وقدموا 1%-2% فعليًا، ثم أعلنوا “أن الوعد غير واقعي”. ليست مجرد انحراف في التنفيذ، بل نسيانٌ بنيوي.

هذه ليست مسألة نزاهة. إنها التعبير الحتمي لفشل النظام. عندما تتركز السلطة في يد شخص واحد، ويكون لدى هذا الشخص ميلٌ غريزي إلى إضعاف قوة إلزام الوعود، فإن الوعود ستُنسى بشكل بنيوي، وسيعاد تعريفها، وسيتم تبريرها. هذا ليس عيبًا لدى ألتمان وحده؛ بل سمة مشتركة لأي بنية سلطة مركزية.

04 لماذا يفشل المبلّغون عن المخالفات دائمًا

كتب Ilya Sutskever في مذكرة قدمها إلى مجلس الإدارة عبارةً مفادها: إن أي شخص يكرّس نفسه لبناء تقنية قد تغيّر الحضارة سيتحمل مسؤولية غير مسبوقة، لكن في النهاية فإن الأشخاص الذين ينتهي بهم الأمر في تلك المواقع غالبًا ما يكونون مهتمين بالسلطة.

هنا مفارقة عميقة: أكثر من يحتاج إلى القيود غالبًا هم أولئك الأكثر شغفًا بالحصول على السلطة. وتصميم النظام الحالي لا يضع هذه المفارقة في الحسبان إطلاقًا.

عندما قرر Ilya إطلاق تحذير من الداخل، لم يبلغ الجهات الرقابية الخارجية، لأن صناعة الذكاء الاصطناعي تقريبًا بلا رقابة خارجية؛ ولم ينظم تحركًا جماعيًا للموظفين، لأنه كان عالمًا لا ناشطًا. كل ما لديه من أوراق ضغط هو ملفٌ واحد، وإمكانية وجود قلوبٍ سليمة أو غير سليمة داخل مجلس الإدارة.

النتيجة نعرفها جميعًا: في نوفمبر 2023، أقال مجلس الإدارة ألتمان بالفعل، لكن بعد خمسة أيام، وبضغط ثلاثي من رأس المال والرأي العام ومصالح الموظفين، انهار مجلس الإدارة بالكامل، وعاد ألتمان إلى القمة، بينما تم إخراج Ilya الذي حاول إطلاق البلاغ من قلب مراكز النفوذ.

ليس هذا مجرد قصة عن “ألتمان قوي جدًا”. إنها قصة عن تصميم النظام: داخل منظمة تتركز فيها السلطة بشكل شديد، يكون فشل آلية الإبلاغ عن المخالفات فشلًا بنيويًا لا عرضيًا. والسبب بسيط جدًا — فأسهم المبلّغ عن المخالفات هي السمعة واحتمالات المستقبل المهني المتحالفة مع التواطؤ مع رب العمل. بمجرد أن تختار المنظمة الإنكار والتسويف والتهميش، يصبح الفرد عاجزًا تقريبًا عن المقاومة. جوهر البنية المركزية هو جعل الأصوات الخارجية يصعب دخولها، والأصوات الداخلية يصعب تضخيمها.

نفس القصة حدثت أيضًا مع Dario Amodei. عندما أدرك أنه لا يمكنه تغيير ثقافة السلامة في OpenAI من الداخل، اختار طريقًا آخر: المغادرة، وتأسيس Anthropic، وتجسيد قيمه عبر مؤسسته. هذه عملية انسحاب مشرفة، لكنها ليست انتصارًا للنظام؛ لأنها تعتمد على إيمان المؤسس الشخصي، لا على أي ضمان مؤسسي.

إن الإشكال الجوهري في حوكمة الذكاء الاصطناعي ليس: “كيف نُنمّي مزيدًا من قادة الذكاء الاصطناعي ذوي الضمير”، بل: “كيف نصمم مجموعة مؤسسية يمكنها العمل بشكل صحيح حتى إن كان القائد يفتقر إلى الضمير؟”.

05 البلوك تشين ليس علاجًا شاملًا، لكن هناك قطعة مفقودة

أضع هنا رأيًا قد يدهش قراء خارج مجتمع البلوك تشين: القيمة الأساسية للبلوك تشين ليست إصدار العملات، ولا رهانات Web 3، بل هي ابتكارٌ في نمطٍ من أنماط الحوكمة — تتمثل في “خارجنة الثقة”.

ماذا يعني “خارجنة الثقة”؟ إن النظام التقليدي يعتمد على “الثقة في مؤسسة أو شخص ما”. أما منهج الحل القائم على البلوك تشين فهو مختلف تمامًا: نقل الثقة من الأشخاص إلى القواعد والكود. لا يعتمد على طرف ثالث موثوق، بل يعتمد على قواعد شفافة وإثباتات قابلة للتحقق.

ثغرة حوكمة الذكاء الاصطناعي تكمن بالضبط في أنها تفتقر تمامًا إلى آلية خارجنة الثقة هذه. إن تعهدات OpenAI تُحكم ذاتيًا من قِبل OpenAI نفسها. هذا ليس تنظيمًا، بل تقييمٌ ذاتي. لا يستطيع العالم الخارجي التحقق بشكل مستقل مما إذا كانت 20% من القدرة الحاسوبية تُستخدم فعلًا في أبحاث السلامة، ولا يمكنه التحقق بشكل مستقل مما إذا كانت عملية نشر نماذجهم قد خضعت فعلًا لموافقة لجنة السلامة. الشفافية خيار، وليست مطلبًا بنيويًا.

يوفر البلوك تشين مسارًا ممكنًا للحل. ليس المقصود أن وضع نماذج الذكاء الاصطناعي على السلسلة وحده سيحل المشكلة — إذ إن التقنية لا تستطيع أن تحل محل النظام — بل إن آلية السجل الشفافة والقابلة للتحقق يمكن أن تجعل سلوك أنظمة الذكاء الاصطناعي أكثر وضوحًا وأكثر قابلية للتدقيق. على سبيل المثال، يمكن لسجل قرارات الذكاء الاصطناعي المبني على البلوك تشين أن يسجل كل تحديث رئيسي للنموذج، وكل قرار بتوزيع القدرة الحاسوبية، على السلسلة وبشكل غير قابل للتلاعب. هذا لن يجعل نظام الذكاء الاصطناعي مثاليًا، لكنه على الأقل يجعل “نسيان الوعود بنيويًا” أكثر صعوبة.

بالطبع، هذا مجرد اتجاه وليس عصًا سحرية. التقنية نفسها لا تستطيع أن تعوض الحوكمة. لكن في زمن تفتقر فيه حوكمة الذكاء الاصطناعي إلى أي إطار تقريبًا، فإن أي حل يجعل السلطة أكثر شفافية، والضبط والموازنة أكثر هيكلية، يستحق مناقشة جادة.

06 سؤال أعمق

الدرس الحقيقي من أزمة OpenAI لا يتعلق بماهية ألتمان كشخص.

بل يكمن في: عندما تقع تقنية قد تحدد مسار الحضارة الإنسانية داخل إطار مؤسسي “يعتمد على الوعي الذاتي”، فإن الخطر لا ينجم عن فقدان السيطرة على التقنية، بل عن فشل النظام.

في تاريخ البشرية، اقترنت كل ثورة تقنية كبرى بتطوير أنماط الحوكمة. أدت الطاقة النووية إلى إنشاء الوكالة الدولية للطاقة الذرية ونظام عدم الانتشار النووي. وجلب الإنترنت قوانين لحماية البيانات ولوائح للأمن السيبراني. وكل تقنية كافية لتغيير موازين القوة تُجبر البشر على بناء أطر مؤسسية جديدة لإدارتها.

إن AGI هي أول تقنية قد تغيّر الحضارة قبل أن ننجز لها إطار حوكمة فعّالًا. ولا يجوز أن يعتمد هذا الإطار على أخلاق أي مؤسس بعينه، ولا على تعهد شركة بعينها. يجب أن تكون منظومة مؤسسية هيكلية ومُوازنة ومُقيِّدة، لا تعتمد على وعي أي فرد.

ونحن حتى الآن لا نملك ذلك.

أما بخصوص مذكرة Ilya Sutskever ذات الصفحات السبعين، فقد أعاد تحقيق “نيويوركر” سرد جوهرها: عبّر Ilya بوضوح لمجلس الإدارة عن رأيه — إذ يعتقد أن ألتمان لا ينبغي أن يكون من يملك زر AGI.

تُعد هذه الوثيقة شرارة اندلاع أزمة “صراع على السلطة داخل OpenAI” التي صدمت العالم في عام 2023. اتخذ المجلس قرارًا بالإقالة بناءً على ذلك. لكن خلال الأيام الخمسة التالية، اختارت البنية الخاصة بالسلطة في كامل القطاع مسارًا آخر.

هذه ليست قصة عن انتصار الأشرار على الأخيار، أو انتصار الأخيار على الأشرار. إنها قصة عن النظام. ففي نظام جيد، ستتأثر بعض تصرفات ألتمان بالقيود؛ وفي نظام فاشل، حتى أكثر المبلّغين عن المخالفات حسن نية قد ينقلب عليهم الأمر من قِبل السلطة.

البشر يدخلون عصر AGI الذي قد يغير الحضارة. وما نستخدمه لإدارة هذا العصر ما زال في القرن الـ19.

هذه ليست إخفاق شخص بعينه. إنها حالة إخفاق كلاسيكية في تصميم النظام.

والدرس الحقيقي ليس “لا تثق بألتمان” — بل أن تبني نظامًا يمكن من خلاله مساءلة أي شخص، وموازنته وتقييده، ولا يمكنه الخروج عن قيود الشفافية.

الثقة ضرورية. لكن في عصر الذكاء الاصطناعي، الثقة وحدها لا تكفي. ما نحتاجه هو نظام يجعل الثقة غير ضرورية.

(تم إعداد هذه المقالة بالاعتماد على تقرير “نيويوركر” الصادر في 6 أبريل 2026، وتصريحات OpenAI الرسمية، وتجميع بيانات من مصادر عامة. البيانات حتى أبريل 2026.)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.26Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.3Kعدد الحائزين:2
    0.19%
  • القيمة السوقية:$2.25Kعدد الحائزين:0
    0.00%
  • تثبيت