أطلقت شركة جوجل للتو خطوة استراتيجية مهمة في مؤتمر كلاود نيكست في لاس فيغاس. أطلقت معالجين جديدين من نوع TPU من الجيل الثامن بشكل متزامن، وهذا يمثل تحولًا هامًا في كيفية رؤية الشركة لسوق الذكاء الاصطناعي.



للمرة الأولى، فصلت جوجل تمامًا بين شرائح التدريب والاستنتاج. يوجد TPU 8t مخصص لتدريب نماذج الذكاء الاصطناعي، و TPU 8i محسّن لتشغيل هذه النماذج في الإنتاج. إنها تغيير تكتيكي واضح - يعترفون بأن هاتين المهمتين لهما احتياجات مختلفة جدًا.

الأرقام الخاصة بالأداء مثيرة للاهتمام. يوفر TPU 8t كفاءة بنسبة 124% أكثر لكل واط مقارنة بالجيل السابق، بينما يحقق TPU 8i تحسينًا بنسبة 117%. مقارنة بـ Ironwood الذي صدر في نوفمبر، يقدم TPU 8t أداءً يزيد بمقدار 2.8 مرة بنفس السعر، و 8i أكثر كفاءة بنسبة 80%. هذه المكاسب ليست بسيطة.

ما يلفت الانتباه أكثر في TPU 8t هو القدرة على التوسع حتى 9600 وحدة في نظام واحد. تدرك جوجل جيدًا أن الطاقة أصبحت المحدد الحاسم لمراكز البيانات في منشآت بهذا الحجم. لذلك، أصبحت الكفاءة في استهلاك الطاقة أولوية قصوى.

أما TPU 8i فله نهج مختلف. يحمل كل شريحة 384 ميجابايت من SRAM - ثلاثة أضعاف ما في Ironwood. هذا منطقي تمامًا للاستنتاج، حيث يحتاج الشريحة إلى معالجة خطوات متعددة من التفكير دون الحاجة للبحث عن البيانات في الخارج طوال الوقت. مثالي لتشغيل وكلاء الذكاء الاصطناعي المعقدين.

يصل كلا المعالجين إلى السوق في نهاية عام 2026. أوضح ساندر بيتشاي، الرئيس التنفيذي لشركة ألفابيت، أن الهندسة المعمارية صممت لـ "تشغيل ملايين الوكلاء بشكل متزامن بطريقة اقتصادية". هذه هي النقطة - الأمر لا يقتصر على وجود شرائح أفضل، بل على القيام بذلك دون تجاوز الميزانية.

على جانب البرمجيات، أطلقت جوجل منصة وكيل المؤسسات Gemini مع ميزات جديدة. تسمح Memory Bank و Memory Profile للوكيل بتذكر التفاعلات السابقة مع المستخدمين - وتحل مشكلة حقيقية كانت تواجهها الأدوات القديمة. كما يوجد أيضًا Agent Simulation لاختبار أفضل قبل الإطلاق.

تدمج منصة المشاريع البيانات من Workspace و OneDrive والدردشات المؤسسية، مما يوفر سياقًا للوكلاء. بالإضافة إلى ذلك، أطلقوا Gemini Enterprise للموظفين العاديين، موضحين أنه "مساعد ذكاء اصطناعي للجميع"، دون الحاجة لكتابة رمز.

كل هذا يمثل هجومًا مزدوجًا - على مستوى الأجهزة والبرمجيات - ضد نيفيديا، OpenAI و Anthropic. تدرك جوجل جيدًا أن مهندسي وادي السيليكون يتنقلون غالبًا بين Claude من Anthropic و Codex من OpenAI لتطوير الذكاء الاصطناعي، ونادرًا ما يستخدمون أدوات جوجل. هذا يزعج القيادة بشكل واضح.

اعتماد TPU يتسارع. قامت شركة Citadel Securities بالفعل ببناء برمجيات كمية باستخدام TPU من جوجل. تستخدم 17 مختبرًا وطنيًا من وزارة الطاقة الأمريكية أدوات تعاونية تعتمد على TPU. وقعت Meta اتفاقية طويلة الأمد لاستخدام TPU من جوجل، والتزمت شركة Anthropic بقدرة حسابية على نطاق الجيجاواط.

يقدر محللو DA Davidson أن القيمة الإجمالية لأعمال TPU و DeepMind من جوجل تجاوزت 900 مليار دولار في سبتمبر الماضي.

من المثير للاهتمام أن جوجل لم تقارن مباشرة بين TPU الجديد ومنتجات نيفيديا. في الوقت نفسه، تستعد نيفيديا لإطلاق خط جديد يدمج تكنولوجيا Groq، التي اشترتها مقابل 20 مليار دولار، والمخصصة بشكل خاص للاستنتاج منخفض الكمون للغاية. قال Jensen Huang من نيفيديا إن أكثر من 20% من أحمال الذكاء الاصطناعي يمكن التعامل معها بشكل أفضل بواسطة هذا النوع من الشرائح.

تختبر جوجل حاليًا تطبيق TPU في مراكز بيانات العملاء وتعزز التوافق مع أدوات الطرف الثالث. لكن قيود التوريد والفجوة بين التكرارات السريعة للنماذج ودورات تطوير الشرائح التي تستغرق سنوات تظل تحديات حقيقية لتوسيع النطاق.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت