الخلاصة
GLM-5.1 هو نموذج Z.AI الرائد من الجيل التالي، تم إصداره في أبريل 2026. تم تطويره خصيصًا للهندسة الوكيلية، مما يجعله مناسبًا لمهام البرمجة طويلة الأمد وحلقات التحسين المستقلة والمشاريع البرمجية المعقدة التي تتطلب مئات التكرارات. يحتل المركز الأول في SWE-Bench Pro (58.4)، ويتصدر Terminal-Bench 2.0 (69.0)، ويتجاوز GLM-5 في جميع معايير البرمجة الرئيسية. الأوزان متاحة بموجب ترخيص MIT.
مقدمة
معظم نماذج الذكاء الاصطناعي تصل إلى سقف بعد بضع عشرات من استدعاءات الأدوات: تحقق تقدمًا سريعًا في البداية، ثم تستقر وتحقق عوائد متناقصة بغض النظر عن الوقت. عادةً ما تحتاج إلى الإشراف أو تقبل نتيجة متوسطة.
GLM-5.1 صُمم لكسر هذا النمط. أطلق فريق Z.AI نموذج GLM-5.1 في أبريل 2026 ليكون النموذج الأكثر فعالية للمهام الوكيلية. الميزة الحقيقية هنا ليست في الأداء خلال تمريرة واحدة، بل في فعالية العمل الطويل: القدرة على مواصلة إحراز تقدم فعلي على مدار 600 تكرار، و8 ساعات، وآلاف استدعاءات الأدوات.
💡 إذا كنت تبني تطبيقات على واجهات برمجة تطبيقات الذكاء الاصطناعي (AI APIs) أو تختبر سير عمل عوامل ذكية متعددة الخطوات، من المهم تتبع ما يمكن أن يفعله GLM-5.1 فعليًا لتقييم مكدسك التقني. تتيح لك "سيناريوهات الاختبار" في Apidog تحديد سلاسل من استدعاءات API تعكس سير عمل العوامل الذكية الواقعي، للتحقق من تكامل GLM-5.1 مع الاستجابات المتدفقة وتسلسل استدعاء الأدوات قبل النشر الإنتاجي.
ما هو GLM-5.1؟
GLM-5.1 هو نموذج لغوي كبير من Zhipu AI، أُصدر عبر منصة المطورين Z.AI في أبريل 2026. يشير "GLM" إلى "نموذج لغوي عام" (General Language Model)، وهو خط نماذج بدأت Zhipu تطويره عام 2021.
GLM-5.1 هو الجيل الجديد بعد GLM-5 (أواخر 2025)، ويركز بشكل شبه كامل على القدرات الوكيلية: العمل بشكل مستقل في المهام طويلة الأمد دون تدخل بشري متكرر أو توقف الأداء.
ليس موجّهًا للاستدلال أو الكتابة الإبداعية أو الدردشات العامة. تم تصميمه خصيصًا لبناء البرمجيات، إدارة حلقات التحسين، وتنفيذ التعليمات البرمجية عبر العديد من التكرارات.
أوزان النموذج متاحة على Hugging Face بترخيص MIT. يمكنك تشغيله محليًا باستخدام vLLM أو SGLang، أو عبر BigModel API أو منصة مطوري Z.AI.
أداء GLM-5.1 في معايير الأداء
تنشر Z.AI نتائج مقارنة GLM-5.1 مع GLM-5 وGPT-5.4 وClaude Opus 4.6 وGemini 3.1 Pro عبر ثلاث فئات: هندسة البرمجيات، الاستدلال، المهام الوكيلية.
هندسة البرمجيات
| معيار الأداء | GLM-5.1 | GLM-5 | GPT-5.4 | Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-Bench Pro | 58.4 | 55.1 | 57.7 | 57.3 | 54.2 |
| NL2Repo | 42.7 | 35.9 | 41.3 | 49.8 | 33.4 |
| Terminal-Bench 2.0 | 69.0 | 56.2 | 75.1 | 65.4 | 68.5 |
| CyberGym | 68.7 | 48.3 | — | 66.6 | — |
GLM-5.1 يتصدر SWE-Bench Pro وCyberGym، ويتفوق على GLM-5 بفارق واضح. في NL2Repo يتفوق Claude قليلاً، لكن GLM-5.1 يتفوق على معظم المنافسين.
الاستدلال
| معيار الأداء | GLM-5.1 | GLM-5 | GPT-5.4 | Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| HLE (مع الأدوات) | 52.3 | 50.4 | 52.1* | 53.1* | 51.4* |
| AIME 2026 | 95.3 | 95.4 | 98.7 | 95.6 | 98.2 |
| HMMT نوفمبر 2025 | 94.0 | 96.9 | 95.8 | 96.3 | 94.8 |
| GPQA-Diamond | 86.2 | 86.0 | 92.0 | 91.3 | 94.3 |
GLM-5.1 تنافسي هنا، لكنه ليس الرائد. GPT-5.4 وGemini 3.1 Pro يتفوقان في بعض معايير الاستدلال.
المهام الوكيلية
| معيار الأداء | GLM-5.1 | GLM-5 | GPT-5.4 | Opus 4.6 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| BrowseComp (مع السياق) | 79.3 | 75.9 | 82.7 | 84.0 | 85.9 |
| MCP-Atlas (عام) | 71.8 | 69.2 | 67.2 | 73.8 | 69.2 |
| Tool-Decathlon | 40.7 | 38.0 | 54.6 | 47.2 | 48.8 |
| وكيلية | 68.0 | 62.0 | — | — | — |
في MCP-Atlas، يتصدر GLM-5.1. في BrowseComp وTool-Decathlon، أداؤه متوسط، لكنه يُظهر تحسنًا كبيرًا عن GLM-5 في معيار الوكيلية.
ما الذي يجعل GLM-5.1 مختلفًا: التحسين طويل الأمد
جداول المعايير تعطي صورة جزئية. الأهم: GLM-5.1 مصمم للاستمرار في التحسن عبر مئات التكرارات، وليس فقط في تمريرة واحدة.
السيناريو الأول: تحسين قاعدة بيانات المتجهات عبر 600 تكرار
أجرت Z.AI اختبارًا حيث شغّلوا GLM-5.1 على تحدي تحسين البحث عن المتجهات (SIFT-1M) باستخدام Rust، مع هدف QPS مرتفع ودقة >95%. النموذج أُعطي حرية تكرار غير محدودة.
- أفضل نتيجة لجلسة واحدة في النماذج الأخرى: ~3,547 QPS (Claude Opus 4.6)
- GLM-5.1 بعد 600+ تكرار و6,000+ استدعاء أدوات: 21,500 QPS
النموذج أجرى تحولات هيكلية عند نقاط محددة (مثلاً: تكرار 90، 240)، وحلل سجلات الأداء بنفسه ليكتشف عنق الزجاجة ويغير الاستراتيجية.
السيناريو الثاني: تحسين نواة GPU عبر أكثر من 1000 دورة
GLM-5.1 تنافس على تسريع كود PyTorch عبر أنوية CUDA.
- GLM-5.1 وصل إلى 3.6x تسريع.
- Claude Opus 4.6 حقق 4.2x ولا يزال يتحسن.
- GLM-5 استقر مبكرًا وتوقف عن التطور.
الخلاصة: GLM-5.1 يحافظ على التحسن لفترة أطول من GLM-5، ويستطيع اتخاذ قرارات استراتيجية عبر زمن طويل.
نافذة السياق والمواصفات الفنية
يدعم GLM-5.1 نافذة سياق ضخمة (200,000 رمز)، ما يسمح له بتتبّع سجل الأدوات والملفات ومخرجات الاختبار خلال جلسات طويلة.
| المواصفات | القيمة |
|---|---|
| نافذة السياق | 200,000 رمز (token) |
| الحد الأقصى للإخراج | 163,840 رمز (token) |
| البنية | محول ذاتي الانحدار (GLM) |
| الترخيص | MIT (أوزان مفتوحة) |
| أطر الاستدلال | vLLM, SGLang |
| أوزان النموذج | HuggingFace (zai-org) |
التوفر والتسعير
-
واجهة برمجة تطبيقات BigModel (bigmodel.cn): استخدم اسم النموذج
glm-5.1في الطلبات. التسعير يعتمد على نظام الحصص (quota)، مع استهلاك أعلى في ساعات الذروة (3x) وأقل خارجها (2x أو 1x حتى نهاية أبريل 2026). - خطة برمجة GLM (Z.AI): خطة اشتراك تدعم GLM-5.1 لجميع مساعدي البرمجة المدعومين. تبدأ الأسعار من 10 دولار شهريًا.
-
النشر المحلي: أوزان النموذج متاحة على HuggingFace ضمن
zai-org/GLM-5.1، والتشغيل يتم عبر vLLM أو SGLang حسب وثائق GitHub الرسمي.
GLM-5.1 مقابل GLM-5: ما الذي تغير فعليًا
GLM-5 كان قويًا في البرمجة. GLM-5.1 يوسّع نافذة العمل الفعلي بشكل كبير.
التحسن الأساسي يظهر عند إعطاء كلا النموذجين نفس المهمة مع وقت غير محدود: يستمر GLM-5.1 في إحراز التقدم حتى بعد استقرار GLM-5. في اختبارات البحث المتجهي، استقر GLM-5 عند 8,000-10,000 QPS بينما وصل GLM-5.1 إلى 21,500 QPS. في تحسين GPU، GLM-5 توقف مبكرًا، بينما استمر 5.1 في التطور.
النموذج لا يزال يملك فجوات؛ مثلاً، Claude Opus 4.6 يتفوق في تحسين GPU وBrowseComp.
GLM-5.1 مقابل المنافسين
GLM-5.1 مقابل Claude Opus 4.6
GLM-5.1 يتصدر SWE-Bench Pro وCyberGym. Claude Opus 4.6 يتفوق في NL2Repo، وتحسين GPU، وBrowseComp. الوصول إلى واجهة API لدى Claude أغلى، بينما تسعير GLM-5.1 ملائم لحلقات البرمجة عالية الحجم.
GLM-5.1 مقابل GPT-5.4
GPT-5.4 يتصدر Terminal-Bench 2.0 ومعظم معايير الاستدلال. GLM-5.1 يتفوق في SWE-Bench Pro وMCP-Atlas. للمطورين في الصين أو من يعتمد على البنية التحتية المحلية، BigModel أسهل للوصول.
GLM-5.1 مقابل Gemini 3.1 Pro
Gemini 3.1 Pro يتفوق في الاستدلال وBrowseComp. GLM-5.1 يتصدر في SWE-Bench Pro، Terminal-Bench 2.0، وCyberGym. لمهام البرمجة، GLM-5.1 هو الخيار الأقوى.
حالات الاستخدام الأنسب لـ GLM-5.1
- وكلاء البرمجة المستقلون: للمهام طويلة الأمد حيث يحتاج النموذج لاتخاذ قرارات وتجربة حلول متعددة بدون تدخل بشري متكرر. راجع كيف تعمل ذاكرة وكيل الذكاء الاصطناعي.
- مساعدي البرمجة بالذكاء الاصطناعي: يدعم مباشرة في خطة Z.AI (Claude Code، Cline، Kilo Code، Roo Code...).
- أتمتة هندسة البرمجيات: أتمتة إصلاح أخطاء GitHub، إنشاء PRs، وغيرها من مهام SWE-Bench.
- البرمجة التنافسية: تحسين نواة GPU، معايرة الأداء، تحسين الخوارزميات عبر التجارب التكيفية.
ما لا يُنصح به: روبوت الدردشة العام، الكتابة الإبداعية، أو استخلاص المعلومات من المستندات حيث جودة الاستدلال أهم من الكود.
كيف تجرب GLM-5.1 اليوم
للبدء بسرعة:
- استخدم واجهة الدردشة على z.ai، حيث GLM-5.1 هو الافتراضي.
- للوصول إلى API:
- أنشئ حسابًا على bigmodel.cn
- أنشئ مفتاح API.
- استخدم اسم النموذج
glm-5.1في الطلبات (متوافق مع عملاء OpenAI).
- للنشر المحلي:
- حمّل الأوزان من huggingface.co/zai-org
- اتبع التعليمات في github.com/zai-org/GLM-5.1
لشرح عملي مع أمثلة كود، مصادقة، وإعداد اختبار، راجع دليل واجهة برمجة تطبيقات GLM-5.1.
الخاتمة
GLM-5.1 يمثل تقدمًا مهمًا عن GLM-5، خاصة في استمراريته في المهام الوكيلية. تصنيفه رقم 1 في SWE-Bench Pro وقدرته على تحسين البحث المتجهي عبر 600 تكرار يجعله أقوى نموذج مفتوح الأوزان لبرمجة الوكلاء المستقلين المتاح حاليًا.
النموذج ليس الأفضل في كل شيء؛ Claude Opus 4.6 وGPT-5.4 أقوى في الاستدلال وبعض مهام التحسين. لكن للمطورين الراغبين في تشغيل وكلاء برمجة مستدامين دون تكلفة النماذج المغلقة، GLM-5.1 بترخيص MIT والوصول إلى BigModel API خيار عملي.
الأوزان المفتوحة والترخيص الحر يسمحان بالتشغيل المحلي، الضبط الدقيق، والنشر في البنية التحتية الخاصة بك دون قيود.
الأسئلة الشائعة
ماذا يعني GLM؟
نموذج لغوي عام (General Language Model). بنية تعتمد على ملء الفراغات ذاتية الانحدار، وليس فقط على المفكك (decoder) كما في GPT.
هل GLM-5.1 مفتوح المصدر؟
نعم. الأوزان متاحة بترخيص MIT على HuggingFace ضمن zai-org/GLM-5.1. الترخيص يسمح بالاستخدام التجاري، الضبط الدقيق، وإعادة التوزيع.
ما هي نافذة السياق التي يدعمها GLM-5.1؟
200,000 رمز (حوالي 150,000 كلمة)، مع حد أقصى للإخراج يبلغ 163,840 رمز.
كيف يقارن GLM-5.1 بـ DeepSeek-V3.2؟
GLM-5.1 يتفوق عليه في مهام هندسة البرمجيات حسب بيانات Z.AI. في معايير الاستدلال DeepSeek-V3.2 منافس قوي، لكن للوكلاء البرمجيين GLM-5.1 هو الأقوى.
هل يمكنني استخدام GLM-5.1 مع Claude Code أو Cursor؟
نعم. خطة Z.AI تدعم Claude Code، Cline، Kilo Code، Roo Code، وOpenCode عبر BigModel API. فقط حدّث اسم النموذج في ملف إعداد مساعد البرمجة.
كيف أصل إلى GLM-5.1 عبر API؟
أنشئ حسابًا على bigmodel.cn، احصل على مفتاح API، واستخدم النموذج glm-5.1 في طلباتك إلى
https://open.bigmodel.cn/api/paas/v4/chat/completions.
الدليل الكامل في دليل واجهة برمجة تطبيقات GLM-5.1.
هل GLM-5.1 متاح مجانًا؟
واجهة الدردشة Z.AI مجانية. الوصول عبر API يعتمد على نظام حصص وخطط مدفوعة، مع عرض ترويجي للاستخدام خارج أوقات الذروة حتى نهاية أبريل 2026.




Top comments (0)