ملخص: أطلقت Google نموذج Gemma 4 في أبريل 2026، وهي عائلة مكونة من أربعة نماذج مفتوحة المصدر مرخصة تحت Apache 2.0، وتتفوق هذه النماذج على نماذج أكبر منها 20 مرة في حجمها على معايير الأداء القياسية. يمكنك استدعاء واجهة برمجة تطبيقات Gemma 4 عبر Google AI Studio أو Vertex AI، أو تشغيلها محليًا باستخدام Ollama و vLLM. قم بإقرانها بـ Smart Mock من Apidog لإنشاء استجابات API واقعية تلقائيًا من مخططات OpenAPI الخاصة بك دون كتابة أي قاعدة محاكاة واحدة.
مقدمة
معظم نماذج الذكاء الاصطناعي مفتوحة المصدر تجعلك تختار بين القدرة أو سهولة النشر: إما نموذج ضخم لا يعمل على جهازك، أو نموذج صغير لا يتحمل الاستدلال المعقد. Gemma 4 يكسر هذه القاعدة.
تقدّم عائلة Gemma 4 من Google DeepMind أداءً عاليًا بحجم نموذجي صغير. نموذج 31B Dense يحتل المركز الثالث بين جميع النماذج المفتوحة على لوحة صدارة Arena AI، متفوقًا على نماذج أكبر بـ20 مرة. أما E2B وE4B فهي نماذج خفيفة الوزن تعمل دون اتصال حتى على الهواتف.
Gemma 4 يدعم استدعاء الوظائف، إخراج JSON المنظم، ونوافذ سياق ضخمة حتى 256 ألف رمز، ما يجعله عمليًا لبناء أدوات API مدعومة بالذكاء الاصطناعي: من توليد بيانات اختبار وحتى تحليل استجابات API.
💡إذا كنت تبني باستخدام Gemma 4 وتحتاج للتحقق من أن استجابات الذكاء الاصطناعي تتوافق مع مواصفات OpenAPI خاصتك، محرك Apidog Smart Mock ينشئ استجابات محاكاة متوافقة مع المخطط مباشرة من تعريف API. لا حاجة لكتابة قواعد محاكاة؛ فقط اربط Apidog مع سير عمل Gemma 4 الخاص بك.
ما هو Gemma 4 وما الجديد فيه؟
Gemma 4 هو الجيل الرابع من نماذج اللغة المفتوحة من Google DeepMind. الاسم "Gemma" مستوحى من اللاتينية ويعني الأحجار الكريمة. أُطلقت السلسلة في 2024 وتم تنزيل نماذجها أكثر من 400 مليون مرة، مع أكثر من 100,000 نسخة مجتمعية.
جميع نماذج Gemma 4 مرخصة بـ Apache 2.0، ما يسمح بالاستخدام التجاري دون قيود. التحسين الأكبر هو "الذكاء لكل معلمة": نموذج 31B يقدم أداءً قريب من GPT-4 بجزء من التكلفة والموارد.
أبرز الميزات الجديدة:
- دعم متعدد الوسائط: معالجة الصور والفيديو، والنماذج الطرفية تدعم الصوت.
- نوافذ سياق طويلة: حتى 256 ألف رمز.
- استدعاء وظائف وإخراج JSON أصلي: لبناء وكلاء وبرمجيات API ذكية.
- استدلال متقدم: تحسينات كبيرة في فهم الرياضيات والتعليمات متعددة الخطوات.
- دعم 140+ لغة: النموذج متعدد اللغات أصليًا.
- ترخيص مرن: Apache 2.0 للاستخدام التجاري الكامل.
إصدارات نموذج Gemma 4 وقدراته
هناك أربعة إصدارات أساسية من Gemma 4، موجهة لاحتياجات عتادية مختلفة:
| النموذج | المعلمات | المعلمات النشطة (للاستدلال) | السياق | الأفضل لـ |
|---|---|---|---|---|
| E2B | 2B فعال | ~2B | 128 ألف | الجوال، إنترنت الأشياء، الأجهزة الطرفية غير المتصلة |
| E4B | 4B فعال | ~4B | 128 ألف | الهواتف، Raspberry Pi، Jetson Orin |
| 26B MoE | إجمالي 26B | ~3.8B نشطة | 256 ألف | مهام الخادم الحساسة للزمن |
| 31B Dense | 31B | 31B | 256 ألف | أعلى جودة، بحث، ضبط دقيق |
النماذج الصغيرة E2B وE4B مبنية بتقنية Mixture of Experts مما يوفر موارد الأجهزة. 26B MoE مناسب للنشر الخفيف على الخوادم، و31B Dense للأداء الأقصى في جودة الإخراج. جميعها تدعم استدعاء الوظائف وإخراج JSON.
لأتمتة واجهات برمجة التطبيقات، 26B MoE يوفر التوازن بين السرعة والجودة، بينما 31B Dense مثالي عندما تحتاج إخراجًا شديد التنظيم أو اختبارات معقدة.
إعداد واجهة برمجة تطبيقات Gemma 4: خطوة بخطوة
لديك 3 طرق أساسية لاستخدام Gemma 4:
- Google AI Studio (الأسرع للبدء)
- Vertex AI (مناسب للمؤسسات)
- النشر المحلي عبر Ollama أو vLLM
الخيار 1: Google AI Studio (موصى به للنماذج الأولية)
- سجّل في Google AI Studio وأنشئ مفتاح API.
- ثبّت SDK:
pip install google-genai - نفذ استدعاء بسيط:
import google.generativeai as genai genai.configure(api_key="YOUR_API_KEY") model = genai.GenerativeModel("gemma-4-31b-it") response = model.generate_content( "Generate a JSON object for a user account with id, email, and created_at fields." ) print(response.text) - لإخراج JSON منظم:
import google.generativeai as genai import json genai.configure(api_key="YOUR_API_KEY") model = genai.GenerativeModel( "gemma-4-31b-it", generation_config={"response_mime_type": "application/json"} ) prompt = """ Generate 3 sample user objects for an e-commerce API. Each user should have: id (integer), email (string), username (string), created_at (ISO 8601 timestamp), and subscription_tier (free|pro|enterprise). Return as a JSON array. """ response = model.generate_content(prompt) users = json.loads(response.text) print(json.dumps(users, indent=2))
الخيار 2: النشر المحلي باستخدام Ollama
- نزّل Ollama من ollama.com ونصبّه.
- اسحب النموذج:
ollama pull gemma4 - شغل الخادم:
ollama serve - اختبر النموذج عبر REST:
import requests import json response = requests.post( "http://localhost:11434/api/chat", json={ "model": "gemma4", "messages": [ { "role": "user", "content": "Generate a valid JSON response for a REST API /products endpoint. Include id, name, price, and stock fields." } ], "stream": False } ) result = response.json() print(result["message"]["content"])
الخيار 3: استدعاء الوظائف لتنسيق واجهة برمجة التطبيقات
يدعم Gemma 4 استدعاء الوظائف مباشرة. يمكنك تعريف الأدوات كـ JSON وتحديد مهامها. مثال عملي:
import google.generativeai as genai
genai.configure(api_key="YOUR_API_KEY")
tools = [
{
"function_declarations": [
{
"name": "get_api_schema",
"description": "Retrieve the OpenAPI schema for a given endpoint path",
"parameters": {
"type": "object",
"properties": {
"endpoint_path": {
"type": "string",
"description": "The API endpoint path, e.g. /users/{id}"
},
"method": {
"type": "string",
"enum": ["GET", "POST", "PUT", "DELETE", "PATCH"]
}
},
"required": ["endpoint_path", "method"]
}
}
]
}
]
model = genai.GenerativeModel("gemma-4-31b-it", tools=tools)
response = model.generate_content(
"I need to test the GET /users/{id} endpoint. What schema should the response follow?"
)
if response.candidates[0].content.parts[0].function_call:
fc = response.candidates[0].content.parts[0].function_call
print(f"Model called function: {fc.name}")
print(f"With args: {dict(fc.args)}")
هذه الطريقة مثالية لأتمتة اختبار واجهات برمجة التطبيقات المعقدة.
بناء نماذج API وهمية مدعومة بالذكاء الاصطناعي باستخدام Gemma 4
توليد بيانات وهمية هو من أكثر الاستخدامات العملية لـ Gemma 4 لدى مطوري API. عند بناء الواجهة الأمامية أو اختبار حالات نادرة، تحتاج إلى استجابات واقعية.
مثال على توليد بيانات وهمية من مخطط OpenAPI:
import google.generativeai as genai
import json
genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel(
"gemma-4-31b-it",
generation_config={"response_mime_type": "application/json"}
)
schema = {
"type": "object",
"properties": {
"id": {"type": "integer"},
"order_number": {"type": "string", "pattern": "^ORD-[0-9]{6}$"},
"status": {"type": "string", "enum": ["pending", "shipped", "delivered", "cancelled"]},
"total": {"type": "number", "minimum": 0},
"items": {
"type": "array",
"items": {
"type": "object",
"properties": {
"product_id": {"type": "integer"},
"quantity": {"type": "integer", "minimum": 1},
"unit_price": {"type": "number"}
}
}
},
"created_at": {"type": "string", "format": "date-time"}
}
}
prompt = f"""
Generate 5 realistic mock responses for an order management API.
Each response must conform exactly to this JSON Schema:
{json.dumps(schema, indent=2)}
Make the data realistic: use realistic prices, product IDs, and varied statuses.
Return as a JSON array of 5 order objects.
"""
response = model.generate_content(prompt)
mock_orders = json.loads(response.text)
print(json.dumps(mock_orders, indent=2))
Gemma 4 يحترم قيود مخططات JSON: التعدادات، الأنماط، الحدود الرقمية... إلخ. يمكنك تطبيق نفس النمط لأي نقطة نهاية API.
مثال عملي: صدّر مواصفات OpenAPI من Apidog، الصقها في prompt، واطلب من Gemma 4 توليد حالات اختبار واقعية لكل endpoint.
اختبار استجابات واجهة برمجة تطبيقات Gemma 4 باستخدام Apidog
بعد توليد البيانات أو الاستجابات عبر Gemma 4، تحتاج للتحقق من تطابقها مع المخطط. استخدم سيناريوهات الاختبار في Apidog:
- استورد endpoint Gemma 4 إلى Apidog وحدد مخطط الاستجابة.
- استخدم Smart Mock لإنشاء استجابات وهمية أولية بناءً على المخطط.
- أنشئ سيناريو اختبار: أضف طلبات Gemma 4، تحقق من صحة الاستجابة، اربط الخطوات.
- أضف التأكيدات: تحقق من رموز الحالة، الرؤوس، بنية JSON.
- شغل السيناريو مع بيانات اختبار متعددة عبر CSV أو JSON.
يتيح لك معالج "استخراج المتغير" في Apidog تمرير البيانات من استجابة Gemma 4 إلى الطلبات اللاحقة، ما يسمح باختبار متسلسل متقدم.
الإعداد الكامل يستغرق دقائق، ويمكن دمجه في خطوط CI/CD عبر Apidog CLI.
حالات الاستخدام في العالم الحقيقي
- توليد بيانات اختبار API: أنشئ مئات سجلات الاختبار الواقعية خلال دقائق بتغذية المخطط فقط.
- محاكاة API ذكية: مع Gemma 4 يمكنك إعادة استجابات ذات منطق سياقي متغير، وليس بيانات ثابتة فقط.
- توليد وثائق API تلقائيًا: استغل نافذة السياق الكبيرة لإنتاج توثيق كامل للواجهات.
- تحليل صحة المخطط: استخدم Gemma 4 لتحليل استجابات API واكتشاف الانتهاكات للمخطط.
- كتابة اختبارات انحدار تلقائية: اطلب من Gemma 4 توليد حالات اختبار تكتشف أخطاء سابقة بناءً على مواصفاتك.
Gemma 4 مقابل نماذج مفتوحة أخرى لاستخدام API
| النموذج | المعلمات | السياق | إخراج JSON | استدعاء الوظائف | الترخيص |
|---|---|---|---|---|---|
| Gemma 4 31B | 31B | 256 ألف | أصلي | أصلي | Apache 2.0 |
| Gemma 4 26B MoE | 26B (3.8B نشطة) | 256 ألف | أصلي | أصلي | Apache 2.0 |
| Llama 3.3 70B | 70B | 128 ألف | عبر المطالبة | عبر المطالبة | Llama Community |
| Mistral 7B | 7B | 32 ألف | عبر المطالبة | محدود | Apache 2.0 |
| Qwen 2.5 72B | 72B | 128 ألف | أصلي | أصلي | Apache 2.0 |
الميزة الجوهرية لـ Gemma 4: إخراج JSON واستدعاء وظائف أصليان، وسياق ضخم. Llama 3.3 قوي لكنه يتطلب موارد مضاعفة، وMistral 7B سريع لكن نافذته السياقية محدودة. Qwen 2.5 بديل متعدد اللغات لكن بعتاد أعلى.
ترخيص Apache 2.0 على Gemma 4 يمنحك حرية تجارية كاملة مقارنة ببعض القيود في Llama Community License.
الخلاصة
Gemma 4 يقدم بديلًا مفتوحًا عمليًا لواجهات برمجة تطبيقات الذكاء الاصطناعي التجارية. الترخيص المفتوح، إخراج JSON الأصلي، ودعم الوظائف تجعل دمجه في سير عمل API سهلاً وفعالاً.
ابدأ بـ 26B MoE لأفضل توازن أداء/تكلفة، أو 31B Dense للجودة القصوى. أدمج Gemma 4 مع Apidog لإغلاق حلقة التحقق: استخدم Gemma 4 لتوليد البيانات، وApidog Smart Mock للتحقق من صحتها وسيناريوهات الاختبار.
الأسئلة الشائعة
ما هو Gemma 4؟ Gemma 4 هي أحدث عائلة من نماذج اللغة المفتوحة من Google DeepMind، تم إطلاقها في أبريل 2026. تأتي بأربعة أحجام (E2B، E4B، 26B MoE، 31B Dense) وهي مرخصة بموجب Apache 2.0. نموذج 31B يحتل حاليًا المرتبة الثالثة على لوحة Arena AI.
هل Gemma 4 مجاني للاستخدام؟ أوزان النماذج مجانية بموجب Apache 2.0. تدفع فقط مقابل الحوسبة. Google AI Studio يقدم طبقة مجانية محدودة، وVertex AI يحاسبك وفق أسعار Google Cloud.
هل يمكن لـ Gemma 4 إخراج JSON منظم؟ نعم، يدعم معلمة response_mime_type: "application/json" لإرجاع JSON صالح دائمًا.
ما الفرق بين Gemma 4 و GPT-4o في تطوير API؟ GPT-4o احتكاري بدون نشر محلي وتكلفة API أعلى. Gemma 4 31B مجاني للتشغيل محليًا وبنتائج معيارية منافسة.
هل يمكن ضبط Gemma 4 على بياناتي الخاصة؟ نعم، عبر Google AI Studio، Vertex AI، أو أدوات مثل Hugging Face TRL.
ما الأجهزة المطلوبة لتشغيل Gemma 4 محليًا؟ 31B و26B يعملان على بطاقة H100 بحجم 80GB أو بطاقات 16-24GB في الوضع الكمي. E2B وE4B يعملان حتى على هواتف أندرويد و Raspberry Pi.
هل يدعم Gemma 4 استدعاء الوظائف؟ نعم، كل الإصدارات تدعم استدعاء وظائف أصلي مع تعريف الأدوات كـ JSON.
كيف أختبر استجابات API من Gemma 4 تلقائيًا؟ استخدم سيناريوهات Apidog: استورد endpoint، أضف خطوات الطلب والتأكيد، شغّل السيناريو محليًا أو عبر CLI أو ضمن CI/CD.




Top comments (0)