Özetle: Google, Nisan 2026'da Gemma 4'ü piyasaya sürdü. Bu, Apache 2.0 lisansı altında yayımlanan dört açık modelden oluşan bir aile olup, standart karşılaştırmalarda kendi boyutlarının 20 katı büyüklüğündeki modelleri geride bırakıyor. Gemma 4 API'sini Google AI Studio, Vertex AI aracılığıyla çağırabilir veya Ollama ve vLLM ile yerel olarak çalıştırabilirsiniz. Tek bir taklit kuralı yazmadan, OpenAPI şemalarınızdan gerçekçi API yanıtlarını otomatik olarak oluşturmak için onu Apidog'un Smart Mock'u ile eşleştirin.
Giriş
Çoğu açık kaynaklı yapay zeka modeli sizi bir seçim yapmaya zorlar: ham yetenek veya dağıtılabilirlik. Ya dizüstü bilgisayarınızda çalıştıramayacağınız kadar büyük bir model, ya da çok adımlı akıl yürütmeyi başaramayan küçük bir model elde edersiniz. Gemma 4 bu dengeyi bozuyor.
Gemma 4, Google DeepMind'ın bugüne kadarki en yetenekli açık model ailesidir. 31B Dense modeli, Arena AI'ın liderlik tablosunda tüm açık modeller arasında 3. sırada yer alıyor ve kendi boyutunun 20 katı rakipleri geride bırakıyor. 26B Uzmanlar Karışımı (MoE) 6. sırada yer alıyor. Her ikisi de tek bir 80 GB GPU üzerinde çalışır. Hafif E2B ve E4B modelleri, telefonlarda ve uç cihazlarda tamamen çevrimdışı çalışır.
API geliştiricileri için bu, göründüğünden daha önemlidir. Gemma 4, yerel olarak fonksiyon çağırmayı, yapılandırılmış JSON çıktısını ve 256K bağlam pencerelerini destekler. Bu da onu, test verisi oluşturmaktan taklitler yazmaya ve API yanıtlarını analiz etmeye kadar yapay zeka destekli API araçları oluşturmak için pratik bir seçenek haline getirir.
💡Eğer Gemma 4 ile geliştirme yapıyorsanız ve bu yapay zeka tarafından oluşturulan yanıtları OpenAPI belirtiminize göre doğrulamak istiyorsanız, Apidog'un Smart Mock motoru, API tanımınızdan şemaya uygun taklit yanıtları otomatik olarak oluşturabilir. Tek tek taklit kuralları yazmanıza gerek yok; Smart Mock şemanızı okur ve anında bağlama uygun veriler üretir. Apidog'u ücretsiz indirin ve Gemma 4 API iş akışınıza bağlayın.
Gemma 4 Nedir ve Yenilikler Nelerdir?
Gemma 4, Google DeepMind'ın dördüncü nesil açık dil modelleridir. "Gemma" adı, Latince değerli taş anlamına gelen kelimeden gelmektedir. Seri 2024'ün başlarında başladı ve piyasaya sürülmesinden bu yana geliştiriciler Gemma modellerini 400 milyondan fazla kez indirdi. Topluluk 100.000'den fazla varyant oluşturarak Google'ın "Gemmaverse" adını verdiği bir ekosistem kurdu.
Gemma 4, özel bir kullanım politikası kullanan önceki nesillere kıyasla önemli bir değişiklik olan bir Apache 2.0 lisansı altında piyasaya sürülüyor. Bu, Gemma 4'ü ticari olarak kısıtlama olmaksızın kullanabileceğiniz, değiştirebileceğiniz ve dağıtabileceğiniz anlamına geliyor. Bu, yapay zeka altyapıları üzerinde tam kontrol ihtiyacı duyan işletmeler ve girişimler için anlamlı bir değişikliktir.
Gemma 4'teki manşet iyileşme, Google'ın "parametre başına zeka" olarak adlandırdığı şeydir. 31B Dense modeli, GPT-4 veya Claude 3 Sonnet gibi modellerin hesaplama maliyetinin çok altında, sınır düzeyinde yetenekler sunar. Arena AI metin liderlik tablosunda (Nisan 2026 itibarıyla), Gemma 4 31B, 600 milyardan fazla parametreye sahip modelleri geride bırakıyor.
Gemma 3'e kıyasla öne çıkan yenilikler:
- Yerel çok modlu giriş: Dört Gemma 4 modelinin tamamı görüntü ve videoyu yerel olarak işler. E2B ve E4B uç modelleri, konuşma tanıma için yerel ses girişi ekler.
- Daha uzun bağlam pencereleri: E2B ve E4B modelleri 128K belirteci, 26B ve 31B modelleri ise 256K belirtece kadar destekler.
- Aracı iş akışı desteği: Yerel fonksiyon çağırma, yapılandırılmış JSON çıktı modu ve sistem talimatları ile API entegrasyonlarında pratik kullanım sağlar.
- Gelişmiş akıl yürütme: 31B modeli, matematik ve çok adımlı talimat takibinde önemli iyileştirmeler sunar.
- 140'tan fazla dil desteği: Gemma 4, 140'tan fazla dili yerel olarak destekler.
- Apache 2.0 lisansı: Ticari kullanım için yasal belirsizliği ortadan kaldırır.
Gemma 4 Model Varyantları ve Yetenekleri
Google, her biri farklı donanım için optimize edilmiş dört Gemma 4 varyantı sunar:
| Model | Parametreler | Aktif parametreler (çıkarım) | Bağlam | En iyi olduğu alan |
|---|---|---|---|---|
| E2B | Etkili 2B | ~2B | 128K | Mobil, IoT, çevrimdışı uç |
| E4B | Etkili 4B | ~4B | 128K | Telefonlar, Raspberry Pi, Jetson Orin |
| 26B MoE | Toplam 26B | ~3.8B aktif | 256K | Gecikmeye duyarlı sunucu görevleri |
| 31B Dense | 31B | 31B | 256K | En yüksek kalite, araştırma, ince ayar |
- E2B/E4B: Mixture of Experts mimarisi ile düşük güç tüketimi ve RAM kullanımı sağlar. Tamamen çevrimdışı mobil/IoT uygulamaları için idealdir.
- 26B MoE: Sunucu tarafı için düşük gecikmeli, hızlı çıkarım. Sadece 3.8B aktif parametre kullanımı ile maliyet/verim dengesi sunar.
- 31B Dense: Kalite ve çok adımlı testler için en iyi seçim. Tüm parametreler aktif.
API geliştiricileri için: 26B MoE, hız/kalite dengesi; 31B Dense, karmaşık JSON ve çok adımlı mantık gerektiren durumlar için uygun.
Tüm modellerde fonksiyon çağırma ve JSON çıktı desteği standarttır.
Gemma 4 API Kurulumu: Adım Adım
Aşağıda, Gemma 4 API'sini çağırmak için üç ana yolun nasıl kurulacağını bulabilirsiniz.
Seçenek 1: Google AI Studio (Hızlı Prototipleme)
- Google AI Studio'ya kaydolun ve bir API anahtarı alın.
-
Python SDK'yı yükleyin:
pip install google-genai -
Temel API çağrısı:
import google.generativeai as genai genai.configure(api_key="YOUR_API_KEY") model = genai.GenerativeModel("gemma-4-31b-it") response = model.generate_content( "Generate a JSON object for a user account with id, email, and created_at fields." ) print(response.text) -
JSON çıktısı almak için:
import google.generativeai as genai import json genai.configure(api_key="YOUR_API_KEY") model = genai.GenerativeModel( "gemma-4-31b-it", generation_config={"response_mime_type": "application/json"} ) prompt = """ Bir e-ticaret API'si için 3 örnek kullanıcı nesnesi oluşturun. Her kullanıcının şunları içermesi gerekir: id (tam sayı), email (dize), username (dize), created_at (ISO 8601 zaman damgası) ve subscription_tier (free|pro|enterprise). Bir JSON dizisi olarak döndürün. """ response = model.generate_content(prompt) users = json.loads(response.text) print(json.dumps(users, indent=2))
Seçenek 2: Ollama ile Yerel Dağıtım
- Ollama aracını kurun.
-
Modeli indirin:
ollama pull gemma4 -
Sunucuyu başlatın:
ollama serve -
OpenAI uyumlu API ile çağrı yapın:
import requests import json response = requests.post( "http://localhost:11434/api/chat", json={ "model": "gemma4", "messages": [ { "role": "user", "content": "Bir REST API /products uç noktası için geçerli bir JSON yanıtı oluşturun. id, name, price ve stock alanlarını dahil edin." } ], "stream": False } ) result = response.json() print(result["message"]["content"])
Seçenek 3: Fonksiyon Çağırma ile API Orkestrasyonu
- Kullanılacak fonksiyonları tanımlayın.
-
Modeli fonksiyon desteği ile başlatın:
import google.generativeai as genai genai.configure(api_key="YOUR_API_KEY") tools = [ { "function_declarations": [ { "name": "get_api_schema", "description": "Belirli bir uç nokta yolu için OpenAPI şemasını alır", "parameters": { "type": "object", "properties": { "endpoint_path": { "type": "string", "description": "API uç nokta yolu, örn. /users/{id}" }, "method": { "type": "string", "enum": ["GET", "POST", "PUT", "DELETE", "PATCH"] } }, "required": ["endpoint_path", "method"] } } ] } ] model = genai.GenerativeModel("gemma-4-31b-it", tools=tools) response = model.generate_content( "GET /users/{id} uç noktasını test etmem gerekiyor. Yanıt hangi şemayı takip etmeli?" ) # Fonksiyon çağrısı kontrolü if response.candidates[0].content.parts[0].function_call: fc = response.candidates[0].content.parts[0].function_call print(f"Model şu fonksiyonu çağırdı: {fc.name}") print(f"Şu argümanlarla: {dict(fc.args)}")
Bu şekilde, Gemma 4 ile fonksiyon çağırma tabanlı API test ve orkestrasyonunu kolayca kurabilirsiniz.
Gemma 4 ile Yapay Zeka Destekli API Taklitleri Oluşturma
API geliştiricileri için Gemma 4'ün öne çıkan pratik kullanım alanı, gerçekçi taklit veri üretimidir. Aşağıda, OpenAPI şemasından taklit veri üretmek için örnek bir akış yer alıyor:
import google.generativeai as genai
import json
genai.configure(api_key="YOUR_API_KEY")
model = genai.GenerativeModel(
"gemma-4-31b-it",
generation_config={"response_mime_type": "application/json"}
)
# OpenAPI şeması
schema = {
"type": "object",
"properties": {
"id": {"type": "integer"},
"order_number": {"type": "string", "pattern": "^ORD-[0-9]{6}$"},
"status": {"type": "string", "enum": ["pending", "shipped", "delivered", "cancelled"]},
"total": {"type": "number", "minimum": 0},
"items": {
"type": "array",
"items": {
"type": "object",
"properties": {
"product_id": {"type": "integer"},
"quantity": {"type": "integer", "minimum": 1},
"unit_price": {"type": "number"}
}
}
},
"created_at": {"type": "string", "format": "date-time"}
}
}
prompt = f"""
Bir sipariş yönetimi API'si için 5 gerçekçi taklit yanıt oluşturun.
Her yanıt şu JSON Şemasına tam olarak uymalıdır:
{json.dumps(schema, indent=2)}
Verileri gerçekçi yapın: gerçekçi fiyatlar, ürün kimlikleri ve çeşitli durumlar kullanın.
5 sipariş nesnesinden oluşan bir JSON dizisi olarak döndürün.
"""
response = model.generate_content(prompt)
mock_orders = json.loads(response.text)
print(json.dumps(mock_orders, indent=2))
Bu yöntemle, Gemma 4'ün şema kısıtlamalarına uygun, gerçekçi ve API sözleşmesiyle uyumlu taklit yanıtlar elde edersiniz. Benzer şekilde, OpenAPI belirtiminizdeki her uç nokta için şemayı modele vererek genişletilmiş taklit veri kümeleri üretebilirsiniz.
Daha karmaşık akışlarda, koşullu mantık veya çoklu uç nokta desteği için istemi ve şemanızı zenginleştirerek Gemma 4'ten daha kapsamlı test setleri alabilirsiniz.
Gemma 4 API Yanıtlarını Apidog ile Test Etme
Gemma 4 çıktılarının API şemanızla uyumunu otomatik olarak test etmek için Apidog'un Test Senaryoları özelliğini kullanın.
İş Akışı:
1. Gemma 4 API uç noktanızı Apidog'a aktarın:
Projenizde yeni bir uç nokta oluşturun, Gemma 4 API'nize bağlayın ve beklenen yanıt şemasını tanımlayın.
2. Smart Mock ile prototip yanıtları üretin:
Canlı testten önce Apidog Smart Mock ile şemanızdan gerçekçi prototip yanıtlar oluşturun. Alan adlarından ve türlerden otomatik veri üretimi sağlar.
3. Test Senaryosu oluşturun:
Testler modülünde yeni bir senaryo oluşturun, Gemma 4 API çağrınızı ekleyin ve doğrulama adımlarını zincirleyin.
Örnek adımlar:
- Kimlik doğrulama uç noktasından token alın
- Gemma 4 API'ye istek gönderin
- Yanıttan JSON çıkarın
- JSON'u şema doğrulamasıyla kontrol edin
- Sonuç verisini başka bir uç noktaya iletin
4. Doğrulama kurallarını ekleyin:
HTTP durum kodu, başlık ve JSON alanlarının varlığını ve türünü kontrol edin. Apidog'un Değişken Ayıklayıcı işlemcisi ile Gemma 4 çıktısını sonraki adımlarda kullanabilirsiniz.
5. Veri odaklı testleri çalıştırın:
CSV/JSON dosyalarından farklı istem varyasyonlarını yükleyin, toplu testleri tek tıklamayla başlatın ve API'nizin çeşitli girişlere karşı dayanıklılığını ölçün.
Bu süreci otomatikleştirerek, şema tanımından canlı test sonucuna kadar tüm akışı 15 dakikada kurabilir ve CI/CD'de sürekli çalıştırabilirsiniz.
Gerçek Dünya Kullanım Durumları
- API test verisi oluşturma: JSON çıktı moduyla, OpenAPI şemanıza uygun yüzlerce gerçekçi test kaydını otomatik üretin.
- Akıllı API taklit etme: Taklit sunucunuzu Gemma 4 ile bağlama göre dinamik yanıt döndürecek şekilde güçlendirin.
- API dokümantasyonu oluşturma: 256K bağlam penceresi ile tüm kod tabanınızı isteme ekleyin ve otomatik OpenAPI belgeleri alın.
- Yanıt şeması doğrulama: API yanıtlarınızı şema ihlalleri için analiz edin, alan eksikliklerini ve tür hatalarını tespit edin.
- Otomatik regresyon testi yazma: Hata raporlarından ve şemadan test senaryoları ürettirin, ilişkili alanlar ve durum geçişleri için kontroller ekleyin.
API Kullanımı İçin Gemma 4 ile Diğer Açık Modellerin Karşılaştırılması
| Model | Parametreler | Bağlam | JSON çıktısı | Fonksiyon çağırma | Lisans |
|---|---|---|---|---|---|
| Gemma 4 31B | 31B | 256K | Yerel | Yerel | Apache 2.0 |
| Gemma 4 26B MoE | 26B (3.8B aktif) | 256K | Yerel | Yerel | Apache 2.0 |
| Llama 3.3 70B | 70B | 128K | İstem aracılığıyla | İstem aracılığıyla | Llama Topluluğu |
| Mistral 7B | 7B | 32K | İstem aracılığıyla | Sınırlı | Apache 2.0 |
| Qwen 2.5 72B | 72B | 128K | Yerel | Yerel | Apache 2.0 |
- Gemma 4: Yerel JSON çıktısı, fonksiyon çağırma ve uzun bağlam desteği ile API araçları için idealdir.
- Llama 3.3 70B: Güçlü ancak iki kat donanım gerektirir.
- Mistral 7B: Hafif ve hızlı, fakat bağlam ve yapılandırılmış çıktı desteği sınırlı.
- Qwen 2.5 72B: Çok dilli güçlü alternatif, fakat donanım gereksinimi yüksek.
Apache 2.0 lisansı ile Gemma 4, ticari ve açık geliştirme için net avantaj sunar.
Sonuç
Gemma 4, geliştiricilere API araçları oluşturmak için tescilli yapay zeka API'lerine karşı güvenilir ve açık bir alternatif sunar. Apache 2.0 lisansı, önceki açık modelleri ticari olarak göndermeyi karmaşık hale getiren yasal sürtünmeyi ortadan kaldırır. Yerel fonksiyon çağırma ve JSON çıktı modu, kapsamlı istem mühendisliğine gerek kalmadan API iş akışlarına entegre etmeyi pratik hale getirir.
Dört model boyutu, telefonlardan iş istasyonlarına kadar her donanım katmanını kapsar. 26B MoE modeli, çoğu API geliştirme kullanım durumu için öne çıkan seçenektir: çıkarım maliyetinin çok altında, sınıra yakın kalite sunar.
Yapay zeka tarafından oluşturulan veriler ile API doğrulama arasındaki döngüyü kapatmak için Gemma 4'ü Apidog'un Smart Mock'u ile eşleştirin. Test verileri ve taklit yanıtlar oluşturmak için Gemma 4'ü kullanın. Şemaları prototiplemek için Apidog'un Smart Mock'unu ve yapay zeka çıktısının API sözleşmenizi karşıladığını doğrulamak için Test Senaryolarını kullanın. Birlikte, yapay zeka destekli API'ler oluşturmak ve test etmek için pratik bir iş akışı kurabilirsiniz.
Sıkça Sorulan Sorular
Gemma 4 nedir?
Gemma 4, Google DeepMind'ın Nisan 2026'da piyasaya sürülen en yeni açık dil modelleri ailesidir. Dört boyutta (E2B, E4B, 26B MoE, 31B Dense) gelir ve Apache 2.0 lisansı altındadır. 31B modeli, Arena AI'ın metin liderlik tablosundaki tüm açık modeller arasında şu anda 3. sırada yer almaktadır.
Gemma 4'ü kullanmak ücretsiz mi?
Model ağırlıkları Apache 2.0 lisansı altında ücretsiz olarak indirilebilir ve kullanılabilir. Kendiniz çalıştırdığınızda hesaplama için ödeme yaparsınız. Google AI Studio'yu kullanırsanız, hız limitleri olan ücretsiz bir katman bulunur. Vertex AI, standart Google Cloud hesaplama ücretlerini alır.
Gemma 4 yapılandırılmış JSON çıktısı verebilir mi?
Evet. Gemma 4, Google Üretken Yapay Zeka SDK'sı aracılığıyla yerel bir response_mime_type: "application/json" parametresini destekler. Bu, modelin her zaman geçerli JSON döndürmesini sağlar, bu da çıktıyı programlı olarak ayrıştırdığınız API entegrasyonları için çok önemlidir.
Gemma 4, API geliştirme için GPT-4o ile nasıl karşılaştırılır?
GPT-4o, yerel dağıtım seçeneği olmayan ve daha yüksek API maliyetleri olan tescilli bir modeldir. Gemma 4 31B yerel olarak dağıtmak ücretsizdir ve karşılaştırma puanları akıl yürütme görevlerinde GPT-4o ile rekabetçidir. Veri gizliliği veya maliyet kontrolüne ihtiyaç duyan ekipler için Gemma 4 ciddiye alınmaya değerdir.
Kendi API verilerimde Gemma 4'ü ince ayar yapabilir miyim?
Evet. Google, Gemma 4'ü Google AI Studio, Vertex AI ve Hugging Face TRL gibi üçüncü taraf araçlar aracılığıyla ince ayar yapmayı destekler. Alan tabanlı API şemaları ve yanıt desenleri üzerinde ince ayar yapmak, özel kullanım durumları için çıktı kalitesini önemli ölçüde artırabilir.
Gemma 4'ü yerel olarak çalıştırmak için hangi donanıma ihtiyacım var?
31B ve 26B modelleri, bfloat16'da tek bir 80GB NVIDIA H100'e sığar. Kuantize edilmiş sürümler, 16-24GB VRAM'e sahip tüketici GPU'larında çalışır. E4B ve E2B modelleri, Raspberry Pi ve NVIDIA Jetson dahil olmak üzere telefonlarda ve uç cihazlarda çalışır.
Gemma 4 fonksiyon çağırmayı destekliyor mu?
Evet, tüm Gemma 4 modelleri yerel fonksiyon çağırmayı destekler. Araçları bir ad, açıklama ve parametre şemasına sahip JSON nesneleri olarak tanımlarsınız. Model bir aracı ne zaman çağıracağına karar verir ve kodda üzerinde işlem yapabileceğiniz yapılandırılmış argümanları iletir.
Gemma 4 API yanıtlarını otomatik olarak nasıl test ederim?
Zincirleme bir test iş akışı oluşturmak için Apidog'un Test Senaryolarını kullanın. Gemma 4 API uç noktanızı içe aktarın, istek adımlarını ayarlayın ve yanıt yapısını doğrulamak için iddialar ekleyin. Senaryoyu yerel olarak, CLI aracılığıyla veya her kod gönderiminde CI/CD işlem hattınızda otomatik olarak çalıştırabilirsiniz.




Top comments (0)