· Engineering · 4 min read
DeepSeek V4 API: Flash ve Pro Modelleri ile Ultra Hızlı AI Entegrasyonu
DeepSeek V4 Flash ve Pro modellerinin özellikleri, fiyatlandırması, 384K context penceresi ve OpenAI/Anthropic uyumlu API entegrasyonu. Agent araçları ve pratik kullanım örnekleri.

DeepSeek, V4 serisiyle birlikte iki yeni model sundu: deepseek-v4-flash ve deepseek-v4-pro. Bu yazıda bu modellerin özelliklerini, fiyatlandırmasını ve nasıl kullanılacağını anlatıyorum.

1. DeepSeek V4 Modelleri
DeepSeek’in V4 serisi, eski model adlarını (deepseek-chat ve deepseek-reasoner) 24 Temmuz 2026 itibarıyla emekli ediyor. Yeni model ailesi şu şekilde:
| Model | Description | Use Case |
|---|---|---|
deepseek-v4-flash | Hızlı, uygun maliyetli model | Genel sohbet, kod üretimi, hızlı yanıtlar |
deepseek-v4-pro | Premium yüksek kaliteli model | Karmaşık reasoning, analiz, profesyonel kullanım |
Eski model adları (deepseek-chat ve deepseek-reasoner) geriye dönük uyumluluk için şimdilik çalışmaya devam ediyor — deepseek-chat, deepseek-v4-flash’in non-thinking moduna; deepseek-reasoner ise thinking moduna karşılık geliyor.
⚠️
deepseek-chatvedeepseek-reasoner24 Temmuz 2026’da kullanımdan kaldırılacak. Yeni projelerde doğrudandeepseek-v4-flashveyadeepseek-v4-prokullanmanız önerilir.
2. Fiyatlandırma
DeepSeek V4 serisi, Çin yuanı (¥) üzerinden fiyatlandırılır. Yaklaşık USD karşılıkları aşağıdaki gibidir (1 USD ≈ 7.2 ¥):
deepseek-v4-flash
| Metric | ¥ (CNY) | ~$ (USD) |
|---|---|---|
| 1M Input Token (Cache Hit) | ¥1 | ~$0.14 |
| 1M Input Token (Cache Miss) | ¥2 | ~$0.28 |
| 1M Output Token | ¥12 | ~$1.74 |
deepseek-v4-pro
| Metric | ¥ (CNY) | ~$ (USD) |
|---|---|---|
| 1M Input Token (Cache Hit) | ¥2 | ~$0.28 |
| 1M Input Token (Cache Miss) | ¥20 | ~$2.80 |
| 1M Output Token | ¥25 | ~$3.48 |
🎉 deepseek-v4-pro’da şu an %75 indirim var! İndirim 31 Mayıs 2026’ya kadar geçerli. Yani Pro modelin output fiyatı şu an için ~$0.87/M token.
Maliyet Karşılaştırması
| 1000 çağrı (500 input + 500 output token) | Flash | Pro (indirimli) |
|---|---|---|
| Maliyet | ~$0.001 | ~$0.002 |
| 1M output token | Flash | Pro (indirimli) | GPT-4o |
|---|---|---|---|
| Maliyet | ~$1.74 | ~$0.87 | ~$10.00 |
3. Context Penceresi
Her iki model de 384K token context penceresi sunar. Bu, ~300 sayfalık bir kitabı tek seferde modele vermek anlamına gelir. Karşılaştırmalı olarak:
| Model | Context Window |
|---|---|
| DeepSeek V4 Flash/Pro | 384K |
| GPT-4o | 128K |
| Claude Opus 4 | 200K |
| Gemini 1.5 Pro | 2M |
384K context ile tüm bir codebase’i, uzun dokümanları veya kapsamlı analizleri tek seferde modele gönderebilirsiniz.
Context Caching
DeepSeek, context caching (KV Cache) desteği sunar. Sık kullanılan prompt’ları önbelleğe alarak maliyeti 10 kata kadar düşürebilirsiniz:
- Normal input: $0.28/M token (Flash)
- Cache hit: $0.14/M token (Flash) — %50 tasarruf
28 Nisan 2026 itibarıyla cache hit fiyatı lansman fiyatının 1/10’una düşürüldü.
4. API Kullanımı
DeepSeek API, OpenAI ve Anthropic formatlarıyla tam uyumludur. Mevcut OpenAI SDK’nızla hiçbir kod değişikliği yapmadan DeepSeek’e geçebilirsiniz.
Temel Parametreler
| Parametre | Değer |
|---|---|
| base_url (OpenAI) | https://api.deepseek.com |
| base_url (Anthropic) | https://api.deepseek.com/anthropic |
| api_key | platform.deepseek.com’dan alınır |
| model | deepseek-v4-flash veya deepseek-v4-pro |
curl ile Test
curl https://api.deepseek.com/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer ${DEEPSEEK_API_KEY}" \
-d '{
"model": "deepseek-v4-pro",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Merhaba! Bana DeepSeek V4 hakkında bilgi ver."}
],
"thinking": {"type": "enabled"},
"reasoning_effort": "high",
"stream": false
}'
Python ile Kullanım
from openai import OpenAI
client = OpenAI(
api_key="your-deepseek-api-key",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "system", "content": "Sen yardımsever bir asistansın."},
{"role": "user", "content": "DeepSeek V4 Flash ve Pro arasındaki fark nedir?"}
],
stream=False,
reasoning_effort="high",
extra_body={"thinking": {"type": "enabled"}}
)
print(response.choices[0].message.content)
Node.js ile Kullanım
import OpenAI from "openai";
const openai = new OpenAI({
baseURL: 'https://api.deepseek.com',
apiKey: process.env.DEEPSEEK_API_KEY,
});
async function main() {
const completion = await openai.chat.completions.create({
messages: [
{ role: "system", content: "Sen yardımsever bir asistansın." },
{ role: "user", content: "DeepSeek V4 özelliklerini anlat." }
],
model: "deepseek-v4-pro",
thinking: {"type": "enabled"},
reasoning_effort: "high",
stream: false,
});
console.log(completion.choices[0].message.content);
}
main();
5. Thinking Mode
DeepSeek V4’ün en güçlü özelliklerinden biri Thinking Mode. Model, cevap vermeden önce adım adım düşünür ve bu düşünce sürecini görünür kılar.
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[{"role": "user", "content": "Bir AI agent ekosistemini analiz et."}],
extra_body={"thinking": {"type": "enabled"}},
reasoning_effort="high" # low, medium, high
)
reasoning_effort parametresi ile düşünme derinliğini kontrol edebilirsiniz:
low— hızlı cevaplar içinmedium— dengelihigh— derin analiz
6. Agent Araçları ile Entegrasyon
DeepSeek V4, popüler AI agent ve kodlama araçlarıyla doğrudan çalışır. API, OpenAI formatıyla tam uyumlu olduğu için Claude Code, GitHub Copilot ve OpenCode gibi araçlarda arka uç model olarak kullanabilirsiniz.
Claude Code ile DeepSeek
# Claude Code'da DeepSeek'i backend olarak ayarlayın
# Settings → Provider → DeepSeek V4
# veya CLI üzerinden:
OpenCode ile DeepSeek
OpenCode kullanıcıları da benzer şekilde baseURL ve apiKey ayarlarını değiştirerek DeepSeek V4’e geçebilir.
OpenAI Uyumlu SDK
SDK değiştirmenize gerek yok. Tek yapmanız gereken base_url ve api_key parametrelerini güncellemek:
# OpenAI'den DeepSeek'e geçiş — sadece 2 satır değişiklik
client = OpenAI(
api_key="sk-deepseek-...", # DeepSeek API key
base_url="https://api.deepseek.com" # Yeni base URL
)
7. Flash mı Pro mu?
| Kriter | deepseek-v4-flash | deepseek-v4-pro |
|---|---|---|
| Hız | ⚡ Çok hızlı | 🚀 Hızlı |
| Kalite | Yüksek | En yüksek |
| Fiyat | 💰 Ekonomik | 💎 Premium |
| Context | 384K | 384K |
| Thinking | Evet | Evet |
| Kullanım | Günlük sohbet, kod, basit analiz | Karmaşık reasoning, araştırma, profesyonel rapor |
Ne zaman hangi model?
- Flash kullan: Günlük geliştirme, kod tamamlama, hızlı prototip, basit sorgular
- Pro kullan: Derin analiz, kompleks reasoning, uzun bağlam gereken işler, üretim kalitesinde çıktı
💡 İpucu: Her iki modeli de aynı projede kullanabilirsiniz. Basit işlerde Flash, kritik işlerde Pro tercih ederek maliyeti optimize edin.
8. Rate Limit ve Hata Kodları
DeepSeek API’nin rate limit politikası, kullanım seviyenize göre değişir. Detaylı bilgi için DeepSeek API Docs sayfasını ziyaret edebilirsiniz.
Sık karşılaşılan hata kodları:
| Kod | Anlamı |
|---|---|
| 401 | Geçersiz API key |
| 429 | Rate limit aşıldı |
| 500 | Sunucu hatası |
| 503 | Servis geçici olarak kullanılamıyor |
9. Sonuç
DeepSeek V4, özellikle fiyat/performans oranıyla dikkat çeken bir model ailesi:
- ✅ 384K context ile rakiplerini geride bırakıyor
- ✅ OpenAI/Anthropic uyumlu API ile sıfır entegrasyon maliyeti
- ✅ Thinking Mode ile derinlemesine analiz
- ✅ Context Caching ile %50’ye varan maliyet tasarrufu
- ✅ Agent araçlarıyla (Claude Code, Copilot, OpenCode) tam uyum
- ✅ %75 indirim ile Pro model şu an çok uygun fiyatlı
24 Temmuz 2026’da eski model adları kullanımdan kalkıyor. Yeni projelerinizde doğrudan deepseek-v4-flash ve deepseek-v4-pro kullanmanızı öneririm.
10. Kaynaklar
- DeepSeek API Docs
- DeepSeek Platform
- API Key Alma
- Models & Pricing
- Thinking Mode Guide
- Agent Integrations Guide
- GitHub: DeepSeek
Hero görseli: fal.ai + FLUX.1 Dev ile üretilmiştir



