· Engineering  · 4 min read

DeepSeek V4 API: Flash ve Pro Modelleri ile Ultra Hızlı AI Entegrasyonu

DeepSeek V4 Flash ve Pro modellerinin özellikleri, fiyatlandırması, 384K context penceresi ve OpenAI/Anthropic uyumlu API entegrasyonu. Agent araçları ve pratik kullanım örnekleri.

DeepSeek V4 Flash ve Pro modellerinin özellikleri, fiyatlandırması, 384K context penceresi ve OpenAI/Anthropic uyumlu API entegrasyonu. Agent araçları ve pratik kullanım örnekleri.

DeepSeek, V4 serisiyle birlikte iki yeni model sundu: deepseek-v4-flash ve deepseek-v4-pro. Bu yazıda bu modellerin özelliklerini, fiyatlandırmasını ve nasıl kullanılacağını anlatıyorum.

DeepSeek V4 API


1. DeepSeek V4 Modelleri

DeepSeek’in V4 serisi, eski model adlarını (deepseek-chat ve deepseek-reasoner) 24 Temmuz 2026 itibarıyla emekli ediyor. Yeni model ailesi şu şekilde:

ModelDescriptionUse Case
deepseek-v4-flashHızlı, uygun maliyetli modelGenel sohbet, kod üretimi, hızlı yanıtlar
deepseek-v4-proPremium yüksek kaliteli modelKarmaşık reasoning, analiz, profesyonel kullanım

Eski model adları (deepseek-chat ve deepseek-reasoner) geriye dönük uyumluluk için şimdilik çalışmaya devam ediyor — deepseek-chat, deepseek-v4-flash’in non-thinking moduna; deepseek-reasoner ise thinking moduna karşılık geliyor.

⚠️ deepseek-chat ve deepseek-reasoner 24 Temmuz 2026’da kullanımdan kaldırılacak. Yeni projelerde doğrudan deepseek-v4-flash veya deepseek-v4-pro kullanmanız önerilir.


2. Fiyatlandırma

DeepSeek V4 serisi, Çin yuanı (¥) üzerinden fiyatlandırılır. Yaklaşık USD karşılıkları aşağıdaki gibidir (1 USD ≈ 7.2 ¥):

deepseek-v4-flash

Metric¥ (CNY)~$ (USD)
1M Input Token (Cache Hit)¥1~$0.14
1M Input Token (Cache Miss)¥2~$0.28
1M Output Token¥12~$1.74

deepseek-v4-pro

Metric¥ (CNY)~$ (USD)
1M Input Token (Cache Hit)¥2~$0.28
1M Input Token (Cache Miss)¥20~$2.80
1M Output Token¥25~$3.48

🎉 deepseek-v4-pro’da şu an %75 indirim var! İndirim 31 Mayıs 2026’ya kadar geçerli. Yani Pro modelin output fiyatı şu an için ~$0.87/M token.

Maliyet Karşılaştırması

1000 çağrı (500 input + 500 output token)FlashPro (indirimli)
Maliyet~$0.001~$0.002
1M output tokenFlashPro (indirimli)GPT-4o
Maliyet~$1.74~$0.87~$10.00

3. Context Penceresi

Her iki model de 384K token context penceresi sunar. Bu, ~300 sayfalık bir kitabı tek seferde modele vermek anlamına gelir. Karşılaştırmalı olarak:

ModelContext Window
DeepSeek V4 Flash/Pro384K
GPT-4o128K
Claude Opus 4200K
Gemini 1.5 Pro2M

384K context ile tüm bir codebase’i, uzun dokümanları veya kapsamlı analizleri tek seferde modele gönderebilirsiniz.

Context Caching

DeepSeek, context caching (KV Cache) desteği sunar. Sık kullanılan prompt’ları önbelleğe alarak maliyeti 10 kata kadar düşürebilirsiniz:

  • Normal input: $0.28/M token (Flash)
  • Cache hit: $0.14/M token (Flash) — %50 tasarruf

28 Nisan 2026 itibarıyla cache hit fiyatı lansman fiyatının 1/10’una düşürüldü.


4. API Kullanımı

DeepSeek API, OpenAI ve Anthropic formatlarıyla tam uyumludur. Mevcut OpenAI SDK’nızla hiçbir kod değişikliği yapmadan DeepSeek’e geçebilirsiniz.

Temel Parametreler

ParametreDeğer
base_url (OpenAI)https://api.deepseek.com
base_url (Anthropic)https://api.deepseek.com/anthropic
api_keyplatform.deepseek.com’dan alınır
modeldeepseek-v4-flash veya deepseek-v4-pro

curl ile Test

curl https://api.deepseek.com/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer ${DEEPSEEK_API_KEY}" \
  -d '{
        "model": "deepseek-v4-pro",
        "messages": [
          {"role": "system", "content": "You are a helpful assistant."},
          {"role": "user", "content": "Merhaba! Bana DeepSeek V4 hakkında bilgi ver."}
        ],
        "thinking": {"type": "enabled"},
        "reasoning_effort": "high",
        "stream": false
      }'

Python ile Kullanım

from openai import OpenAI

client = OpenAI(
    api_key="your-deepseek-api-key",
    base_url="https://api.deepseek.com"
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "system", "content": "Sen yardımsever bir asistansın."},
        {"role": "user", "content": "DeepSeek V4 Flash ve Pro arasındaki fark nedir?"}
    ],
    stream=False,
    reasoning_effort="high",
    extra_body={"thinking": {"type": "enabled"}}
)

print(response.choices[0].message.content)

Node.js ile Kullanım

import OpenAI from "openai";

const openai = new OpenAI({
  baseURL: 'https://api.deepseek.com',
  apiKey: process.env.DEEPSEEK_API_KEY,
});

async function main() {
  const completion = await openai.chat.completions.create({
    messages: [
      { role: "system", content: "Sen yardımsever bir asistansın." },
      { role: "user", content: "DeepSeek V4 özelliklerini anlat." }
    ],
    model: "deepseek-v4-pro",
    thinking: {"type": "enabled"},
    reasoning_effort: "high",
    stream: false,
  });

  console.log(completion.choices[0].message.content);
}

main();

5. Thinking Mode

DeepSeek V4’ün en güçlü özelliklerinden biri Thinking Mode. Model, cevap vermeden önce adım adım düşünür ve bu düşünce sürecini görünür kılar.

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[{"role": "user", "content": "Bir AI agent ekosistemini analiz et."}],
    extra_body={"thinking": {"type": "enabled"}},
    reasoning_effort="high"  # low, medium, high
)

reasoning_effort parametresi ile düşünme derinliğini kontrol edebilirsiniz:

  • low — hızlı cevaplar için
  • medium — dengeli
  • high — derin analiz

6. Agent Araçları ile Entegrasyon

DeepSeek V4, popüler AI agent ve kodlama araçlarıyla doğrudan çalışır. API, OpenAI formatıyla tam uyumlu olduğu için Claude Code, GitHub Copilot ve OpenCode gibi araçlarda arka uç model olarak kullanabilirsiniz.

Claude Code ile DeepSeek

# Claude Code'da DeepSeek'i backend olarak ayarlayın
# Settings → Provider → DeepSeek V4
# veya CLI üzerinden:

OpenCode ile DeepSeek

OpenCode kullanıcıları da benzer şekilde baseURL ve apiKey ayarlarını değiştirerek DeepSeek V4’e geçebilir.

OpenAI Uyumlu SDK

SDK değiştirmenize gerek yok. Tek yapmanız gereken base_url ve api_key parametrelerini güncellemek:

# OpenAI'den DeepSeek'e geçiş — sadece 2 satır değişiklik
client = OpenAI(
    api_key="sk-deepseek-...",         # DeepSeek API key
    base_url="https://api.deepseek.com"  # Yeni base URL
)

7. Flash mı Pro mu?

Kriterdeepseek-v4-flashdeepseek-v4-pro
Hız⚡ Çok hızlı🚀 Hızlı
KaliteYüksekEn yüksek
Fiyat💰 Ekonomik💎 Premium
Context384K384K
ThinkingEvetEvet
KullanımGünlük sohbet, kod, basit analizKarmaşık reasoning, araştırma, profesyonel rapor

Ne zaman hangi model?

  • Flash kullan: Günlük geliştirme, kod tamamlama, hızlı prototip, basit sorgular
  • Pro kullan: Derin analiz, kompleks reasoning, uzun bağlam gereken işler, üretim kalitesinde çıktı

💡 İpucu: Her iki modeli de aynı projede kullanabilirsiniz. Basit işlerde Flash, kritik işlerde Pro tercih ederek maliyeti optimize edin.


8. Rate Limit ve Hata Kodları

DeepSeek API’nin rate limit politikası, kullanım seviyenize göre değişir. Detaylı bilgi için DeepSeek API Docs sayfasını ziyaret edebilirsiniz.

Sık karşılaşılan hata kodları:

KodAnlamı
401Geçersiz API key
429Rate limit aşıldı
500Sunucu hatası
503Servis geçici olarak kullanılamıyor

9. Sonuç

DeepSeek V4, özellikle fiyat/performans oranıyla dikkat çeken bir model ailesi:

  • 384K context ile rakiplerini geride bırakıyor
  • OpenAI/Anthropic uyumlu API ile sıfır entegrasyon maliyeti
  • Thinking Mode ile derinlemesine analiz
  • Context Caching ile %50’ye varan maliyet tasarrufu
  • Agent araçlarıyla (Claude Code, Copilot, OpenCode) tam uyum
  • %75 indirim ile Pro model şu an çok uygun fiyatlı

24 Temmuz 2026’da eski model adları kullanımdan kalkıyor. Yeni projelerinizde doğrudan deepseek-v4-flash ve deepseek-v4-pro kullanmanızı öneririm.


10. Kaynaklar


Hero görseli: fal.ai + FLUX.1 Dev ile üretilmiştir

Back to Blog

Related Posts

View All Posts »
WhatsApp ile yazin