LLM

8 yazı bu etiketle etiketlendi.

DeepSeek, 24 Nisan 2026'da V4-Pro ve V4-Flash modellerini duyurdu. İkisi de açık kaynak, MIT lisanslı, 1M token bağlam pencereli. V4-Pro, LiveCodeBench'te 93,5% ile tüm modelleri geçiyor. V4-Flash, GPT-5.4 Nano'dan daha ucuz. Eski modeller 24 Temmuz'da kapanıyor.

OpenAI, GPT-5.4'ten 6 hafta sonra GPT-5.5'i duyurdu. Model, daha az tokenla daha iyi sonuçlar üretiyor. Codex'te 400K bağlam penceresi, bilimsel araştırma ve ajansal kodlamada kayda değer kazanımlar. API fiyatlandırması GPT-5.4'ün 2 katı.

Anthropic, Claude Opus 4.7'yi duyurdu. Gerçek benchmark verileriyle GPT-5.4 ve Gemini 3.1 Pro karşılaştırması, 3,75 megapiksel görüntü işleme ve yeni xhigh effort seviyesi — tam analiz.

Bir modeli nasıl değerlendirirsin? Entropy, perplexity, embedding metrikleri ve AI hakemliği — foundation model değerlendirmesinin tüm boyutlarını ele aldık.

KV Cache büyük dil modellerinde nedir, nasıl çalışır ve performansa nasıl katkı sağlar? Transformer mimarisinden pratik kullanıma kapsamlı bir rehber.

TurboQuant, LLM KV önbelleğini doğruluk kaybı olmadan 3 bite sıkıştıran Google Research algoritmasıdır. H100'lerde 8x hız artışı sağlar, eğitim gerektirmez.

Transformer mimarisi yapay zekanın temelini nasıl değiştirdi? Self-attention, model ölçeği, örnekleme parametreleri ve halüsinasyonu anlattık.

Bu seride baştan sona yapay zeka mühendisliği sürecine değineceğiz. Dil modeli nedir, token nedir, autoregressive ve masked modeller arasındaki fark ne?

← Tüm yazılar