LLM
2 yazı bu etiketle etiketlendi.
Transformer mimarisi yapay zekanın temelini nasıl değiştirdi? Self-attention, multi-head attention, positional encoding, model ölçeği, örnekleme parametreleri ve halüsinasyon nedenlerini baştan sona anlattık.
Bu seride baştan sona yapay zeka mühendisliği sürecine değineceğiz. Dil modeli nedir, token nedir, autoregressive ve masked modeller arasındaki fark ne?