← Yazılar

LLM'in Sınırlarını Aşmak: RAG, Tool Use ve Agentic AI

RAG, Tool Use, Agentic AI. Bir önceki yazıda ele aldığımız dört sınırı aşmak için inşa edilen üç yaklaşım. LLM bir “tahmin makinesi”ydi; bu üç yaklaşım onu “bilen ve eyleme geçen” bir sisteme dönüştürüyor. Ortak felsefeleri tek bir cümleye sığıyor: tahmin etme, bil.

1. RAG (Retrieval-Augmented Generation): Kitaplar Açık Sınav Yapmak

Önceki yazıda halüsinasyonu anlatırken modelin bir ansiklopedi değil, olasılık hesaplayıcısı olduğunu vurgulamıştık. Model bilgiyi “hatırlamaz”, istatistiksel olarak en olası tokeni üretir. RAG işte bu soruna çözüm getiriyor.

Standart bir LLM, kitaplar kapalı sınava giren öğrenci gibidir. Her şeyi hafızasından cevaplar, hafızası yanlışsa özgüvenle yanlış cevap verir. RAG bu sınavı kitaplar açık sınava çeviriyor: model cevap vermeden önce ilgili kaynakları bulup okuyor, sonra cevabını bu kaynaklara dayandırıyor.

Nasıl çalışıyor? Sorunuz sisteme ulaşıyor. Soru, bir veritabanı tarafından sorguya anlamsal olarak en yakın belge parçalarıyla eşleştiriliyor. Fakat bu veritabanı geleneksel SQL veritabanları gibi kelime araması yapmıyor, bunlar vektör veritabanları, anlamsal yakınlığa göre sorgulama yapabiliyorlar. Siz şehir dediğinizde kent olan sonuçları da döndürüyor. Bulunan parçalar modelin bağlamına ekleniyor. Model’e cevabını bu gerçek verilere dayandırarak üretmesi talimatı veriliyor.

Fark dramatik. JMIR Cancer’da yayımlanan bir araştırmada, RAG’sız chatbot %40 oranında halüsinasyon üretirken, güvenilir tıbbi kaynaklarla desteklenen RAG’lı sistemde bu oran %0-6’ya düşüyor. Üstelik bir yan kazanım daha var: geleneksel chatbot’lar tüm sorulara (%100) yanıt verirken, RAG tabanlı chatbot’ların yanıt oranı %36 ile %81 arasında değişiyor. Yani sistem, kaynaklarında bilgiyi bulamıyorsa uydurmak yerine “bilmiyorum” diyor.

RAG aynı zamanda context window sınırını da akıllıca aşıyor. Hatırlayın, önceki yazıda “samanlıktaki iğne” testinden bahsetmiştik, modelin uzun bir bağlam içine gizlenmiş bilgiyi bulma kapasitesini ölçen test. RAG, tüm samanlığı context window’a yığmak yerine, sadece iğneyi bulup modelin ayağına getiriyor. Pencereyi büyütmüyor, daha akıllı kullanıyor.

Neden önemli: RAG, LLM’i “ezbere konuşan” sistemden “kaynağa dayalı konuşan” sisteme dönüştürüyor. Halüsinasyonu azaltıyor, context window’u verimli kullanıyor.

2. Tool Use (Araç Kullanımı): Tahmin Etme, Hesapla

LLM’e “47 × 83 kaç eder?” diye sorduğunuzda, model aslında çarpma yapmıyor. Eğitim verisinde gördüğü benzer kalıplardan yola çıkarak en olası tokeni tahmin ediyor. Sonuç bazen doğru çıkabilir (3901), bazen de çıkmaz. Çünkü o bir hesap makinesi değil, bir istatistiksel dil modeli.

Tool Use bu kör noktayı ortadan kaldırıyor. Model, “bu bir matematik sorusu, tahmin etmektense hesap makinesini çağırayım” diyebiliyor. Sonuç: tahmin yerine kesin hesaplama.

Güncel bilgi gerektiğinde hafızaya güvenmek yerine web araması yapmaya karar veriyor ve web araması aracını çağırıyor. Veri analizi gerektiğinde kod yazıp çalıştırıyor, sonucu kullanıyor. Döviz kuru ya da hava durumu sorulduğunda API’den anlık veri çekiyor. Her durumda aynı prensip: bilmediğini tahmin etmek yerine, bilen araca soruyor.

Etkisi sadece doğrulukla sınırlı değil. Meta’nın 2023’te yayımladığı Toolformer araştırmasında, araç kullanan 6.7 milyar parametreli küçük bir model, araçsız 175 milyar parametreli GPT-3 ile aynı seviyeye ulaştı. Araç kullanımı, modeli 26 kat büyütmekle eşdeğer bir etki yarattı.

RAG ile ortak felsefelerini fark ettiniz mi? İkisi de aynı prensibi farklı açılardan çözüyor: tahmin etme, bil. RAG “bilgiyi uydurmak yerine kaynaktan getir” diyor, Tool Use “hesaplıyormuş gibi yapmak yerine hesap makinesini çağır, gerçekten hesapla” diyor.

Daha önce Cahit Arf’ın 1959’da çizdiği düşünen makine mimarisinin günümüzdeki gelişmelere ne kadar benzediğinden bahsetmiştik. Arf’ın “filân adama sormalı, filân kitaba bakmalı” dediği yardımcı hafıza kavramı, bugün RAG ve Tool Use dediğimiz şeylerin ta kendisi.

Neden önemli: Tool Use, LLM’i “her şeyi kendisi yapmaya çalışan” sistemden “doğru işi doğru araca yaptıran” sisteme dönüştürüyor. Halüsinasyonu azaltıyor, yetenekleri genişletiyor ve daha küçük modellerin dev modellerle yarışmasını sağlıyor.

3. Agentic AI: Orkestrasyon

RAG doğru bilgiyi buluyor. Tool Use doğru eylemi gerçekleştiriyor. Peki bunları kim koordine ediyor, hangi aracın ne zaman çağrılacağına kim karar veriyor?

Agentic AI, bu yetenekleri planlama, karar alma ve geri bildirim döngüsüyle bir araya getiren orkestrasyon katmanı. Bu kavramı serinin önceki yazılarında detaylıca ele almıştık. AI Agent ile Agentic AI arasındaki farkı, ortamla etkileşen ve geri bildirim döngüsüyle iteratif problem çözen sistemlerden bahsetmiştik. OpenClaw örneğinde gördüğümüz “hedefi ver, yolunu bulsun” paradigması da Agentic AI ile mümkün oluyor.

Burada tekrar etmek yerine bütünü görelim: RAG modele bilgi, Tool Use modele yetenek, Agentic AI ise modele irade kazandırıyor.

Neden önemli: Agentic AI, tek bir LLM çağrısının ötesine geçip gerçek dünyadaki çok adımlı karmaşık görevleri, bir bug’ı tespit edip düzeltmek ya da bir raporu araştırıp yazmak gibi çok adımlı, karmaşık görevlerde iteratif problem çözmeyi mümkün kılıyor.

Tahmin Makinesinden Bilen Sisteme Geçiş

Daha önce LLM’in sınırlarını gördük: context window ve halüsinasyon. Şimdi de bu sınırların nasıl aşıldığını gördük. RAG “bilgiyi getir”, Tool Use “doğru araca sor”, Agentic AI “planla ve yönet” diyor.

Bu üç yaklaşımı anlayan kişi, yapay zekayı bir sohbet kutusu olarak değil, bir mühendislik sistemi olarak görmeye başlayacaktır.

Bu üç yaklaşımın ortak bir noktası var: hepsi modeli değiştirmeden, dışarıdan destekliyor. RAG dışarıdan bilgi getiriyor, Tool Use dışarıdan araç çağırıyor, Agentic AI dışarıdan orkestre ediyor. Elbette bu yaklaşımlar daha yavaş yanıt süreleri ve artan token maliyetleri anlamına geliyor; ancak doğruluk ve güvenilirliğin kritik olduğu yerlerde bu bedel ödenmeye değer. Peki modelin kendisini güncellemek: fine-tuning, RLHF/DPO ve LoRA gibi yöntemler ne zaman devreye girer? Bir sonraki yazıda buna bakacağız.

Siz bu üç yaklaşımdan hangisini günlük iş akışınızda en çok kullanıyorsunuz, ya da hangisini denemeyi en çok istiyorsunuz?

Paylaş