Sergey Brin’in erken Google arama algoritmalarından bugünün jeneratif yapay zekâsına uzanan yolculuğunu, ölçeklendirme, ürün etkisi ve açık sorular üzerine kilit fikirlerle keşfedin.

Sergey Brin’in hikâyesi ünlülük veya şirket dedikodusu yüzünden önemli değil; önemli olan, klasik arama problemlerinden (açık web’de en iyi cevabı nasıl bulursunuz?) bugün takımların karşılaştığı modern AI sorularına (yardımcı çıktı üretirken doğruluk, hız veya güveni nasıl korursunuz?) düz bir çizgi çizmesi. Onun çalışmaları algoritmalar, veri ve sistemlerin kesişiminde yer alır—tam da arama ile jeneratif yapay zekânın buluştuğu yerde.
Bu, önceliği kavramlara veren bir kilometre taşı turu: PageRank gibi fikirlerin alakalılığı nasıl değiştirdiği, makine öğreniminin el yapımı kuralları nasıl yavaşça yerinden ettiği ve derin öğrenmenin dil anlayışını neden geliştirdiği. Amaç; bu değişimlerin neden önemli olduğunu ve insanların kullandığı ürünleri nasıl şekillendirdiğini açıklamak. Bu bir magazin yazısı, iç drama veya sadece başlıkların zaman çizelgesi değil.
Jeneratif yapay zekâ, arama gibi işlemesi gerektiğinde “ölçekli” olur: milyonlarca kullanıcı, düşük gecikme, öngörülebilir maliyetler ve tutarlı kalite. Bu sadece etkileyici bir model demosundan fazlasıdır. Buna şunlar dahildir:
Sonunda arama dönemini bugün chat tarzı ürünlere bağlayabilecek, retrieval ile generation’ın neden kaynaştığını anlayabilecek ve ürün ekipleri için aktarılabilir pratik ilkeleri—ölçüm, alaka, sistem tasarımı ve sorumlu dağıtım—ödünç alabileceksiniz.
Sergey Brin’in aramaya giden yolu akademide başladı; burada esas sorular “bir web sitesi nasıl kurulur” değil, bilgi fazlalığını nasıl yönetirsiniz sorusuydu. Google şirket olmadan önce Brin, veritabanı sistemleri, veri madenciliği ve bilgi erişimi gibi bilgisayar bilimi araştırmalarına dalmıştı—çok fazla veriyi nasıl depolayıp hızlıca faydalı cevaplar döndürebileceğimizi sorgulayan disiplinler.
Brin lisans düzeyinde matematik ve bilgisayar bilimi okudu, sonra Stanford’da lisansüstü çalışmalar yaptı; Stanford o dönemde web’in ortaya çıkan ölçeği üzerine araştırmanın merkeziydi. Araştırmacılar zaten bugün kulağa tanıdık gelen sorunlarla boğuşuyordu: düzensiz veri, belirsiz kalite ve kullanıcıların yazdıkları ile gerçekten ne demek istedikleri arasındaki boşluk.
1990’ların sonlarında arama büyük ölçüde anahtar kelime eşleşmesi ve temel sıralama sinyalleriyle ilerliyordu. Bu, web daha küçükken işe yarıyordu ama sayfalar çoğaldıkça ve içerik üreticileri sistemi oyunlaştırmayı öğrendikçe bozuldu. Yaygın zorluklar şunlardı:
Motive eden fikir basitti: web devasa bir kütüphane ise, sadece metin eşleşmesinden fazlasına ihtiyacınız var—güvenilirlik ve önem sinyalleri gerekir. Web bilgisini düzenlemek, yalnızca sayfadaki kelimelerden değil, web’in yapısından kullanışlılığı çıkarabilecek yöntemler gerektirdi.
Bu erken araştırma öncelikleri—kaliteyi ölçme, manipülasyona direnme ve aşırı ölçekte çalışabilme—daha sonra arama ve AI’daki kaymaların temelini attı; makine öğrenimine dayalı sıralama ve nihayetinde jeneratif yaklaşımlar dahil.
Aramanın basit görünen hedefi şudur: bir soru yazdığınızda en faydalı sayfalar üstte olmalı. 1990’ların sonlarında bu göründüğü kadar kolay değildi. Web patlıyordu ve erken arama motorlarının çoğu bir sayfanın kendisi hakkında söylediklerine—metin, anahtar kelimeler ve meta etiketlere—ağırlık veriyordu. Bu, sonuçları oyunlaştırmayı kolaylaştırıyor ve sık sık kullanıcıları hayal kırıklığına uğratıyordu.
Sergey Brin ve Larry Page’in ana içgörüsü, web’in bağlantı yapısını bir sinyal olarak işlemektı. Bir sayfa başka bir sayfaya bağlantı veriyorsa, bir tür “oy” kullanıyordur. Tüm oylar eşit değildir: itibarlı bir sayfadan gelen bağlantı, önemsiz bir kaynaktan gelen bir bağlantıdan daha fazla sayılmalıdır.
Kavramsal olarak PageRank şu soruyu ölçer: hangi sayfalar diğer önemli sayfalar tarafından referans alınıyor? Bu döngüsel soru, web ölçeğinde hesaplanan matematiksel bir sıralamaya dönüşür. Sonuç alakalılığın “cevabı” değildi—ama güçlü yeni bir bileşendi.
PageRank’i Google’ın erken başarısının tüm sırrı olarak görmek kolaydır. Pratikte sıralama bir tarif gibidir: algoritmalar çok sayıda sinyali (metin eşleşmesi, tazelik, konum, hız ve daha fazlası) birleştirerek kişinin gerçekten ne istediğini tahmin eder.
Ve teşvikler karmaşık. Sıralamalar önemli olur olmaz spam gelir—link çiftlikleri, anahtar kelime doldurma ve faydalı olmadan alakasız görünmeye çalışan diğer hileler. Arama algoritmaları sürekli bir karşılıklı oyun haline geldi: alakalılığı iyileştir, manipülasyonu tespit et, sistemi ayarla.
Web değişir, dil değişir ve kullanıcı beklentileri değişir. Her iyileştirme yeni uç durumlar yaratır. PageRank aramayı bitirmedi—alanı basit anahtar kelime eşleşmesinden modern bilgi erişimine kaydırdı; burada alakalılık sürekli ölçülür, test edilir ve geliştirilir.
Zeki bir sıralama fikri, “veritabanınız” tüm web olduğunda yeterli değildir. Erken Google aramasını farklı hissettiren tek şey alakalılık değildi—aynı alakalılığı milyonlarca insan için hızlı ve tutarlı şekilde sunabilme yetisiydi.
İnternet ölçeğinde arama tarama ile başlar: sayfaları keşfetmek, tekrar ziyaret etmek ve asla durmayan bir web ile başa çıkmak. Ardından indeksleme gelir: düzensiz, değişken içeriği milisaniyeler içinde sorgulanabilecek yapılara dönüştürmek.
Küçük ölçekte depolama ve hesaplamayı tek makine problemi gibi ele alabilirsiniz. Büyük ölçekte her seçim bir sistem takası haline gelir:
Kullanıcılar arama kalitesini bir sıralama puanı olarak değil—her seferinde açılan bir sonuç sayfası olarak deneyimler. Sistemler sık sık başarısız oluyorsa, sonuçlar zaman aşımına uğruyorsa veya tazelik geride kalıyorsa, çok iyi alaka modelleri bile pratikte kötü görünür.
Bu yüzden çalışma süresi, kademeli bozulma ve tutarlı performans için mühendislik yapmak, sıralamadan ayrı düşünülemez. Tutarlı olarak 200ms’de dönen biraz daha az “mükemmel” bir sonuç, geç veya aralıklı gelen daha iyi bir sonuca galip gelebilir.
Ölçekte “sadece gönder” diyemezsiniz. Arama, sinyalleri (tıklamalar, bağlantılar, dil kalıpları) toplayan, değerlendirmeler yapan ve değişiklikleri kademeli olarak dağıtan boru hatlarına bağlıdır. Amaç, herkes etkilenmeden önce regresyonları erken tespit etmektir.
Bir kütüphane kataloğu kitapların sabit, kürate ve yavaş değiştiğini varsayar. Web ise kitapların kendini yeniden yazdığı, rafların yer değiştirdiği ve sürekli yeni odaların ortaya çıktığı bir kütüphanedir. İnternet ölçeğinde arama, bu hareketli hedef için kullanılabilir bir katalogu koruyan makineler—hızlı, güvenilir ve sürekli güncellenen bir sistemdir.
Erken sıralama el işi kurallara dayanıyordu: bir sayfa başlığında doğru kelimeler varsa yükselt, sık bağlantı alıyorsa yükselt, hızlı yükleniyorsa puan ver, vb. Bu sinyaller önemliyken, her birinin ne kadar sayılacağı çoğunlukla manuel bir zanaattı. Mühendisler ağırlıkları ayarlayabilir, deneyler yapabilir ve yineleyebilirdi. Bu işe yarıyordu ama web (ve kullanıcı beklentileri) patladıkça bir tavanla karşılaştı.
“Learning to rank”, çok sayıda örneği inceleyerek bir sistemin iyi sonuçların neye benzediğini öğrenmesine izin vermektir.
Uzun bir sıralama kural listesi yazmak yerine, modele geçmiş aramalar ve çıktı örnekleri verirsiniz—kullanıcıların hangi sonuçları seçtiği, hangilerinden hızla çıktığı ve hangi sayfaların insan incelemecilerce faydalı bulunduğu gibi. Zamanla model, hangi sonuçların üstte olması gerektiğini daha iyi tahmin etmeyi öğrenir.
Basit bir benzetme: her ders için ayrıntılı oturma planı yazan bir öğretmen yerine, hangi oturma düzenlerinin daha iyi tartışmalara yol açtığını izleyen ve buna göre otomatik ayarlama yapan bir öğretmen gibidir.
Bu kayma klasik sinyalleri—bağlantılar veya sayfa kalitesi gibi—ortadan kaldırmadı; onların nasıl birleştirileceğini değiştirdi. “Sessiz” kısmı şudur: kullanıcı açısından arama kutusu aynı görünürken içte ağırlık merkezi el yapımı puanlama formüllerinden veriyle eğitilen modellere kaydı.
Modeller veriden öğrendiğinde, ölçüm rehber olur.
Ekipler alaka metriklerine (sonuçlar sorguyu tatmin ediyor mu?), çevrimiçi A/B testlerine (değişiklik gerçek kullanıcı davranışını iyileştiriyor mu?) ve insan geri bildirimine (sonuçlar doğru, güvenli ve faydalı mı?) dayanır. Önemli olan değerlendirmeyi sürekli tutmaktır—çünkü insanların ne aradığı ve “iyi”nin ne olduğu sürekli değişir.
Not: belirli model tasarımları ve iç sinyaller zamanla değişir ve kamuya açık değildir; önemli çıkarım, sıkı testlerle desteklenen öğrenen sistemler zihniyetine geçiştir.
Derin öğrenme, çok katmanlı sinir ağlarından oluşan bir makine öğrenimi ailesidir. “Eğer sorguda X varsa Y’i yükselt” gibi kuralları elle yazmak yerine, bu modeller kalıpları büyük miktarda veriden doğrudan öğrenir. Dil dağınıktır: insanlar yazım hatası yapar, bağlamı ima eder ve aynı kelime farklı şeyler ifade edebilir—bu yüzden bu kayma arama için önemliydi.
Geleneksel sıralama sinyalleri—bağlantılar, anchor metinleri, tazelik—güçlüdür ama bir sorgunun ne amaçladığını anlamazlar. Derin öğrenme modelleri temsiller öğrenmede iyidir: kelimeleri, cümleleri ve hatta görselleri anlam ve benzerlik yakalayan yoğun vektörlere dönüştürür.
Pratikte bu şunları sağladı:
Derin öğrenme ücretsiz değildir. Sinir modellerini eğitmek ve sunmak maliyetli olabilir; özel donanım ve özenli mühendislik gerektirir. Yanlış kestirme yollar öğrenmemek için temiz etiketler, tıklama sinyalleri ve değerlendirme setleri gibi verilere ihtiyaç duyarlar.
Ayrıca açıklanabilirlik zorluğu vardır. Bir model sıralamayı değiştirdiğinde, neden A yerine B’yi tercih ettiğini basit bir cümleyle açıklamak zordur; bu hata ayıklamayı ve güveni karmaşıklaştırır.
En büyük değişim teknikten ziyade organizasyoneldi: sinir modelleri yan deneyler olmaktan çıkıp kullanıcıların “arama kalitesi” diye deneyimlediği şeyin parçası haline geldi. Alakalılık giderek öğrenilmiş modellere—ölçülen, yinelemeli ve üretime sokulan—bağlı hale geldi.
Klasik arama AI’sı büyük ölçüde sıralama ve tahmin üzerineydi. Bir sorgu ve bir dizi belge verildiğinde sistem hangi sonuçların en alakalı olduğunu tahmin ederdi. Makine öğrenimi elle yazılmış kuralları değiştirdiğinde bile amaç benzerdı: “iyi eşleşme”, “spam” veya “yüksek kalite” gibi puanlar ver ve sırala.
Jeneratif AI çıktıyı değiştirir. Model mevcut belgeler arasından seçim yapmak yerine metin, kod, özetler hatta görseller üretebilir. Ürün tek bir yanıtta cevap verebilir, bir e-posta taslağı hazırlayabilir veya bir kod parçası yazabilir—kullanışlı ama temelde bağlantı döndürmekten farklı.
Transformer mimarileri, cümle ve belgeler arasındaki ilişkilere tüm metin boyunca dikkat etmeyi pratik hale getirdi. Yeterli eğitim verisiyle bu modeller geniş dil ve muhakeme benzeri davranış kalıplarını öğrenir: yeniden ifade etme, çeviri, talimat izleme ve konular arasında fikir birleştirme.
Büyük modeller için daha fazla veri ve hesaplama genellikle daha iyi performans getirir: bariz hatalar azalır, yazı kalitesi güçlenir ve talimat izleme iyileşir. Ancak getiriler sonsuz değildir. Maliyet hızla yükselir, eğitim veri kalitesi darboğaz olur ve bazı hatalar modeli büyütmekle ortadan kalkmaz.
Jeneratif sistemler "halüsinasyon" yapabilir, eğitim verisindeki önyargıları yansıtabilir veya zararlı içerik üretmeye yönlendirilebilir. Ayrıca tutarlılık sorunu vardır: birbirine benzeyen iki istem farklı cevaplar üretebilir. Klasik aramaya kıyasla zorluk "En iyi kaynağı mı sıraladık?" sorusundan "Üretilen yanıt doğru, dayanaklı ve güvenli mi?" sorusuna kayar.
Jeneratif AI demo halinde sihirli görünür, ama milyonlarca (veya milyarlarca) istek için çalıştırmak hem araştırma hem de matematiksel ve operasyonel bir problemdir. Bu noktada arama döneminden gelen dersler—verimlilik, güvenilirlik ve acımasız ölçüm—halen geçerlidir.
Büyük modelleri eğitmek esasen matris çarpımlarının fabrikasyon hattıdır. “Ölçek” genellikle GPU veya TPU filoları anlamına gelir; binlerce çipin tek bir sistem gibi hareket etmesi için dağıtık eğitim gereklidir.
Bu pratik kısıtları getirir:
Sunum (serving) eğitimden farklıdır: kullanıcılar zirve doğruluğa değil yanıt süresine ve tutarlılığa önem verir. Ekipler denge kurar:
Model davranışı olasılıksal olduğundan, izleme sadece “sunucu açık mı?” sorusundan ibaret değildir. Kalite sürüklenmesi, yeni hata modları ve model veya prompt güncellemelerinden sonra ince regresyonları takip etmek gerekir. Bu genellikle insan inceleme döngüleri artı otomatik testleri içerir.
Maliyetleri makul tutmak için ekipler sıkıştırma, distillasyon (küçük modele büyük modeli taklit ettirme) ve yönlendirme (kolay sorguları daha ucuz modellere gönderip gerektiğinde yükseltme) gibi yöntemlere dayanır. Bunlar jeneratif AI’yı gerçek ürünlerde uygulanabilir kılan gösterişsiz araçlardır.
Arama ve sohbet sıklıkla rakip gibi görünür, ama farklı kullanıcı hedeflerine optimize edilmiş iki arayüz olarak daha iyi anlaşılır.
Klasik arama hızlı, doğrulanabilir gezinme için optimize edilmiştir: “X için en iyi kaynağı bul” veya “beni doğru sayfaya yönlendir.” Kullanıcılar birden fazla seçeneğe bakmayı, başlıkları hızlıca taramayı ve güvenilirlik ipuçlarıyla (yayıncı, tarih, snippet) kararı vermeyi bekler.
Sohbet sentez ve keşif için optimize edilmiştir: “Bana açıklama yap,” “Karşılaştır,” “Taslağa yaz” veya “Sırada ne yapmalıyım?” Değer sadece bir sayfayı bulmak değil—dağınık bilgiyi tutarlı bir cevaba dönüştürmek, açıklayıcı sorular sormak ve turlar arasında bağlamı korumaktır.
Çoğu pratik ürün her ikisini harmanlar. Yaygın bir yaklaşım retrieval-augmented generation (RAG): sistem önce güvenilir bir indekste arama yapar (web sayfaları, dokümanlar, bilgi tabanları), sonra bulduklarına dayanarak bir cevap üretir.
Bu dayandırma arama ile sohbetin güçlü yönlerini (tazelik, kapsam, izlenebilirlik) sohbetin güçlü yönleriyle (özetleme, muhakeme, konuşma akışı) birleştirir.
Üretim söz konusu olduğunda kullanıcı arayüzü “işte cevap” ile bitmemelidir. Güçlü tasarımlar şunları ekler:
Bir asistan kendini çabuk çelişiyormuş gibi gösterebilir, ortada kural değiştiriyormuş gibi davranabilir veya bilgilerin nereden geldiğini açıklayamıyorsa kullanıcılar bunu hızlıca fark eder. Tutarlı davranış, açık kaynak gösterimi ve öngörülebilir kontroller birleşince arama+sohbet deneyimi güvenilir hisseder—özellikle cevap gerçek kararları etkiliyorsa.
Sorumlu AI’yı operasyonel hedefler olarak anlamak en kolay yoldur. Jeneratif sistemler için genelde şu anlamlara gelir: güvenlik (zararlı talimatlar veya taciz üretme), gizlilik (hassas verileri ifşa etmeme veya kişisel bilgileri ezberlememe) ve adillik (grupları zarara uğratacak şekilde sistematik muamele etmeme).
Klasik arama değerlendirmesi daha temiz bir “şekle” sahipti: bir sorguya göre belgeleri sırala, sonra kullanıcıların ne sıklıkta ihtiyaçlarını bulduğunu ölç. Çıktı sınırlıydı—var olan kaynaklara bağlantılar.
Jeneratif AI sınırsız sayıda makul görünen cevap üretebilir; ince hata modları vardır:
Bu yüzden değerlendirme tek bir puardan ziyade bir dizi test seti gerektirir: gerçeklik kontrolleri, toksisite ve önyargı testleri, reddetme davranışı ve alan-spesifik beklentiler (sağlık, finans, hukuk).
Uç durumlar sonsuz olduğu için ekipler genellikle insan girdisini birkaç aşamada kullanır:
Klasik aramadan ana kayma, güvenliğin yalnızca “kötü sayfaları filtrelemek” olmadığı; modelin uydurma, özetleme veya tavsiye isterken nasıl davranacağını tasarlamak ve bu davranışların ölçeklendikçe dayanıklılığını kanıtlamaktır.
Sergey Brin’in erken Google hikâyesi hatırlatır ki çığır açan AI ürünleri nadiren gösterişli demolarla başlar—bir işi net tanımlayarak ve gerçekliği ölçme alışkanlığıyla başlar. Bu alışkanlıkların çoğu, jeneratif AI ile çalışırken de geçerlidir.
Arama başarılı oldu çünkü ekipler kaliteyi tartışılacak bir kavram olarak değil, gözlemlenebilir bir şey olarak ele aldı. Sonsuz deneyler yaptılar, küçük iyileşmelerin zamanla büyük fark yarattığını kabul ettiler ve kullanıcının niyetini merkeze koydular.
Faydalı bir zihni model: Kullanıcı için “daha iyi”nin ne olduğunu açıklayamıyorsanız, bunu güvenilir şekilde geliştiremezsiniz. Bu, web sayfalarını sıralamak için olduğu kadar modelden gelen aday yanıtları sıralamak için de geçerlidir.
Klasik aramada kalite genelde alaka ve tazeliğe indirgenebilirdi. Jeneratif AI yeni eksenler ekler: gerçeklik, ton, eksiksizlik, güvenlik, atıf davranışı ve bağlama özgü “yardımseverlik”. İki cevap aynı konuda olabilir ama güvenilirlik açısından çok farklı olabilir.
Bu nedenle birden fazla değerlendirme gerekir—otomatik kontroller, insan incelemesi ve gerçek dünya geri bildirimi—çünkü tek bir puan tüm kullanıcı deneyimini yakalayamaz.
Aramadan gelen en aktarılabilir ders organizasyoneldir: ölçekli kalite sıkı işbirliği gerektirir. Ürün neyin “iyi” olduğunu tanımlar, ML modelleri iyileştirir, altyapı maliyet ve gecikmeyi makul tutar, hukuki ve politika sınırları çizer ve destek gerçek kullanıcı ağrısını yüzeye çıkarır.
Bu ilkeleri gerçek bir ürüne dönüştürüyorsanız, pratik bir yaklaşım tam döngüyü—UI, retrieval, generation, değerlendirme kancaları ve dağıtımı—erken prototiplemek olabilir. Koder.ai gibi platformlar bu “hızlı inşa et, hızlı ölç” iş akışı için tasarlanmıştır: sohbet arayüzüyle web, backend veya mobil uygulamalar oluşturabilir, planlama modunda yineleyebilir ve deneyler ters gittiğinde snapshot/rollback kullanabilirsiniz—olası aksaklıkları olan olasılıksal sistemleri gönderirken faydalıdır.
O, klasik bilgi erişimi problemlerini (alakalılık, spam direnci, ölçek) bugünün jeneratif yapay zekâ problemleriyle (dayandırma, gecikme, güvenlik, maliyet) bağlamaya yarayan faydalı bir mercek sunuyor. Önemli olan biyografi değil—arama ve modern yapay zekânın aynı temel kısıtları paylaşması: büyük ölçekle çalışırken güveni korumak.
Arama “ölçekli” olduğunda, milyonlarca sorguyu düşük gecikme, yüksek kullanılabilirlik ve sürekli güncellenen veri ile güvenilir şekilde karşılayabilmesi gerekir.
Jeneratif yapay zekâ “ölçekli” olduğunda aynı gereksinimler geçerlidir, ancak ayrıca:
90’ların sonu arama, büyük ölçüde anahtar kelime eşleştirmeye ve basit sıralama sinyallerine dayanıyordu; web patladıkça bu yöntem bozuldu.
Yaygın başarısızlık modları şunlardı:
PageRank, bağlantıları bir tür güven oyu olarak ele aldı ve bağlantı veren sayfanın önemine göre oyların ağırlığını farklılaştırdı.
Pratikte şunları yaptı:
Sıralama “çözüldü” olmaz çünkü sıralama para ve dikkatle ilişkilidir; etkili bir sinyal ortaya çıktığında insanlar onu istismar etmeye çalışır. Bu sürekli yinelemeyi gerektirir:
Web ölçeğinde “kalite”ye sistem performansı dahildir. Kullanıcılar kaliteyi şöyle deneyimler:
Tutarlı şekilde 200ms’de dönen biraz daha zayıf bir sonuç, zaman aşımına uğrayan veya geç gelen daha iyi bir sonuçtan daha iyi olabilir.
Learning to rank, elle ayarlanmış puanlama kurallarını veriyle eğitilmiş modellere bırakmaktır (tıklama davranışı, insan yargıları vb.).
Manuel olarak her sinyalin ne kadar ağırlık alacağını belirlemek yerine, model hangi kombinasyonların “yararlı” sonuçları daha iyi tahmin ettiğini öğrenir. Kullanıcı arayüzü görünüşte aynı kalabilir, ama içte sistem daha veri odaklı ve değerlendirmeye bağımlı hale gelir.
Derin öğrenme, anlamsal temsiller öğrenerek dilin daha iyi anlaşılmasını sağladı; bu sayede:
Bedelleri ise daha yüksek hesaplama maliyeti, daha fazla veri gereksinimi ve açıklanabilirlikte zorluktur.
Klasik arama mevcut belgeleri seçip sıralamaya odaklanırken, jeneratif yapay zekâ metin üretebilir; bu, hata modlarını değiştirir.
Yeni riskler:
Merak edilen soru artık “En iyi kaynağı sıraladık mı?” değil, “Üretilen cevap doğru, dayandırılmış ve güvenli mi?” haline gelir.
RAG (retrieval-augmented generation) önce güvenilir bir indeksten kaynakları getirir, sonra bunlara dayalı bir cevap üretir.
Üründe işe yaraması için genellikle şunlar eklenir: