Alex Karp’ın operasyonel Yapay Zeka’dan ne anladığını, bunun analitikten nasıl ayrıldığını ve hükümetler ile şirketlerin bunu güvenli şekilde nasıl konuşlandırabileceğini öğrenin.

Alex Karp, veri bütünleştirme ve yüksek riskli kararları destekleyen yazılımlar geliştiren Palantir Technologies'in kurucu ortaklarından ve CEO'sudur. Aynı zamanda sistemlerin baskı altında, güvenlik kısıtlarıyla ve net hesap verebilirlikle gerçek operasyonlarda devreye alınmasına vurgu yapmasıyla bilinir.
Uygulamada, operasyonel Yapay Zeka laboratuvarda oturan bir model ya da sonradan analiz gösteren bir pano değildir. Bu tür Yapay Zeka şunlardır:
Bunu "Yapay Zeka çıktılarını" "işin yapılmasına" dönüştürmek, ayrıca izlenebilirlik sağlamak olarak düşünebilirsiniz.
Liderler operasyonel Yapay Zeka ile ilgilenir çünkü erken aşamada doğru soruları sormaya zorlar:
Bu operasyonel çerçeve ayrıca pilot çıkmazını önlemeye yardımcı olur: asla görev kritik süreçlere dokunmayan küçük demolar.
Bu rehber “tam otomasyon”, anında dönüşüm veya tek bir modelin her şeyi çözeceği vaatleri vermeyecek. Yüksek değerli kullanım durumlarını seçme, veri entegrasyonu, insan-in-the-loop iş akışları tasarlama ve hükümet ile kurumsal ortamlarda gerçek operasyonlarda sonuç ölçme gibi uygulanabilir adımlara odaklanır.
Operasyonel Yapay Zeka, insanların ve sistemlerin ne yaptığını değiştiren Yapay Zeka’dır—sadece ne bildiklerini söyleyen değil. Gerçek iş akışları içinde onaylar, yönlendirmeler, kısıtlamalar veya tetikleyiciler üreterek eylemlerin daha hızlı ve tutarlı gerçekleşmesini sağlar.
Birçok Yapay Zeka izole şekilde etkileyici görünür: churn tahmini yapan bir model, anomalileri işaretleyen bir sistem veya raporları özetleyen bir araç. Ancak bu çıktılar bir sunum veya bağımsız bir panoda kalırsa operasyonel olarak hiçbir şey değişmez.
Operasyonel Yapay Zeka farklıdır çünkü işin yapıldığı sistemlere (vaka yönetimi, lojistik, finans, İK, komuta-kontrol) bağlıdır. Tahminleri ve içgörüleri sürecin adımlarına çevirir—çoğunlukla bir insan inceleme noktasıyla—böylece sonuçlar ölçülebilir şekilde iyileşir.
Operasyonel Yapay Zeka tipik olarak dört pratik özelliğe sahiptir:
İşi ilerleten kararlara bakın:
İşte operasyonel Yapay Zeka: günlük yürütmeye gömülü karar zekası.
Ekipler sıklıkla "Yapay Zekamız var" derler; gerçekte ellerinde analitik vardır: panolar, raporlar ve ne olduğu anlatan grafikler. Operasyonel Yapay Zeka ise insanlara "sonraki ne yapılmalı" konusunda yardımcı olmak ve organizasyonun bunu gerçekten yapmasını sağlamak üzere inşa edilir.
Analitik şu soruları yanıtlar: Kaç vaka açık? Geçen ay dolandırıcılık oranı neydi? Hangi sahalar hedefleri kaçırdı? Şeffaflık ve gözetim için değerlidir, ancak genellikle bir insanın panoyu yorumlayıp e-posta atması veya bir bilet oluşturmasıyla sona erer.
Operasyonel Yapay Zeka aynı veriyi alır ve iş akışına iter. "İşte eğilim" yerine uyarılar, öneriler ve sonraki en iyi eylemler üretir—ve politika izin veriyorsa otomatik adımları tetikleyebilir.
Basit bir zihinsel model:
Makine öğrenimi bir araçtır, tüm sistem değildir. Operasyonel Yapay Zeka şunları bir araya getirebilir:
Amaç tutarlılıktır: kararlar tekrarlanabilir, denetlenebilir ve politika ile uyumlu olmalıdır.
Analitikten operasyonel Yapay Zeka'ya geçtiğinizi doğrulamak için karar çevrim süresi, hata oranları, verim ve risk azalması gibi sonuçları takip edin. Eğer pano daha güzel oldu ama operasyon değişmediyse hâlâ analitiksiniz.
Operasyonel Yapay Zeka, kararların tekrar tekrar, baskı altında ve net hesap verebilirlikle alınması gereken yerlerde değer sağlar. Amaç parlak bir model değil—canlı veriyi savunulabilir eylemlere dönüştüren güvenilir bir sistemdir.
Hükümetler, zamanlama ve koordinasyonun önemli olduğu iş akışlarında operasyonel Yapay Zeka kullanır:
Bu ortamlarda Yapay Zeka genellikle karar-destek katmanı olur: önerir, açıklar ve kaydeder—insanlar onaylar veya geçersiz kılar.
Kuruluşlar operasyonel Yapay Zekayı operasyonları kararlı tutmak ve maliyetleri öngörülebilir kılmak için kullanır:
Görev kritik operasyonel Yapay Zeka, çalışma süresi, denetlenebilirlik ve kontrollü değişiklik ile değerlendirilir. Bir model güncellemesi sonuçları etkiliyorsa, ne değişti, kim onayladı ve hangi kararları etkiledi gibi izlenebilirlik gerekir.
Hükümet dağıtımları genellikle daha katı uyumluluk, daha yavaş tedarik ve sınıflandırılmış veya hava boşluklu (air-gapped) ortamlarla karşılaşır. Bu, on-premise barındırma, güçlü erişim kontrolleri ve baştan itibaren denetimler için tasarlanmış iş akışları gibi seçimleri doğurur. İlgili değerlendirmeler için /blog/ai-governance-basics metnine bakabilirsiniz.
Operasyonel Yapay Zeka, güvenebildiği veri ve erişebildiği sistemler kadar iyi çalışır. Modelleri tartışmadan önce, çoğu hükümet ve kuruluşun cevaplaması gereken daha basit bir soru vardır: gerçek iş akışlarında karar vermek için hangi verileri yasal, güvenli ve güvenilir şekilde kullanabiliriz?
Farklı ekiplerin sahip olduğu karışık kaynaklardan veri çekmeyi bekleyin:
"Kötü veri, kendinden emin sonuç"u engelleyen temellere odaklanın:
Operasyonel Yapay Zeka rol tabanlı erişim ve need-to-know ilkesine uymalıdır. Çıktılar bir kullanıcının aksi takdirde erişemeyeceği verileri asla açığa çıkarmamalı ve her eylem bir kişi veya servis kimliğine atfedilebilir olmalıdır.
Çoğu dağıtım birkaç yolu harmanlar:
Bu temeller düzgün olunca sonraki adımlar—iş akışı tasarımı, yönetişim ve YG’de geri dönüş—çok daha kolay uygulanır.
Operasyonel Yapay Zeka, insanların zaten operasyonları yürüttüğü şekilde kablolandığında değer yaratır. "Tahmin yapan bir model"den ziyade "biriyle karar vermeye, hareket etmeye ve olup biteni belgelendirmeye yardımcı olan bir iş akışı" olarak düşünün.
Pratik bir operasyonel Yapay Zeka akışı genellikle şöyle görünür:
Anahtar nokta "öner" adımının operasyonun dilinde olmasıdır: sonra ne yapmalıyım ve neden?
Çoğu görev kritik iş akışı açık karar kapıları gerektirir:
Operasyonel gerçeklik karmaşıktır. Şunları kurun:
AI çıktılarıyi standart işletme prosedürleri girdisi gibi ele alın. Bir puan playbook olmadan tartışma yaratır; "eğer X ise Y yap" bağlı bir puan tutarlı eylem üretir—ayrıca kimin ne zaman ve neden karar verdiğinin denetim dostu kayıtlarını bırakır.
Operasyonel Yapay Zeka, tetikleyebileceği eylemler nedeniyle sadece faydalı değil; aynı zamanda güvenilir de olmalıdır. Bir çıktı bir sevkiyatı işaretlediğinde, bir vakayı önceliklendirdiğinde veya bakım kapatmasını önerdiğinde güvenlik kontrolleri, güvenilirlik garantileri ve incelemeye dayanabilecek kayıtlar gerekir.
En az ayrıcalık ilkesinden başlayın: her kullanıcı, servis hesabı ve model entegrasyonu sadece gereken minimum erişime sahip olsun. Bunun yanında segmentasyon uygulayın ki bir iş akışındaki ihlal çekirdek sistemlere yatay hareket edemesin.
Verileri ve günlükleri ile birlikte hem transitte hem de dinlenmede şifreleyin. Operasyonel olarak anlamlı izleme ekleyin: olağandışı erişim modelleri, veri dışa aktarımındaki ani artışlar ve test sırasında görülmeyen yeni “AI araç kullanımı” için uyarılar.
Operasyonel Yapay Zeka tipik uygulamaların ötesinde riskler getirir:
Bunları giriş/çıktı filtreleme, kısıtlı araç izinleri, retrieval allowlist'leri, oran sınırlama ve insan incelemesini zorlayan "dur koşulları" ile hafifletin.
Görev kritik ortamlarda izlenebilirlik gerekir: kim neyi, ne zaman ve hangi kanıta dayanarak onayladı. Denetim izleri model versiyonunu, yapılandırmayı, sorgulanan veri kaynaklarını, ana promptları, alınan araç eylemlerini ve insan onayını yakalamalıdır.
Güvenlik duruşu genellikle operasyonel Yapay Zeka'nın nerede çalıştığını belirler: on-prem sıkı veri ikamet gereksinimi için, özel bulut hız ve güçlü kontroller için, ve air-gapped ortamlar yüksek sınıflandırma veya güvenlik gerektiren durumlar içindir. Önemli olan tutarlılıktır: aynı politikalar, kayıtlar ve onay iş akışları ortamlar arasında izlenmelidir.
Operasyonel Yapay Zeka gerçek kararları etkiler—kim işaretlenir, ne finanse edilir, hangi sevkiyat durdurulur—bu yüzden yönetişim tek seferlik bir inceleme olamaz. Net sahiplik, tekrarlanabilir kontroller ve güvenilen bir kağıt izi gerekir.
Komite değil, isimlendirilmiş rollerle başlayın:
Bir sorun çıktığında bu roller tırmanış ve düzeltmeyi siyasi olmaktan çıkarıp öngörülebilir hale getirir.
Ekiplerin gerçekten uygulayabileceği hafif politikalar yazın:
Eğer kuruluşunuzun hazır politika şablonları varsa, bunları ayrı belgelerde değil iş akışı içinde (biletler veya sürüm kontrol listelerinde) doğrudan bağlayın.
Önyargı ve adalet testleri verilen kararın bağlamına uygun olmalıdır. Denetimleri farklı görevler için farklı tanımlayın: denetim önceliklendirme modeli ile yardım triajında kullanılan modelin test gereksinimleri farklıdır. "Adil"in bağlamda ne anlama geldiğini tanımlayın, test edin ve alınan takasları belgeleyin.
Model güncellemelerini yazılım sürümü gibi ele alın: versiyonlama, test, geri alma planları ve dokümantasyon. Her değişiklik neyin değiştiğini, neden değiştiğini ve güvenlik ile performans için hangi kanıtların bulunduğunu açıklamalıdır. Bu, "Yapay Zeka deneyi" ile operasyonel güvenilirlik arasındaki farktır.
Operasyonel Yapay Zeka'yı kurum içinde inşa etmek veya bir platform satın almak, "Yapay Zeka karmaşıklığından" daha çok operasyonel kısıtlarla ilgilidir: zaman çizelgeleri, uyumluluk ve hata durumunda kimin bakacağı.
Değer-sağlama süresi: Eğer haftalar içinde çalışan iş akışlarına ihtiyacınız varsa, bir platform satın almak veya ortaklık kurmak kendi entegrasyonlarınızı inşa etmekten daha hızlı olabilir.
Esneklik: İş akışları benzersizse, sık değişiklik bekleniyorsa veya Yapay Zeka'yı telif hakkı korumalı sistemlere derinlemesine gömmeniz gerekiyorsa inşa etmek avantaj sağlayabilir.
Toplam maliyet: Sadece lisans ücretlerinden fazlasına bakın. Entegrasyon, veri boru hatları, izleme, olay müdahalesi, eğitim ve devamlı model güncellemelerini dahil edin.
Risk: Görev kritik kullanım için teslim riski (zamanında teslim edebilir miyiz?), operasyonel risk (24/7 çalıştırabilir miyiz?) ve düzenleyici risk (ne olduğunu ve neden olduğunu kanıtlayabilir miyiz?) değerlendirin.
Gereksinimleri operasyonel terimlerle tanımlayın: desteklenecek karar/iş akışı, kullanıcılar, gecikme ihtiyaçları, çalışma süresi hedefleri, denetim izleri ve onay kapıları.
Değerlendirme kriterlerini satın alma ve operasyon ekiplerinin tanıyacağı şekilde belirleyin: güvenlik kontrolleri, dağıtım modeli (bulut/on-prem/air-gapped), entegrasyon çabası, açıklanabilirlik, model yönetişim özellikleri ve satıcı destek SLA'ları.
Pilotı gerçek veriyle (uygun onaylarla), temsilci kullanıcılarla ve ölçülen sonuçlarla yapılandırın—sadece demolar değil.
Açıkça sorun:
Çıkış maddeleri, veri taşınabilirliği ve entegrasyonların dokümantasyonunu talep edin. Pilotları zaman kutusuna alıp en az iki yaklaşımı karşılaştırın ve geçiş maliyetlerinin görünür kalması için nötr bir arayüz katmanı (API'ler) kullanın.
Eğer darboğazınız iş akışı uygulamasını inşa etmekse—giriş formları, vaka kuyrukları, onaylar, panolar—üretim iskeletini hızlıca üretebilen bir geliştirme platformunu değerlendirin. Bu, kontrollü sürüm geçişlerinde anlık görüntüler/geri alma ve planlama modu gibi özelliklerle pilot→prodüksiyon geçişini destekleyebilir.
Örneğin, Koder.ai sohbet arayüzünden web, arka uç ve mobil uygulamalar oluşturabilen bir vibe-coding platformudur ve ardından kaynak kodunu dışa aktarabilirsiniz. Bu, React ön yüzü, Go arka ucu ve PostgreSQL veritabanı (veya Flutter mobil eşlikçi) gerektiren operasyonel Yapay Zeka pilotları için faydalı olabilir; böylece altyapı üzerinde sertleştirme, denetim günlükleri ekleme ve değişiklik kontrolünü sürdürme imkanı korunur.
90 günlük plan "operasyonel Yapay Zeka"yı teslimata bağlar. Amaç Yapay Zeka'nın mümkün olduğunu kanıtlamak değil—insanların karar vermesine veya uygulamasına güvenilir şekilde yardımcı olan bir iş akışı göndermektir.
Bir iş akışı ve sınırlı sayıda yüksek kaliteli veri kaynağı ile başlayın. Net sahipleri, sık kullanım ve ölçülebilir bir sonuç (ör. vaka triajı, bakım önceliklendirme) olan bir şey seçin.
Başlamadan önce başarı metriklerini tanımlayın (SLA, doğruluk, maliyet, risk). Bunları "önce vs sonra" hedefleri ve başarısızlık eşikleri (geri alma veya sadece insan modu tetikleyen durumlar) olarak yazın.
Uçtan uca çalışan en küçük sürümü gönderin: veri gir → öneri/karar desteği → eylem kaydedildi → sonuç günlükleri. Modeli iş akışının bir bileşeni olarak ele alın, iş akışının kendisi olarak değil.
Pilot ekibi ve işletme ritmi kurun (haftalık gözden geçirmeler, olay takibi). Operasyonel bir sahibi, analist, güvenlik/uyum temsilcisi ve mühendis/entegratör dahil edin. Herhangi bir görev sistemi gibi sorunları takip edin: şiddet, düzeltme süresi ve kök neden.
Dağıtımı planlayın: eğitim, dokümantasyon ve destek süreçleri. Son kullanıcılar için hızlı başvuru kılavuzları, destek için çalışma kitabı ve Yapay Zeka çıktısı yanlış veya belirsiz olduğunda net tırmanış yolu oluşturun.
Operasyonel Yapay Zeka güven kazandıkça ölçülebilir sonuçlar getirmelidir. Bir baz çizgisi (son 30–90 gün) ile başlayın ve görev teslimine bağlanan küçük bir KPI setinde uzlaşın—sadece model doğruluğu değil.
Gerçek süreci yansıtan KPI'lara odaklanın:
İyileşmeleri dolara ve kapasiteye çevirin. Örneğin: "%12 daha hızlı triaj" aynı personelle haftada X daha fazla vaka anlamına gelir—bu hükümetler ve düzenlenen kuruluşlar için en net ROI anlatımlarından biridir.
Operasyonel Yapay Zeka kararlarının sonuçları olduğundan, hızı riskle birlikte takip edin:
Her birine bir tırmanış kuralı bağlayın (ör. yanlış negatifler belirli eşiğin üzerine çıkarsa insan incelemesini sıkılaştır veya model sürümünü geri al).
Lansmandan sonra en büyük başarısızlıklar sessiz değişimlerden gelir. İzleyin:
İzlemeyi eyleme bağlayın: uyarılar, yeniden eğitim tetikleyicileri ve net sahipler.
Her 2–4 haftada bir sistemin neyi iyileştirdiğini ve nerede zorlandığını gözden geçirin. Otomatikleştirilmek üzere bir sonraki adayları belirleyin (yüksek hacimli, düşük belirsizlikli adımlar) ve hangi kararların insan liderliğinde kalması gerektiğini (yüksek risk, düşük veri, siyasi hassas veya hukuken kısıtlı) netleştirin. Sürekli iyileştirme bir ürün döngüsüdür, tek seferlik dağıtım değil.
Operasyonel Yapay Zeka genelde "kötü modellerden" değil, gerçek dünya baskısı altında birleşen küçük süreç boşluklarından başarısız olur. Bu hatalar genellikle hükümet ve kurumsal dağıtımları raydan çıkarır—ve en basit koruyucu önlemlerle önlenebilir.
Tuzak: Bir modelin çıktısı otomatik eylemler tetikliyor ancak birisi sonuçlardan sorumlu değil.
Koruyucu: Net karar sahibi ve tırmanış yolu tanımlayın. Yüksek etkili eylemler için insan-in-the-loop ile başlayın (ör. yaptırım, uygunluk, güvenlik). Kim neyi onayladı, ne zaman ve neden kaydedilsin.
Tuzak: Pilot bir sandıkta harika görünür, sonra üretim verisine erişim zorluğu, karışıklık veya kısıtlama nedeniyle tıkanır.
Koruyucu: Başlangıçta 2–3 haftalık "veri gerçeklik kontrolü" yapın: gereken kaynaklar, izinler, güncelleme sıklığı ve veri kalitesi. Veri sözleşmelerini belgelendirin ve her kaynak için bir veri sorumlusu atayın.
Tuzak: Sistem panoları iyileştirir ama saha personeli için ek adımlar, belirsiz değer veya artan risk yaratır.
Koruyucu: İş akışlarını ön saflardaki kullanıcılarla birlikte tasarlayın. Başarıyı kazanan zaman, daha az el değiştirme ve daha net kararlar olarak ölçün—sadece model doğruluğu değil.
Tuzak: Hızlı bir PoC kazayla üretime dönüşür; tehdit modellemesi veya denetim günlükleri yoktur.
Koruyucu: Pilotlar için bile hafif bir güvenlik geçidi zorunlu kılın: veri sınıflandırması, erişim kontrolleri, kayıt ve saklama. Gerçek veriye dokunabiliyorsa, incelenebilir olmalıdır.
Kısa bir kontrol listesi kullanın: karar sahibi, gereken onaylar, izin verilen veriler, kayıt/denetim ve geri alma planı. Bir ekip bunu dolduramıyorsa, iş akışı henüz hazır değildir.
Operasyonel Yapay Zeka, "bir model" olmayı bıraktığında ve görevi yürütmenin tekrarlanabilir bir yolu haline geldiğinde değerlidir: doğru veriyi çeker, karar mantığını uygular, işi doğru kişiye yönlendirir ve ne olduğuna dair denetlenebilir bir iz bırakır. İyi yapıldığında çevrim süresini kısaltır (günler yerine dakikalar), ekipler arasında tutarlılığı artırır ve yüksek riskli durumlarda kararların açıklanmasını kolaylaştırır.
Küçük ve somut başlayın. Zaten net bir acı noktası, gerçek kullanıcıları ve ölçülebilir sonuçları olan tek bir iş akışı seçin—sonra operasyonel Yapay Zeka'yı bir araç etrafında değil, o iş akışı etrafında tasarlayın.
Başlamadan önce başarı metriklerini tanımlayın: hız, kalite, risk azaltma, maliyet, uyum ve kullanıcı benimsemesi. Sorumlu bir sahip atayın, gözden geçirme ritimleri belirleyin ve her zaman insan onayı gerektiren durumları kararlaştırın.
Erken yönetişimi kurun: veri erişim kuralları, model değişiklik kontrolü, kayıt/denetim gereksinimleri ve sistem belirsiz olduğunda veya anomaliler tespit ettiğinde tırmanış yolları.
Dağıtım planlıyorsanız, paydaşları (operasyon, BT, güvenlik, hukuk, satın alma) hizalayın ve gereksinimleri tek bir ortak brifte toplayın. Daha derin okumalar için /blog içindeki ilgili rehberlere ve /pricing içindeki pratik seçeneklere bakabilirsiniz.
Operasyonel Yapay Zeka sonuç getiren bir yönetim disiplini gibidir: insanlara daha hızlı ve daha güvenli hareket etmelerine yardımcı olan sistemler inşa edin, demo değil sonuç elde edersiniz.
Operasyonel Yapay Zeka, gerçek iş akışlarına gömülmüş ve insanların ile sistemlerin ne yaptığını (yönlendirme, onaylama, sevk etme, yükseltme) değiştiren Yapay Zeka’dır; sadece ne bildiklerini söylemez. Canlı veriye bağlıdır, uygulanabilir öneriler veya otomatik adımlar üretir ve kim neyi, ne zaman ve neden onayladığını gösteren izlenebilirlik sağlar.
Analitik çoğunlukla ne olduğunu açıklar (panolar, raporlar, eğilimler). Operasyonel Yapay Zeka ise sonraki adımı yönetmek için tasarlanmıştır: öneriler, uyarılar ve karar adımlarını doğrudan iş sistemlerine (biletleme, vaka yönetimi, lojistik, finans) yerleştirir; genellikle onay noktalarıyla birlikte çalışır.
Hızlı bir test: çıktılar slaytlarda veya panolarda kalıyor ve iş akışında hiçbir adım değişmiyorsa, bu analitiktir—operasyonel Yapay Zeka değildir.
Çünkü ‘model performansı’ genelde görev işinde darboğaz değildir—dağıtım öyledir. “Operasyonel” terimi liderleri entegrasyon, hesap verebilirlik, onaylar ve denetim izleri üzerine odaklanmaya zorlar; böylece Yapay Zeka pilot aşamasında sıkışıp kalmaz ve gerçek kısıtlar (güvenlik, çalışma süresi, politika) altında çalışabilir.
İyi adaylar, şunları sağlayan kararlardır:
Örnekler: vaka triajı, bakım önceliklendirmesi, dolandırıcılık inceleme sıraları, tedarik/tedarik girişleri yönlendirmesi.
Tipik kaynaklar: işlemler (finans/satınalma), vaka sistemleri (biletler/incelemeler/yardımlar), sensörler/telemetri, izin verildiğinde dokümanlar (politikalar/raporlar), coğrafi veriler ve denetim/güvenlik günlükleri.
Operasyonel olarak ana gereksinimler: üretim erişimi (tek seferlik dışa aktarma değil), bilinen veri sahipleri, güvenilebilir yenileme sıklığı ve verinin nereden geldiği ile nasıl değiştirildiğinin kaydı (provenans).
Yaygın desenler:
AI'nin hem hem de gerekir; rol tabanlı erişim ve kayıtla birlikte.
Açık karar kapılarıyla tasarlayın:
Sistem tahminlere zorlamadan “inceleme gerekiyor/bilinmiyor” durumları sunsun ve geçersiz kılmayı kolaylaştırın—yine de kaydedilmiş olarak.
Denetimlerde dayanacak kontroller:
Kurumsal politika kontrolleriyle hizalayın (ör. /blog/ai-governance-basics metinini referans olarak tutun).
Yazılım yayın süreci gibi ele alın:
Bu, sonuçların sorumsuzca değişmesini ("sessiz değişim") engeller.
İş akışı çıktılarını değil, işin sağladığı sonuçları ölçün:
30–90 günlük bir baz çizgisi ile başlayın ve geri alma veya sıkı gözden geçirme tetikleyen eşikler tanımlayın.