KoderKoder.ai
FiyatlandırmaKurumsalEğitimYatırımcılar için
Giriş YapBaşla

Ürün

FiyatlandırmaKurumsalYatırımcılar için

Kaynaklar

Bize UlaşınDestekEğitimBlog

Yasal

Gizlilik PolitikasıKullanım KoşullarıGüvenlikKabul Edilebilir Kullanım PolitikasıKötüye Kullanımı Bildir

Sosyal

LinkedInTwitter
Koder.ai
Dil

© 2026 Koder.ai. Tüm hakları saklıdır.

Ana Sayfa›Blog›Adversarial düşünme: GAN'ların yapay zeka uygulama döngülerine öğrettikleri
11 Kas 2025·5 dk

Adversarial düşünme: GAN'ların yapay zeka uygulama döngülerine öğrettikleri

Adversarial düşünme, GAN'ların neden işe yaradığını açıklar: iki sistem birbirini geliştirmeye zorlar. Aynı döngüyü test, güvenlik ve prompt–eval süreçlerine nasıl uygulayacağınızı öğrenin.

Adversarial düşünme: GAN'ların yapay zeka uygulama döngülerine öğrettikleri

Basit fikir: birbirini zorlayan iki sistem

Adversarial düşünme basit bir kalıptır: bir şey üretmek için bir sistem kurarsınız ve onu sorgulamak için ikinci bir sistem. Üretici daha iyi çıktılar üreterek “kazanmak” ister. Meydan okuyan ise kusurları bulmaya çalışır. Bu döngüyü tekrar tekrar çalıştırın, her iki taraf da gelişir.

Bu, günlük yazılım işinde zaten görünür. Bir özellik yayına gider, sonra testler onu kırmaya çalışır. Bir güvenlik ekibi koruma ekler, sonra bir saldırgan (veya kırmızı takım) boşlukları arar. Destek akışı kağıt üzerinde iyi görünür, sonra gerçek kullanıcı şikayetleri nerede başarısız olduğunu açığa çıkarır. Geri itme, ilk taslağı güvenilir bir şeye çevirendir.

Zihinsel model “savaşı savaş için sürdür” değildir. Açık kurallarla kontrollü bir baskıdır. Meydan okuyanın zayıf noktaları ortaya çıkaracak kadar sert olmasını, fakat üreticinin neyi düzeltmesi gerektiğini öğrenemeyecek kadar kaotik olmamasını istersiniz.

İstediğiniz döngü küçük ve tekrarlanabilir olmalı:

  • “İyi”nin ne olduğunu tanımlayın (bir hedef ve net geçme kriterleri).
  • Çıktılar üretin (bir model yanıtı, bir özellik davranışı, bir karar).
  • Bu çıktılara gerçekçi hata vakalarıyla saldırın.
  • Ne kırıldı ve neden ölçün, sonra sistemi güncelleyin.
  • Rutin olarak gelişme olması için düzenli tekrar edin.

Haftalık çalıştırılabilecek kadar sıkı tutun. Takımlar sürprizlerden kurtulmak için tahminde bulunmazlar; sistemlerine düzenli bir rakip verirler.

Ian Goodfellow ve GAN'lar basitçe

Ian Goodfellow 2014'te Generative Adversarial Networks (GANs) fikrini tanıttı.

Bir GAN, rekabet ederek öğrenen iki AI modelidir. Biri bir görüntü, ses veya metin gibi gerçek gibi görünen bir şey yaratmaya çalışır. Diğeri ise neyin sahte olduğunu bulmaya çalışır. Temel fikri anlamak için matematiğe gerek yok: her iki model de rakip zorlaştıkça daha iyi olur.

Roller genellikle şunlardır:

  • Generator: gerçek gibi görünmeye çalışan yeni örnekler üretir.
  • Discriminator: her örneği “gerçek” ya da “sahte” olarak değerlendirir.

Geri bildirim döngüsü esas amaçtır. Discriminator generator'ı yakaladığında, generator neyin ele verdiğini öğrenir. Generator discriminator'ı kandırdığında, discriminator neyi kaçırdığını anlar. Çok sayıda turdan sonra basit sahtecilikler işe yaramaz hale gelir; generator daha gerçekçi çıktılara zorlanır.

Basit bir benzetme: sahte para basanlar vs denetçiler. Sahtekarlar banknot kopyalar. Denetçiler küçük ipuçları arar: kağıt dokusu, filigranlar, mikroyazı. Denetçiler geliştikçe sahtekarlar da iyileşmek zorunda kalır. Bu uyum değil; baskıdır ve bu baskı ilerlemeyi zorlar.

Neden adversarial eğitim işe yarar (ve ne zaman bozulur)

Adversarial düşünme, gelişmeyi istikrarlı bir puanlama sinyaline dönüştürdüğü için işe yarar. Bir taraf kazanmaya çalışır, diğer taraf kayıptan öğrenir. Önemli olan iki model olması değil; “daha iyi”nin adım adım ölçülmesidir.

Kullanışlı bir rakibin iki özelliği vardır: net bir hedef ve tutarlı bir puanlama. GAN'larda discriminator'ın görevi basittir: gerçek ile sahteyi ayırt etmek. Bu yargı yeterince stabil olduğunda, generator mükemmel bir kural yazılamasa bile neyin yanlış göründüğüne dair pratik geri bildirim alır.

Puanlama sinyali gösterişli mimariden daha önemlidir. Eğer yargıç gürültülü, kolay kandırılabilir veya zaman içinde anlam değiştiriyorsa, öğrenen rastgele noktalara koşar. Eğer yargıç tekrarlanabilir rehberlik sağlıyorsa, ilerleme üst üste biner.

Dengesiz rakip genellikle şu durumlarda ortaya çıkar:

  • Çok zayıf: öğrenen hızlı kazanır ve öğrenmeyi bırakır (ucuz püf noktaları yeterlidir).
  • Çok güçlü: öğrenen hiçbir faydalı geri bildirim alamaz (her şey yanlış, yön yok).
  • Hareketli hedef: yargıç, öğrenenden daha hızlı kayıyor.
  • Dar hedef: yargıç tek bir kestirme yolu ödüllendirir, böylece öğrenen aşırı uyum yapar.

Gerçek ilerleme daha az kolay zafer ve daha ince hatalar gösterir. Başlangıçta yargıç bariz hataları yakalar. Sonradan hatalar küçük artefaktlar, nadir sınır durumu veya belirli girdiler altında ortaya çıkan sorunlar olur. Bu iyi bir işarettir, yavaş hissettirse bile.

Pratik bir sınırlama önemli: döngü yanlış hedefi optimize edebilir. Eğer yargıç “inandırıcı görünüyor”u “doğru”dan daha çok ödüllendiriyorsa, sistem doğru gibi görünmeyi öğrenir. Ton ve akıcılık üzerine eğitilmiş bir destek botu, politika detaylarını kaçıran kendinden emin cevaplar üretebilir. Döngü işini yapmıştır, ama istediğiniz işi değil.

Genel kalıp: üret vs yargıla

GAN'lar sadece görüntülerin ötesinde kullanışlıtır çünkü yeniden kullanılabilir bir kalıbı adlandırırlar: bir sistem üretir, bir diğeri yargılar. Üretici bir model, bir prompt, bir özellik veya bir sürüm adayı olabilir. Yargıç testler, gözden geçirenler, politikalar, değerlendirme betikleri veya inşa ettiğinizi kırmaya çalışan bir saldırgan olabilir.

Önemli olan döngüdür:

  1. Bir çıktı üretin (tahmin, cevap, UI akışı, sürüm adayı).
  2. Bunu bir hedefe karşı yargılayın (doğruluk, güvenlik kuralları, stil, gecikme, kötüye kullanıma direnç).
  3. Hatalardan öğrenin (kod düzeltin, promptları ayarlayın, korumalar ekleyin, veriyi güncelleyin).
  4. Tekrar edin.

İlk versiyonun kandırılacağını, kötüye kullanılacağını veya yanlış anlaşılacağını varsayarak inşa edin. Sonra bu vakaları hızlıca bulacak bir yol tasarlayın.

Ana gereksinim, yargıcın üretici iyileştikçe zorlaşmasıdır. Testler asla değişmezse, sistem nihayetinde testi öğrenir, gerçek hedefi değil. Bu, ekiplerin yeşil panolar ama memnun olmayan kullanıcılarla bitmesine neden olur.

Aynı şekli normal işte de görürsünüz: hatalardan sonra birim testler genişler, QA karmaşıklık arttıkça köşe vakaları ekler, dolandırıcılık tespiti dolandırıcılar uyum sağladıkça evrimleşir. İlk günde mükemmel bir yargıca ihtiyacınız yok. Öğrenmeye devam eden bir yargıca ve her hatayı yeni bir kontrolde kullanma alışkanlığına ihtiyacınız var.

Prompt vs eval döngüleri AI tabanlı uygulamalarda

Açık kurallarla gönderin
Planlama modunu kullanarak geçme kriterlerini tanımlayın, sonra sohbetten React ve Go uygulamasını oluşturun.
İnşa Etmeye Başla

Prompt yazmak ve sonuçları ölçmek farklı işlerdir. Prompt, modeli yönlendireceğinize dair tahmininizdir. Değerlendirme (eval) ise aynı testleri her seferinde kullanarak bunu kanıtlama işidir. Sadece iyi bir sohbete güveniyorsanız, hissiyatla yargılıyorsunuzdur, sonuçlarla değil.

Bir eval seti, gerçek kullanıma benzeyen küçük, sabit bir görev koleksiyonu olmalıdır. Günlük istekleri ve kullanıcıların 2:00'de karşılaşacağı can sıkıcı köşe vakalarını içermelidir. Sık çalıştırılacak kadar küçük, ama anlamlı olacak kadar gerçek olmalı.

Pratikte sağlam bir başlangıç eval seti genellikle şunları içerir: yaygın kullanıcı görevleri, birkaç çirkin girdi (boş alanlar, tuhaf formatlama, kısmi veri), güvenlik sınırları (reddetilmesi gereken istekler) ve tutarlılığı kontrol etmek için birkaç çok adımlı takip. Her vaka için “iyi”nin kısa bir tanımını yazın ki puanlama tutarlı kalsın.

Sonra döngüyü çalıştırın: promptu değiştirin, eval'leri çalıştırın, sonuçları karşılaştırın, koruyun veya geri alın. Adversaryal kısım, eval'lerinizin kaçıracağınız hataları yakalamaya çalışmasıdır.

Regresyon ana tuzaktır. Bir prompt değişikliği bir vakayı düzeltebilir ama iki eski vakayı gizlice bozabilir. Tek gelişmiş sohbete güvenmeyin. Tüm eval setindeki puanakarta güvenin.

Örnek: “kısa ol” eklediniz ve cevaplar hızlandı. Ama eval setiniz, artık iade taleplerinde gerekli politika metnini atlattığını ve kullanıcı soruyu ortasında düzenlediğinde kafasının karıştığını gösteriyor. Bu puanakart bir sonraki ayarlamayı ne yapacağınız konusunda size yol gösterir ve bir değişiklik iyi görünse bile genel olarak kötüleştiğinde geri almanız için net bir gerekçe sunar.

Koder.ai gibi bir chat-to-app platformu üzerine inşa ediyorsanız, prompt sürümlerini sürüm gibi ele almak faydalıdır: çalışan durumu anlık görüntüleyin, eval'leri çalıştırın ve puanı iyileştiren değişiklikleri ancak eski vakaları bozmuyorsa terfi ettirin.

Güvenlik bir adversarial döngü olarak (kırmızı takım vs mavi takım)

Güvenlik, onu bir döngü gibi ele aldığınızda daha hızlı gelişir. Bir taraf sistemi kırmaya çalışır, diğer taraf düzeltir ve her kırılma bir sonraki hafta tekrar çalıştırılan bir test olur. Tek seferlik bir kontrol listesi yardımcı olur, ama gerçek saldırıların yaratıcı kısmını kaçırır.

Bu döngüde “kırmızı takım” özel bir güvenlik grubu, rotasyonlu bir mühendis veya gözden geçirmeler sırasında atanmış bir rol olabilir. “Mavi takım” ürünü sertleştiren herkes: daha güvenli varsayılanlar, daha iyi izinler, net sınırlar, izleme ve olay müdahalesidir.

Gerçekte saldırgan kimdir?

Çoğu sorun üç profilden gelir: tuhaf girdiler deneyen meraklı kullanıcılar, veri veya erişim isteyen kötü niyetli kullanıcılar ve zaten belli erişimi olan içeriden kişiler (veya ele geçirilmiş hesaplar).

Her profil farklı zayıf noktalara baskı yapar. Meraklı kullanıcılar keskin kenarları bulur. Kötü niyetliler tekrar edilebilir yollar arar. İçeriden olanlar izinlerin ve denetim izinin gerçek mi yoksa sadece ima mı olduğunu test eder.

Genellikle hedef aldıkları şunlardır

AI uygulamalarında hedefler öngörülebilir: veri sızıntısı (sistem promptları, özel dokümanlar, kullanıcı bilgileri), tehlikeli eylemler (silme, gönderme veya yayınlama yapan araç çağrıları) ve prompt injection (modeli kuralları görmezden gelmeye veya araçları yanlış kullanmaya yönlendirme).

Saldırıları tekrar çalıştırılabilir testlere çevirmek için bunları beklenen sonuçları olan somut senaryolar olarak yazın, sonra promptları, araçları veya model ayarlarını her değiştirdiğinizde tekrar çalıştırın. Onları savaş hikayesi değil, regresyon testleri gibi ele alın.

Basit bir başlangıç seti şunları içerebilir: gizli talimatları çıkarmaya yönelik girişimler, yapıştırılan içerik (e-postalar, biletler, HTML) yoluyla prompt injection, kullanıcının rolü dışındaki araçların suistimali, veri sınırlarını aşma istekleri ve çok uzun girdiler veya tekrar çağrılar gibi reddetme desenleri.

Hedef mükemmel güvenlik değil. Hata maliyetini yükseltmek ve etki alanını azaltmak: en az ayrıcalıklı araç erişimi, kapsanan veri alma, güçlü logging ve model emin olmadığında güvenli geri dönüşler.

Adversarial iyileştirme döngünüzü adım adım kurun

Kalıcı güvenlik testleri ekleyin
Haftalık kırmızı takım kontrol listesi oluşturun ve her hatayı yeniden çalıştırılabilir bir teste dönüştürün.
Başlayın

İlk olarak güçlendireceğiniz küçük, gerçek bir iş akışı seçin. Her şeyi aynı anda düzeltmeye çalışırsanız, belirsiz notlarla ve net ilerleme olmadan bitersiniz. İyi başlangıçlar, “bir destek biletini özetle” veya “kayıt e-postası oluştur” gibi tek eylemlerdir.

Sonra “iyi” ve “kötü”nün ne olduğunu açıkça yazın. Ne izinli olduğunu netleştirin. Örneğin: İngilizce cevap verecek, fiyat icat etmeyecek, kullanıcının girdilerini doğru kullanacak ve tehlikeli istekleri reddedecek.

Bir günde çalıştırabileceğiniz basit bir döngü:

  • Bir iş akışı ve bir hedef kullanıcı çıktısı seçin.
  • Hızlı kontrol edilebilecek geç/kal kuralları tanımlayın (format, güvenlik, doğruluk).
  • 20–50 gerçekçi vaka toplayın; tuhaf köşe vakaları ve “serseri” promptlar dahil.
  • Bunları çalıştırın, sonuçları tutarlı şekilde puanlayın ve hataları her çalıştırmada aynı şekilde etiketleyin.
  • Bir küçük, hedefli değişiklik yapın (prompt, araç izinleri, doğrulama veya UI korumaları).

Aynı testleri tekrar çalıştırın. Puan hareket etmezse, değişikliğiniz çok geniş, çok zayıf veya yanlış hata türüne yönelik demektir.

İyileşme görene kadar daha zor vakalar eklemeyin. Yeni hata kalıplarının kısa bir “saldırı günlüğü”nü tutun: injection denemeleri, kafa karıştırıcı çok adımlı istekler veya eksik alanlı girdiler gibi.

Koder.ai ile inşa ediyorsanız, promptlar, araç erişimi ve çıktı kontrolleri uygulama ile birlikte sürümlenebilecek düğmelerdir. Amaç mükemmel bir model değil. Amaç, ekibinizin haftalık çalıştırabileceği ve hataları daha nadir ve daha kolay fark edilir hale getiren bir döngüdür.

Döngüyü işe yaramaz yapan yaygın hatalar

Sohbetten tam yığın oluşturun
Web, backend ve veritabanı parçalarını birlikte üretin, sonra kırılanı iyileştirin.
Koder'ı Deneyin

Adversarial düşünme, üretici-yargıç döngüsü gerçek olduğu sürece işe yarar. Birçok ekip döngüye benzeyen bir şey kurar ama sürprizleri yakalayamadığından gelişme durur.

Bir hata, mutlu yol testlerini değerlendirme diye çağırmaktır. Eğer testler sadece nazik girdileri, temiz veriyi ve mükemmel ağ çağrılarını kapsıyorsa, bir demoyu ölçüyorsunuzdur, ürünü değil. Kullanışlı bir yargıç dağınık kullanıcı davranışı, köşe vakaları ve bir önceki sefer destek biletleri yaratan girdi türlerini içermelidir.

Başka bir sorun, promptları, araçları veya özellikleri ne değiştiğini izlemeksizin değiştirmektir. Sonuçlar kaydığında, bunun prompt değişikliğinden mi, model güncellemesinden mi, yeni politikadan mı yoksa veri değişiminden mi kaynaklandığını kimse bilmez. Basit sürüm notları (prompt v12, araç şeması v3, eval set v5) bile günler süren tahminleri önler.

Döngü, değerlendirici belirsiz olduğunda da çöker. “İyi görünüyor” kural değildir. Yargıcınızda açık geç/kal koşulları olmalı: politika takip edildi mi, doğru alanlar referanslandı mı, tehlikeli istekler reddedildi mi, geçerli yapısal çıktı üretildi mi gibi.

Aşırı uyum daha sinsi fakat aynı derecede zararlıdır. Aynı küçük test setine sürekli ayar yaparsanız, testi kazanırsınız ama gerçek kullanıcıyı kaybedersiniz. Yeni örnekleri döndürün, gerçek konuşmalardan örnekleyin (gizliliğe dikkat ederek) ve üzerinde ayar yapmadığınız “görülmemiş” bir set tutun.

Geri alma noktası da önemlidir. Yeni bir prompt veya araç değişikliği Cuma gecesi hata patlamasına neden olursa, hızlıca geri dönmeniz gerek.

Göndermeden önce takımların hızlıca çalıştırabileceği kontroller

Adversarial düşünmenin amacı tekrarlanabilirliktir. Üretici değişirken yargıç tutarlı kalır.

Kısa bir gönderim öncesi ritüel:

  • Herhangi bir zamanda yeniden çalıştırılabilecek sabit bir eval seti tutun.
  • Başarısızlıkları yeniden üretmeyi kolaylaştırın (herhangi bir ekip üyesi hatalı vakayı 5 dakika içinde yeniden çalıştırabilmeli).
  • Ana iş akışı başına en az bir adversaryal test ekleyin.
  • Uygulamanızın yapabileceği en yüksek riskli eylemi adlandırın (e-posta gönderme, veri değiştirme, satın alma yapma, tıbbi veya hukuki tavsiye verme) ve o yolu özel sayın.
  • Hızlı geri alabilmeyi sağlayın.

Ayrıca hataları kategoriye göre etiketleyin ki kalıplar ortaya çıksın: doğruluk, güvenlik, politika uyumu ve bağlam eksikliği veya kafa karıştırıcı ton gibi düz UX sorunları. Asistanınız iade kurallarını uyduruyorsa, bu sadece “doğruluk” değil; politika ve güven sorunudur ve bu şekilde izlenmelidir.

SSS

Günlük terimlerle “adversarial düşünme” ne anlama geliyor?

Adversarial düşünme, bir sistemin ürettiklerini bir diğer sistemin kırmaya veya yargılamaya çalıştığı tekrarlanabilir bir döngüdür. Değer çatışmada değil—düzeltilebilir geri bildirimtedir.

Pratik bir döngü şudur: geçme kriterini tanımla → üret → gerçekçi hatalarla saldır → düzelt → belirli aralıklarla yeniden çalıştır.

GAN'lar aslında nasıl çalışır ve neden örnek olarak yararlıdırlar?

Bir GAN'da generator gerçekçi görünmeye çalışan örnekler yaratır, discriminator ise “gerçek” ile “sahte” arasındaki farkı bulmaya çalışır. Her iki taraf da karşı taraf zorlaştıkça gelişir.

Matematiğe gerek yok: bir üretici kurun, bir yargıç kurun ve hatalar nadir ve belirli hale gelene kadar yineleyin.

Yargıcım çok zayıf mı yoksa çok güçlü mü olduğunu nasıl anlarım?

Açık belirtilerle başlayın:

  • Çok zayıf: yargıç kötü çıktılara izin verir; üretici kestirme çözümler öğrenir.
  • Çok güçlü: her şey başarısız olur; üretici ne düzelteceğini anlayamaz.
  • Hareketli hedef: puanlama sürekli değişir; ilerleme tutmaz.
  • Dar hedef: üretici tek bir hileye fazla uyum sağlar ve gerçek hedefi kaçırır.

Çözüm: geçme/kalma kurallarını netleştirin, çeşitli vakalar ekleyin ve yargıcı çalıştırmalar arasında tutarlı tutun.

Bir AI özelliği için iyi bir değerlendirme setine ne koymalıyım?

Sık değişiklikleri veya her çalıştırmada tekrar edilebilen sonuçları destekleyecek küçük, sabit bir set kullanın (haftalık veya her değişiklikte). İyi bir başlangıç seti şunları içerir:

  • Sık görülen gerçek kullanıcı istekleri
  • Eksik alanlar, tuhaf formatlama, kısmi veriler gibi dağınık girdiler
  • Reddedilmesi gereken güvenlik sınırları
  • Tutarlılığı kontrol etmek için birkaç çok adımlı takip

İlk etapta 20–50 vaka yeterlidir, böylece gerçekten çalıştırabilirsiniz.

Neden “promptlama” ile “değerlendirme” aynı şey değil?

Prompt, model için verdiğiniz tahmindir. Eval ise bunun birçok durumda işe yaradığını kanıttır.

Varsayılan iş akışı:

  • Bir şeyi değiştir (prompt/araç/doğrulama)
  • Aynı eval setini yeniden çalıştır
  • Genel puan iyileşiyorsa değişikliği koru regresyon olmadan

Tek bir iyi sohbete güvenmeyin—puanakartınıza güvenin.

Eval testlerime fazla uyum sağlamaktan nasıl kaçınırım?

Aşırı uydurma, küçük test setine kadar ayarlama yapıldığında ortaya çıkar: teste kazanılır ama gerçek kullanıcıya kaybedilir.

Pratik önlemler:

  • Regresyon kontrolleri için donmuş bir eval seti tutun
  • Üzerinde ayar yapmadığınız ayrı bir holdout seti bulundurun
  • Gerçek hatalardan düzenli olarak yeni vakalar ekleyin (gizlilik önlemleriyle)

Böylece gelişmeler gösterişten ziyade gerçeğe karşı olur.

AI uygulamalarında güvenlik için en önemli adversarial testler nelerdir?

Güvenliği bir döngü gibi ele alın: bir saldırgan rolü sistemi kırmaya çalışır; geliştirici düzeltir; her kırılma tekrar çalıştırılabilir bir test haline gelir.

AI uygulamalarında öncelik verilecek testler:

  • Prompt injection (yapıştırılan metin içinde gizli talimatlar)
  • Veri sızıntısı (sistem promptları, özel dokümanlar, kullanıcı bilgileri)
  • Araç suistimali (yanlış ID'lerle işlemler, rol dışı eylemler)
  • Kötüye kullanım desenleri (çok uzun girdiler, tekrar çağrılar)

Amaç: en az ayrıcalıkla araç erişimi, sınırlandırılmış veri erişimi ve güçlü logging ile başarısızlığın etki alanını azaltmak.

Bir AI özelliğini gönderimden önce hangi hızlı kontrolleri çalıştırmalıyız?

Tekrarlanabilirlik amaçtır: yargıç, üretici değiştikçe tutarlı kalmalıdır.

Hızlı bir gönderim öncesi ritüel:

  • Her zaman çalıştırılabilen sabit bir eval seti tutun
  • Her ana iş akışı için en az bir adversaryal test ekleyin
  • En yüksek riske sahip eylemi belirleyin (gönder/sil/yayınla/harca/tedavi veya hukuk tavsiyesi) ve o yolu özel sayın
  • Hataları 5 dakikadan kısa sürede yeniden üretilebilir yapın
  • Hızlı geri alma yolu olduğundan emin olun

Bir hatayı hızlı çoğaltamıyorsanız, ona güvenilir şekilde müdahale edemezsiniz.

Promptlar ve araçlar için versiyonlama ve geri alma nasıl yapılmalı?

Davranışı etkileyen her şeyi versiyonlayın: promptlar, araç şemaları, doğrulama kuralları ve eval setleri. Sonuçlar değiştiğinde ne değiştiğini bilmek istersiniz.

Koder.ai kullanıyorsanız prompt sürümlerini sürümler gibi ele alın:

  • Bilinen iyi bir durumu anlık görüntüleyin
  • Her değişiklikten sonra eval çalıştırın
  • Puan düştüğünde veya güvenlik regresyonu görüldüğünde geri alın

Bu, “daha iyi olduğunu düşünüyoruz”u kontrollü bir yayın sürecine çevirir.

Loop yanlış şeyi optimize etmesin diye “iyi”yi nasıl tanımlarız?

Testleri çalıştırmadan önce puanlama kurallarını önceden yazın, böylece yargıç tutarlı kalır.

İyi puanlama:

  • Basit: net geç/kal ya da birkaç etiket
  • Alaka düzeyi yüksek: doğruluk, güvenlik/politi̇ka, doğru araç kullanımı, format geçerliliği
  • Tekrarlanabilir: iki ekip üyesi aynı şekilde puanlayabilmeli

Eğer puanlama “inandırıcı geliyor”u “doğru”dan daha çok ödüllüyorsa, sistem güven yerine kendine güveni optimize eder.

İçindekiler
Basit fikir: birbirini zorlayan iki sistemIan Goodfellow ve GAN'lar basitçeNeden adversarial eğitim işe yarar (ve ne zaman bozulur)Genel kalıp: üret vs yargılaPrompt vs eval döngüleri AI tabanlı uygulamalardaGüvenlik bir adversarial döngü olarak (kırmızı takım vs mavi takım)Adversarial iyileştirme döngünüzü adım adım kurunDöngüyü işe yaramaz yapan yaygın hatalarGöndermeden önce takımların hızlıca çalıştırabileceği kontrollerSSS
Paylaş