Yann LeCun’un CNN’lerden LeNet’e ve modern kendi kendine denetimli öğrenmeye kadar kilit fikirlerini ve kilometre taşlarını keşfedin — neden çalışmaları bugün hâlâ AI’ı şekillendiriyor.

Yann LeCun, fikirleri sessizce modern yapay zekânın “varsayılan ayarları” haline gelen araştırmacılardan biri. Face ID tarzı kilit açma, otomatik fotoğraf etiketleme veya görüntüde ne olduğunu tanıyan herhangi bir sistemi kullandıysanız, LeCun'un ölçeklenebileceğini kanıtladığı tasarım tercihleriyle yaşıyorsunuz.
LeCun'un etkisi tek bir buluşla sınırlı değil. Gerçek verilerden yararlı temsiller öğrenen, verimli çalışan ve deneyimle gelişen sistemler inşa etme yönünde pratik bir mühendislik zihniyetini AI'ya taşıdı. Bilimsel netlik ile gerçek dünya performansına ısrar bu kombinasyon, bilgisayarlı görü ürünlerinden bugünün model eğitim boru hatlarına kadar her yerde görünür.
Derin öğrenme geniş bir yaklaşımdır: çok katmanlı sinir ağları kullanarak veriden kurallar yazmak yerine kalıpları öğrenmek.
Kendi kendine denetimli öğrenme ise bir eğitim stratejisidir: sistem veriden kendi öğrenme görevini oluşturur (örneğin eksik parçaları tahmin etmek) ve böylece etiketsiz büyük miktarda veriden öğrenebilir. LeCun, insanların ve hayvanların gözlem yoluyla—sürekli talimat yerine—öğrenmesine daha çok benzediği için kendi kendine denetimi savunuyor.
Bu, kısmen biyografi, kısmen temel fikirlerin bir turu: erken sinir ağı çalışmalarının konvolüsyonel ağlara nasıl yol açtığı, neden temsil öğreniminin merkezi hale geldiği ve neden kendi kendine denetimli öğrenmenin daha yetenekli yapay zekâya giden ciddi bir yol olduğu. Yazıyı bugün AI sistemleri kuran ekipler için pratik çıkarımlarla kapatacağız.
"derin öğrenmenin vaftiz babası" etiketi hakkında kısa bir not: bu, LeCun, Geoffrey Hinton ve Yoshua Bengio'ya sıkça atfedilen popüler bir kısaltma; resmi bir unvan değil. Önemli olan temeller haline gelen fikirlerin başarı sicili.
Yann LeCun'un erken kariyeri, tek bir fikre tutarlı bir bahis olarak anlaşılması en kolay olan şeydir: bilgisayarlar doğru özellikleri ham veriden öğrenmeli, insanlar tarafından elle tasarlanan özelliklere güvenilmemeli.
1980'lerin ortalarından sonlarına doğru LeCun, görüntüler gibi dağınık gerçek dünya girdilerindeki kalıpları nasıl tanıyacak makineler yapılacağına odaklandı.
1980'lerin sonu ve 1990'ların başında, uçtan uca eğitilebilen sinir ağı yöntemlerini savunuyordu—yani örnekleri verip sistemin kendini daha iyi hale getirmesini sağlıyordu.
Bu dönem, ileride en çok bilinecek çalışmalara (CNN'ler ve LeNet gibi) zemin hazırladı, ama ana hikâye zihniyetti: kuralları tartışmayı bırak; veriden öğrenmeye başla.
Eski AI'nın çoğu zekâyı açık kurallar olarak kodlamaya çalıştı: "eğer X ise Y". Bu kontrollü durumlarda işe yarar, ama el yazısı, aydınlatma değişiklikleri veya bakış açısı kaymaları gibi gürültülü dünyalarda zorlanır.
LeCun'un yaklaşımı istatistiksel öğrenmeye yöneliyordu: modele birçok örnekle eğitim verin, insanın açıkça tanımlayamayacağı kalıpları keşfetmesine izin verin. Bir “7”nin nasıl göründüğünü tanımlayan uzun bir kurallar listesi oluşturmak yerine, modele binlerce yedi gösterirsiniz ve o “7”yi “1”den, “2”den ayıran temsili öğrenir.
Erken dönemde bile amaç sadece "doğru cevabı almak" değildi. Amaç, gelecekteki kararları kolaylaştıran yararlı iç temsiller öğrenmekti. Bu tema, sonraki her işinde: daha iyi görsel modeller, daha ölçeklenebilir eğitim ve sonunda kendi kendine denetimli öğrenme yönündeki itişte görünür oldu.
CNN'ler, görüntü gibi ızgara düzeninde olan verilerde desenleri "görmek" için tasarlanmış bir sinir ağı türüdür. Ana numara konvolüsyondur.
Konvolüsyonu, görüntü üzerinde kaydırılan küçük bir desen dedektörü olarak düşünün. Her konumda sorar: “Burada bir kenar, köşe, şerit veya doku gibi bir şey görüyor muyum?” Aynı dedektör her yerde yeniden kullanıldığı için, bu desen nerede olursa olsun tespit edilebilir.
Yerel bağlantı: Her dedektör küçük bir yama üzerindeki bilgiyi inceler (tüm görüntü değil). Bu, öğrenmeyi kolaylaştırır çünkü yakın pikseller genellikle ilişkilidir.
Paylaşılan ağırlıklar: Kaydırılan dedektör her konumda aynı sayıları (ağırlıkları) kullanır. Bu, parametreleri önemli ölçüde azaltır ve modelin aynı özelliği farklı yerlerde tanımasına yardımcı olur.
Havuzlama (veya alt örnekleme): Özellikleri tespit ettikten sonra ağ genellikle yakındaki yanıtları özetler (ör. maksimum veya ortalama alma). Havuzlama güçlü sinyalleri korur, boyutu azaltır ve küçük kaymalara karşı biraz tolerans katar.
Görüntüler yapı içerir: birbirine yakın pikseller anlamlı şekiller oluşturur; aynı nesne herhangi bir yerde görünebilir; desenler tekrar eder. CNN'ler bu varsayımları mimariye dahil eder, bu yüzden tam bağlı bir ağa göre daha az veri ve hesapla yararlı görsel özellikler öğrenirler.
Bir CNN sadece "büyük bir sınıflandırıcı" değildir. O bir özellik oluşturma hattıdır: erken katmanlar kenarları bulur, orta katmanlar bunları parçalara dönüştürür ve sonraki katmanlar parçaları nesnelere birleştirir.
Ayrıca, CNN'ler sahneleri doğrudan "anlamaz"; eğitim verilerinden istatistiksel ipuçları öğrenirler. Bu yüzden veri kalitesi ve değerlendirme model kadar önemlidir.
LeNet, derin öğrenmenin sadece ilginç değil, yararlı olduğunun en net erken örneklerinden biridir. 1990'larda Yann LeCun ve iş birlikçileri tarafından geliştirilen LeNet, özellikle çekler, formlar ve taranmış belgelerde bulunan rakamlar gibi el yazısı karakterleri tanımak için tasarlanmıştı.
Genel olarak, LeNet bir görüntüyü (örneğin rakam içeren küçük gri tonlamalı kırpma) alır ve bir sınıflandırma (0–9) üretirdi. Bugün sıradan gibi görünse de, bütün boru hattını bir araya getirmesi önemliydi: hem özellik çıkarma hem de sınıflandırma tek bir sistem olarak öğreniliyordu.
Elle tasarlanmış kurallara—"kenarları tespit et, sonra halkaları ölç, sonra karar ağacı uygula"—güvenmek yerine LeNet, iç görsel özellikleri etiketli örneklerden doğrudan öğrendi.
LeNet'in etkisi gösterişli demolarla değil, uçtan uca öğrenme yaklaşımının gerçek görme görevlerinde işe yaradığını göstermesiyleydi:
"Özellikleri ve sınıflandırıcıyı birlikte öğren" fikri, sonraki derin öğrenme başarılarına uzanan önemli bir çizgidir.
Günümüzde derin öğrenmede normal görünen birçok alışkanlık LeNet'in temel felsefesinde görünür:
Modern modeller daha fazla veri, daha fazla hesap ve daha derin mimariler kullansa da, LeNet sinir ağlarının algı problemleri için pratik mühendislik araçları olabileceği fikrini normalleştirdi.
İddiaları abartmamak faydalı: LeNet "ilk derin ağ" değildi ve tek başına derin öğrenme patlamasını tetiklemedi. Ancak, öğrenilen temsillerin önemli, somut bir problemde el yapımı boru hatlarından daha iyi olabileceğini göstermesi açısından geniş kabul görmüş bir dönüm noktasıdır—derin öğrenme ana akım olmadan yıllar önce.
Temsil öğrenimi, bir modelin sadece son cevabı değil, birçok karar için faydalı olan iç özellikleri öğrenmesi fikridir.
Dağınık bir dolabı ayırmayı düşünün. Her öğeyi tek tek etiketleyebilirsiniz ("mavi gömlek", "kışlık mont", "koşu ayakkabısı"). Ya da önce kategoriler oluşturabilirsiniz—mevsime göre, türe göre, bedene göre—ve sonra bu kategorileri kullanarak ihtiyacınızı hızlıca bulursunuz.
İyi bir "temsil" bu kategoriler gibi: birçok aşağı yönlü görevi kolaylaştıran kompakt bir dünya tasviri.
Derin öğrenmeden önce ekipler genellikle elle özellikler tasarlardı: kenar dedektörleri, doku tanımlayıcıları, dikkatle ayarlanmış ölçümler. Bu işe yarayabilir, ama iki büyük sınırlaması vardır:
LeCun'un temel katkısı—konvolüsyonel ağlar aracılığıyla popülerleştirildi—özellikleri doğrudan veriden öğrenmenin özellikle sorunlar karmaşık ve çeşitli olduğunda el yapımı boru hatlarından daha iyi olabileceğini göstermesiydi. Sisteme neye bakması gerektiğini söylemek yerine tahmine dayalı, gerçekten öngörücü kalıpları keşfetmesine izin verirsiniz.
Bir model güçlü bir temsil öğrendiğinde, bunu yeniden kullanabilirsiniz. Genel görsel yapıyı anlamak için eğitilmiş bir ağ (kenarlar → şekiller → parçalar → nesneler) daha az veriyle yeni görevlere uyarlanabilir: hata tespiti, tıbbi görüntü taraması, ürün eşleştirme ve daha fazlası.
Temsillerin pratik sihri budur: her seferinde sıfırdan başlamazsınız—girdi hakkında yeniden kullanılabilir bir "anlayış" üzerine inşa edersiniz.
Bir ekipte AI inşa ediyorsanız, temsil öğrenimi basit bir öncelik sıralaması önerir:
Bunları doğru yaparsanız, daha iyi temsiller ve daha iyi performans genellikle beraber gelir.
Kendi kendine denetimli öğrenme, yapay zekânın ham veriyi kendi "sınavına" çevirerek öğrenme yoludur. Her örneği insanın etiketlemesine güvenmek yerine (kedi, köpek, spam vs.), sistem veriden bir tahmin görevi yaratır ve doğru tahmin etmeye çalışarak öğrenir.
Bunu bir dili okuyarak öğrenmeye benzetin: her cümle için bir öğretmene ihtiyaç duymazsınız—ne geleceğini tahmin ederek ve doğru olup olmadığını kontrol ederek kalıpları öğrenebilirsiniz.
Birkaç yaygın kendi kendine denetimli görev kolayca hayal edilebilir:
Etiketleme yavaş, pahalı ve sıklıkla tutarsızdır. Kendi kendine denetimli öğrenme, kuruluşların zaten sahip olduğu büyük miktardaki etiketsiz veriyi—fotoğraflar, belgeler, çağrı kayıtları, sensör günlükleri—kullanarak genel temsiller öğrenmesini sağlar. Ardından, belirli bir iş için daha küçük bir etiketli veri kümesiyle ince ayar yapılır.
Kendi kendine denetimli öğrenme modern sistemlerin arkasındaki büyük motorlardan biridir:
Denetimli, denetimsiz ve kendi kendine denetimli öğrenme arasındaki seçim büyük ölçüde şu şeye bağlıdır: hangi tür sinyali ölçeklenebilir şekilde elde edebileceksiniz.
Denetimli öğrenme insan tarafından sağlanan etiketlerle eğitilir (ör. "bu fotoğrafta kedi var"). Etiketler doğruysa doğrudan ve etkilidir.
Denetimsiz öğrenme etiket olmadan yapı arar (ör. müşteri davranışını gruplayarak). Yararlı olabilir, ancak “yapı” belirsiz olabilir ve sonuçlar doğrudan iş hedeflerine uymayabilir.
Kendi kendine denetimli öğrenme pratik bir orta yol sunar: veriden eğitim hedefleri oluşturur (eksik kelime, maskelenmiş görüntü parçası) ve böylece manuel etiket gerektirmeden öğrenme sinyali elde edilir.
Etiketli veri çabaya değer olduğunda:
Etiketler darboğaz olduğunda:
Yaygın bir desen:
Bu genellikle etiketleme ihtiyacını azaltır, düşük veri ortamlarında performansı iyileştirir ve ilişkili görevlere daha iyi transfer sağlar.
En iyi seçim genellikle etiketleme kapasitesi, zaman içinde beklenen değişim ve modelin ne kadar geniş genelleme yapmasını istediğinize bağlıdır.
Enerji tabanlı modeller (EBM'ler), öğrenmeyi "etiketleme" yerine daha çok "sıralama"ya yakın bir şekilde düşünmenin yoludur. Model tek bir doğru cevabı zorlamaz; bunun yerine bir puanlama fonksiyonu öğrenir: mantıklı konfigürasyonlara düşük “enerji” (iyi puan), mantıksız olanlara yüksek enerji (kötü puan) verir.
Bir "konfigürasyon" birçok şey olabilir: bir görüntü ve önerilen altyazı, kısmi bir sahne ve eksik nesneler veya bir robot durumu ve önerilen bir eylem. EBM'nin işi, "Bu eşleşme uyumlu" demek veya "Bu tutarsız görünüyor" demektir.
Bu basit fikir güçlüdür çünkü dünyayı tek bir etikete indirgemeye gerek yoktur. Alternatifleri karşılaştırıp en iyi puanlananı seçebilirsiniz; insanlar çoğu zaman seçenekleri değerlendirip tutarsız olanları eler ve iyileri rafine eder.
EBM'ler esnek eğitim hedeflerine izin verdiği için ilgi çekicidir. Modeli gerçek örnekleri aşağı çekmeye (düşük enerji) ve yanlış/negatif örnekleri yukarı itmeye (yüksek enerji) eğitebilirsiniz. Bu, verideki düzenlilikleri, kısıtları ve ilişkileri öğrenmeyi teşvik edebilir; girdiyi çıktıya ezberlemek yerine yapının öğrenilmesine yardımcı olur.
LeCun bu perspektifi "dünya modelleri" gibi daha geniş hedeflerle ilişkilendirdi: dünyanın nasıl işlediğine dair iç modeller. Eğer bir model neyin makul olduğunu puanlayabiliyorsa, aday gelecekleri veya eylem dizilerini değerlendirip gerçekle tutarlı kalanları tercih ederek planlamaya destek olabilir.
LeCun, üst düzey AI araştırmacıları arasında etkisi hem akademik araştırma hem de büyük endüstri laboratuvarlarını kapsadığı için sıradışıdır. Üniversitelerde ve araştırma enstitülerinde çalışmaları sinir ağlarını elle tasarlanmış özelliklere ciddi bir alternatif olarak gündeme taşıdı—bu fikir daha sonra bilgisayarlı görü ve ötesinde varsayılan yaklaşıma dönüştü.
Bir araştırma alanı sadece makalelerle ilerlemez; hangi fikirlerin ölçekleneceğine, hangi benchmark'ların kullanılacağına ve hangi önceliklerin uzun vadeli program haline geleceğine karar veren gruplar aracılığıyla da ilerler. Takımlara liderlik ederek ve araştırmacıları mentorluk ederek LeCun, temsil öğrenimi ve ardından kendi kendine denetimli öğrenmeyi tek seferlik deneyler yerine uzun vadeli programlar haline getirdi.
Endüstri laboratuvarları pratik birkaç nedenle önemlidir:
Meta AI bu tür bir ortamın önde gelen örneklerinden biridir: temel araştırma ekiplerinin fikirleri ölçekte test edebildiği ve model seçimlerinin gerçek sistemleri nasıl etkilediğini görebildiği bir yer.
Liderler araştırmayı daha iyi temsillere, etiketlere daha az bağımlılığa ve daha güçlü genelleştirmeye itmeye başladığında bu öncelikler dışarı yayılır. Kullanıcıların etkileştiği araçları—fotoğraf organizasyonu, çeviri, erişilebilirlik özellikleri olarak görüntü açıklamaları, içerik anlama ve öneriler—etkiler. Kullanıcılar "kendi kendine denetimli" terimini duymasa bile, ödül daha hızlı uyum sağlayan, daha az anotasyona ihtiyaç duyan ve gerçek dünyadaki çeşitliliği daha iyi idare eden modellerdir.
2018'de Yann LeCun, genellikle "bilgisayar biliminin Nobel'i" olarak nitelendirilen ACM A.M. Turing Ödülü'nü aldı. Özetle ödül, derin öğrenmenin alanı nasıl dönüştürdüğünü kabul etti: görme veya konuşma için kurallar el ile yazmak yerine, araştırmacılar veriden öğrenilebilen faydalı özellikleri eğitilebileceğini gösterdiler; bu da doğruluk ve pratik fayda açısından büyük kazançlar sağladı.
Ödül Geoffrey Hinton ve Yoshua Bengio ile paylaşıldı. Bu önemlidir çünkü modern derin öğrenme hikâyesinin nasıl inşa edildiğini yansıtır: farklı gruplar farklı parçaları ilerletti, bazen paralel, bazen birbirlerinin çalışmalarını doğrudan geliştirerek.
Tek bir etkileyici makale veya model değil, uzun bir fikir yayılma yolunu ve gerçek dünya sistemlerine dönüşmeyi tanıyordu—özellikle sinir ağlarının ölçeklenebilir biçimde eğitilebilmesi ve genelleşen temsiller öğrenmesi.
Ödüller ilerlemenin birkaç "kahraman" üzerinden olduğunu gösterme eğiliminde olsa da gerçek daha topluluksal:
Dolayısıyla Turing Ödülü, LeCun, Hinton ve Bengio'nun her birinin derin öğrenmeyi hem güvenilir hem de dağıtıma uygun hale getirmede önemli roller oynadığı bir dönüm noktasına dikkat çeken bir spot ışığı olarak okunmalıdır.
Derin öğrenmenin başarısına rağmen, LeCun'un çalışmaları bugün yürütülen aktif tartışmanın içinde yer alır: bugünkü sistemlerin neyi iyi yaptığı, hangi konularda hâlâ zorlandığı ve hangi araştırma yönlerinin bu boşlukları kapatabileceği.
AI laboratuvarları ve ürün ekipleri arasında sıkça şu sorular ortaya çıkar:
Derin öğrenme tarihsel olarak veri açlığı ile ilişkilendirildi: denetimli modeller büyük etiketli veri kümeleri gerektirebilir ve bu veriler insan önyargılarını yansıtabilir.
Genelleme de düzensizdir. Modeller benchmark'larda etkileyici görünebilir ama daha dağınık gerçek ortamlarda zorlanabilir—yeni popülasyonlar, yeni cihazlar, yeni iş akışları veya yeni politikalar. Bu uçurum, ekiplerin tek bir test setinin ötesinde izleme, yeniden eğitim ve değerlendirmeye yatırım yapmasının nedenlerinden biridir.
SSL, yapay etiketlere olan bağımlılığı azaltmaya çalışır; ham veride zaten var olan yapıyı kullanarak—eksik parçaları tahmin etme, değişmezlikleri öğrenme veya aynı içeriğin farklı görünümlerini hizalama—temsiller öğrenir.
Söz vaadedilen açık: bir sistem devasa etiketsiz metin, görüntü, ses veya video verisinden yararlı temsiller öğrenebilirse, o zaman belirli görevlere uyarlamak için daha küçük etiketli veri kümeleri yeterli olabilir. SSL ayrıca farklı problemler arasında transfer edilebilen daha genel özellikler öğrenmeyi teşvik eder.
Kanıtlanmış olan: SSL ve temsil öğrenimi, özellikle etiketlerin kıt olduğu durumlarda performansı ve yeniden kullanılabilirliği önemli ölçüde iyileştirebilir.
Hâlâ araştırma olan: güvenilir şekilde dünya modelleri, planlama ve bileşimsel akıl yürütme öğrenmek; dağılım kayması altında başarısızlıkları önlemek; sürekli öğrenen ve unutma/aydolma yaşamayan sistemler inşa etmek.
LeCun'un çalışmalarının bir hatırlatıcısıdır: "en iyi durum"dan ziyade amaca uygunluk önemlidir. Bir ürün için AI inşa ediyorsanız, avantajınız genellikle gerçek dünya kısıtlarına uyan en basit yaklaşımı seçmekten gelir.
Model seçmeden önce bağlamınızda "iyi"nin ne anlama geldiğini yazın: kullanıcı sonucu, hataların maliyeti, gecikme ve bakım yükü.
Pratik bir değerlendirme planı genellikle şunları içerir:
Veriyi bir varlık olarak yol haritası ile yönetin. Etiketleme pahalıdır, bu yüzden kasıtlı olun:
Yararlı bir kural: daha büyük modellere koşmadan önce veri kalitesi ve kapsamına erken yatırım yapın.
CNN'ler, özellikle görüntü üzerinde verimlilik ve öngörülebilir davranış gerektiğinde birçok görsel görev için güçlü bir varsayılan olmaya devam ediyor. Yeni mimariler doğruluk veya multimodal esneklikte kazanabilir, ama daha fazla hesap, karmaşıklık ve dağıtım çabası maliyeti getirebilir.
Kısıtlarınız sıkıysa (mobil/edge, yüksek verim, sınırlı eğitim bütçesi), iyi ayarlanmış bir CNN ve iyi veri genellikle sonradan gelen "daha gösterişli" bir modelden daha iyi sonuç verir.
LeCun'un çalışmalarında tekrar eden tema uçtan uca düşünmedir: sadece model değil, etrafındaki boru hattı—veri toplama, değerlendirme, dağıtım ve yineleme. Pratikte birçok ekip takımı mimariden çok, çevresel ürün yüzeyi (yönetim araçları, etiketleme arayüzü, inceleme iş akışları, izleme panoları) oluşturmanın uzun sürmesi nedeniyle aksar.
Bu noktada modern "vibe-coding" araçları sürtünmeyi azaltabilir. Örneğin, Koder.ai ekiplerin sohbet odaklı bir iş akışıyla web, arka uç ve mobil uygulamaları prototiplemelerini ve dağıtımlarını hızlandırır—örneğin hızlı bir değerlendirme uygulaması (React panosu ile Go + PostgreSQL arka ucu), hızlı yineleme için anlık görüntüler/geri alma veya iş akışı stabil hale geldiğinde kaynak kodunu dışa aktarıp özel bir alan adıyla dağıtma. Amaç ML araştırmasını değiştirmek değil; iyi bir model fikri ile kullanılabilir bir sistem arasındaki sürtünmeyi azaltmaktır.
Bir AI girişimi planlıyorsanız, uygulama kılavuzları için /docs'e göz atın, dağıtım seçenekleri için /pricing'e bakın veya /blog'daki diğer denemeleri keşfedin.
O, veriden keşfedilen temsil(özelliklerin) (insan tarafından el ile tasarlanmış kurallardan ziyade) kirli, gerçek dünya girdilerinde elde edilecek performansı kanıtladı. Bu zihniyet—uçtan uca eğitim, ölçeklenebilir performans ve yeniden kullanılabilir özellikler—modern yapay zekâ sistemlerinin şablonu haline geldi.
Derin öğrenme, çok katmanlı sinir ağları kullanarak veriden kalıplar öğrenmeyi kapsayan geniş bir yaklaşımdır.
Kendi kendine denetimli öğrenme (SSL) ise modelin ham veriden kendi öğrenme sinyalini oluşturduğu bir eğitim stratejisidir (ör. eksik parçayı tahmin etmek). SSL genellikle insan etiketlerine olan ihtiyacı azaltır ve yeniden kullanılabilir temsiller üretebilir.
Konvolüsyon, küçük bir dedektörün (filtre) görüntü boyunca "kaydırılması" gibidir; kenar, köşe veya doku gibi bir deseni herhangi bir yerde bulup bulmadığını sorar. Aynı dedektörün her yerde yeniden kullanılması öğrenmeyi verimli kılar ve nesne karede yer değiştirince tanımayı kolaylaştırır.
Üç temel fikir:
LeNet, uçtan uca bir sinir ağının gerçek bir iş benzeri görevi (el yazısı rakam tanıma) güçlü bir performansla yapabileceğini gösterdi. Özellik çıkarma ve sınıflandırma birlikte öğrenildiği için, el yapımı boru hatları yerine öğrenilen temsillerin pratik ve dağıtıma uygun olduğunu normalleştirdi.
Temsil öğrenimi, modellerin yalnızca nihai cevabı değil, birçok görevi kolaylaştıran iç özellikleri öğrenmesi fikridir. Güçlü temsiller, ardışık görevlerde yeniden kullanılabilir, transfer öğrenmeyi mümkün kılar ve insan yapımı özelliklerden genellikle daha dayanıklıdır.
Etiketler bol ve tutarlıysa ve görev sabitse denetimli öğrenme ile başlayın.
Çok fazla ham veriniz ama az etiketiniz varsa kendi kendine denetimli ön eğitim + ince ayar ile başlayın.
Keşif (kümeleme/anomali keşfi) amaçlıysa önce denetimsiz yöntemleri düşünün, sonra aşağı yönlü metriklerle doğrulayın.
SSL, veriden kendi eğitim görevlerini oluşturur; örneğin:
Ön eğitimden sonra genellikle hedef görev için yapılır.
Bir enerji tabanlı model, puanlama fonksiyonu öğrenir: makul konfigürasyonlara düşük enerji, uygunsuzlara yüksek enerji verir. Bu, alternatifleri karşılaştırıp en uygun olanı seçmeyi kolaylaştırır ve dünya modelleri ile planlama gibi daha geniş fikirlere bağlanır.
Önce neyin "iyi" olduğunu ve nasıl ölçüleceğini tanımlayın:
Değerlendirmeyi ve veri stratejisini mühendislik işinin birinci sınıf parçası olarak görün, sonradan yapılacak bir iş olarak değil.