Sebastian Thrun’un Stanford ve sürücüsüz araçlardaki yolculuğunu, Udacity’yi kurmasını ve hikâyesinden yapay zekâ inşa etmek ve onu öğretmek hakkında çıkarılacak dersleri keşfedin.

Sebastian Thrun, hem yapay zekânın fiziksel dünyada neler yapabileceğini hem de insanların onu nasıl öğrenip inşa ettiğini şekillendiren nadir kişilerden. Önde gelen bir araştırmacı, iddialı ürünlerin pratiğini yapan bir uygulayıcı ve internet ölçeğinde yapay zekâ öğrenimini popülerleştiren bir eğitimci oldu. Bu kombinasyon, onu haber başlıklarının ötesinde modern yapay zekâyı anlamak için değerli bir mercek yapıyor.
Bu hikâye yüzeyde farklı görünen ama benzer bir zihniyeti paylaşan iki temayı izliyor.
İlki otonom sürüş: makineleri karmaşık ortamlarda algılatmak, belirsizlik altında karar aldırmak ve insanların etrafında güvenli çalıştırmak için yapılan zorluk. Thrun’un çalışmaları sürücüsüz arabaları araştırma demosundan teknoloji endüstrisinin ciddiye alabileceği bir hedefe dönüştürmeye yardımcı oldu.
İkincisi yapay zekâ eğitimi: öğrenmenin tek bir kampüs veya dar bir iç grup ile sınırlı olmaması gerektiği fikri. Udacity ve önceki çevrimiçi derslerle Thrun, "inşa ederek öğrenme"yi teknolojiye girmeye çalışan kişiler için ana akım bir yaklaşım haline getirdi.
Bu, “gelecek” hakkında abartılı bir övgü yazısı ya da her dönüm noktasını kapsayan bir biyografi değil. Bunun yerine, iyi taşınan pratik derslere odaklanan bir yazı:
Eğer yapay zekâ ürünleri inşa ediyorsanız, yapay zekâ öğreniyorsanız veya ekipleri eğitmeye çalışıyorsanız, Thrun’un yolu araştırma, endüstri uygulaması ve kitlesel eğitim—birbiriyle sık bağlanmayan ama birbirine mutlak gereksinimli üç dünya—arasında bir köprü kuruyor ve bu yüzden değerli.
Sebastian Thrun’un yapay zekâya girişi akademide başladı; merak ve matematiksel titizlik burada ürün teslim tarihinden daha önemliydi. Almanya’da bilgisayar bilimleri eğitimi alıp, "yapay zekâ"nın sıklıkla titiz olasılıksal modeller anlamına geldiği, büyük sinir ağlarının henüz hakim olmadığı bir dönemde makine öğrenmesi ve robotik alanlarına geçti. Bu temel—belirsizliği birinci sınıf bir problem olarak ele almak—sonradan karmaşık, öngörülemez ortamlarda güvenle hareket edebilen makineler için hayati oldu.
Stanford’da profesör olan Thrun, yapay zekânın sadece makale yayımlamakla kalmayıp fikirleri fiziksel sistemlerde test etmeyi de içeren bir kültürün oluşmasına yardımcı oldu. Çalışmaları şu kesişimdeydi:
Bu karışım belirli bir zihniyeti teşvik etti: ilerleme sadece bir kıyaslama üzerinde daha yüksek doğruluk değil; koşullar değiştiğinde sistemin çalışmaya devam edip etmediğiydi.
Stanford’un araştırma ortamı Thrun’un kariyeri boyunca görülen alışkanlıkları pekiştirdi:
İlk olarak, büyük problemleri test edilebilir bileşenlere ayırmak. Otonom sistemler tek bir model değildir—algılama, tahmin, planlama ve güvenlik kontrollerinin birlikte çalıştığı bir boru hattıdır.
İkincisi, teori ile deneyler arasında geri bildirim döngüleri kurmak. Pek çok akademik proje demoda ölür; güçlü robotik kültürü sahada yinelemeyi ödüllendirir.
Üçüncüsü, öğretmek ve bilgiyi ölçeklendirmek. Öğrenci danışmanlığı, laboratuvar yönetimi ve karmaşık fikirleri açıkça açıklama Thrun’un daha sonra eğitime yönelmesini önceden haber verdi—ileri düzey yapay zekâ konularını insanların gerçekten bitirebileceği yapılandırılmış öğrenme yollarına dönüştürmek.
DARPA Grand Challenge, basit bir hedefi olan bir ABD hükümet yarışmasıydı: kumlu, engebeli bir parkuru insansız bir araçla sürmek—uzaktan kumanda yok, insan sürücü yok, sadece yazılım ve sensörler.
Çoğu kişi için en kolay canlandırma şu: bir arabadan sürücüyü çıkarın ve çöl yolları, tepeler ve beklenmedik engeller arasında aracı saatlerce “hayatta tut” diye isteyin. Erken yarışlar acımasızdı; birçok araç sadece birkaç mil yapabildi, sıkıştı, şaşırdı veya bozuldu.
Sebastian Thrun en etkili takımlardan birine liderlik etti; araştırmacıları ve mühendisleri bir araya getirip problemi bir demo gibi değil, eksiksiz bir sistem gibi ele aldılar. Çabayı önemli kılan tek bir zekice numara değil—birbirine uymayan birçok parçayı gerçek koşullarda ayakta kalabilecek bir şeye entegre etme disipliniydi.
Bu zihniyet—inşa et, test et, başarısız ol, geliştir—ilerleyen otonom sürüş çalışmalarının şablonu haline geldi. Yarış, takımları fikirlerini laboratuvarın dışında kanıtlamaya zorladı; toz, aydınlatma, tümsekler ve belirsizlik düz varsayımları sürekli kırıyordu.
Bu araçları güçlendiren üç büyük fikir vardı:
DARPA yarışları sadece hızı ödüllendirmedi. Otonominin uçtan uca bir mühendislik sorunu olduğunu kanıtladılar—algılama, haritalama ve kararların baskı altında birlikte çalışması gerektiğini.
Google X (şimdi X), “ay-atağı” projelere odaklanmak için kuruldu: işe yaramaz görünen ama işe yaradığında hayatı değiştirebilecek fikirler. Amaç küçük özellikleri daha hızlı göndermek değildi—ulaşım veya sağlık gibi alanlarda çarpıcı atılımlara bahis yapmakti.
X içindeki projelerin cesur bir kavramdan gerçek dünyada test edilebilen bir şeye hızlıca ilerlemesi bekleniyordu. Bu, prototipler oluşturmak, sonuçları ölçmek ve gerçeklikle buluştuğunda yaşayamayacak fikirleri öldürmeye hazır olmak anlamına geliyordu.
Sürücüsüz arabalar bu modele mükemmel uydu. Eğer bir bilgisayar sürüşü halledebiliyorsa, fayda sadece konfordan ibaret değil—daha az kaza, sürüş yapamayan insanlar için daha fazla hareket kabiliyeti ve daha az boşa geçen zaman anlamına gelebilirdi.
Sebastian Thrun akademik derinlik ile pratik aciliyetin nadir bir karışımını getirdi. Yarış ortamında otonomiyi kanıtlamıştı ve Google’da sürüşü gösteriş amaçlı bir demo değil, ölçülebilir performansla ele alınabilecek bir mühendislik problemi olarak görmeye zorladı.
Erken çabalar arabaların sıradan durumları güvenilir biçimde ele almasını sağlamaya odaklandı: şeritte kalma, ışıklara uyma, yayaları tanıma ve güvenli şekilde şerit değiştirme. Bunlar basit gibi görünse de; hava, aydınlatma ve insanlar arasındaki karmaşık davranışlarda tutarlı yapmak gerçek zorluktur.
Bir laboratuvar sistemi “etkileyici” olabilir ama yine de güvensiz olabilir. Ürün düşüncesi farklı soruları gündeme getirir:
Bu kayma—gösteri yapmaktan güvenilirliği kanıtlama—otonomiyi araştırmadan yollara taşıyan kilit adımdı ve sürücüsüz alanın veri, simülasyon ve hesap verebilirlik hakkında düşünmesini şekillendirdi.
Sürücüsüz arabalar, yapay zekâ öğrenen herkes için bir gerçek kontrolüdür: model bir sıralama tablosu puanıyla değil, dağınık, öngörülemez yollarda nasıl davrandığıyla değerlendirilir. Thrun’un çalışmaları “gerçek dünya” yapay zekânın zekice algoritmalardan çok dikkatli mühendislik, test ve sorumluluk gerektirdiği fikrini popülerleştirdi.
Otonom sürüş yığınları birçok parçayı birleştirir: algılama (şeritleri, arabaları, yayaları görmek), tahmin (başkalarının ne yapacağını tahmin etmek), planlama (güvenli bir yol seçmek) ve kontrol (direksiyon/fren). Makine öğrenmesi algılamada (ve bazen tahminde) güçlüdür; kalıpların tekrar ettiği yerlerde iyi çalışır.
Ancak yeni durumlarda “sağduyu” gerektiren şeylerde zayıftır: olağandışı inşaat, belirsiz el işaretleri, bir kamyonun arkasından aniden çıkan bir yaya veya trafik polisini yönlendiren kişi. Bir sürücüsüz sistem, karşılaşmadığı bir duruma gelene kadar kendinden emin görünebilir.
Sürüş, nadir olayların tükenmez bir kaynağıdır. Sorun sadece yeterli veri toplamak değil—güvenliği kanıtlamaktır.
Bir sistem milyonlarca mil boyunca iyi performans gösterebilir ve yine de milyonda bir olacak bir senaryoda başarısız olabilir. Bu yüzden takımlar simülasyona, senaryo kütüphanelerine, yedekli sensörlere/denetimlere ve sadece “doğruluk” değil güvenliğe odaklanan metriklere güvenir. Test etme kendi başına bir ürün olur.
Gerçek otonomi sıkı kurallar ile öğrenilmiş davranış arasında bir yerde durur. Trafik yasaları insanlar için yazılmıştır, yol etiketi şehirden şehire değişir ve “makul” kararlar bağlama bağlı olabilir. Sistemler kurallara uymalı, insanların kuralları çiğnemesini öngörmeli ve insanlar tarafından tahmin edilebilir şekilde davranmalıdır.
Yapay zekâ kurucularına ve öğrenenlere çıkarılacak ders: en zor kısım genellikle bir modeli eğitmek değil. Sınırları tanımlamak, hataları zarifçe ele almak ve dünyayı verisetinin önerdiği gibi değil olduğu gibi tasarlamak en önemlisidir.
Otonom araçların sınırında çalıştıktan sonra Sebastian Thrun farklı bir darboğazla karşılaştı: yetenek (talent). Şirketler gerçek sistemleri inşa edebilecek mühendisler istiyordu, ama birçok istekli öğrenen bir üniversite programına erişemiyor ya da hayatlarını durdurup katılacak durumda değildi.
Udacity, yüksek kaliteli teknik eğitime erişimi artırmak ve işe hazır becerilere giden bir yol sunmak için kuruldu. Fikir sadece “çevrimiçi dersleri izletmek” değildi. Öğrenmeyi net, pratik adımlara—projeler, geri bildirim ve işverenlerin gerçekten ihtiyaç duyduğu becerilere—paketlemeyi amaçlıyordu.
Bu odak önemliydi çünkü yapay zekâ ve yazılım rolleri tanım ezberleyerek öğrenilmez. Onlar inşa ederek, hata ayıklayarak ve yineleyerek öğrenilir—tam da Thrun’un araştırma laboratuvarlarında ve ürün ekiplerinde gördüğü alışkanlıklar.
Udacity’nin ilk ivmesi basit bir içgörüye dayanıyordu: mükemmel öğretim ölçeklenir. Dersler açık ve başlaması kolay olduğunda, coğrafya, maliyet veya kabul filtreleri yüzünden dışlanan öğrenenleri çektiler.
İkinci hızlandırıcı zamanlamaydı. Programlama ve yapay zekâya ilgi patlıyordu ve insanlar yapılandırılmış bir başlangıç yolu arıyordu. Çevrimiçi dersler riski düşürdü: bir konuyu deneyebilir, hızlıca ilerleme görebilir ve derinleşip derinleşmemeye karar verebilirsiniz.
MOOC, "Massive Open Online Course" (Kitlelere Açık Çevrimiçi Ders) anlamına gelir. Basitçe: çok sayıda öğrenci için tasarlanmış çevrimiçi bir derstir, genellikle katılım için çok az engel vardır. "Kitle" binler (bazen yüzbinler) demektir. "Açık" genellikle düşük maliyetli veya başlamak için ücretsiz anlamına gelir. "Çevrimiçi ders" ise her yerden, kendi programınızda öğrenebileceğiniz anlamına gelir.
MOOC'lar, güvenilir eğitmenler, esnek hız ve aynı materyali aynı anda geçen bir öğrenen topluluğunu birleştirdiği için popüler oldu.
Udacity, erken MOOC iyimserliğiyle başladı: dünya çapında eğitmenler, açık kayıt ve herkesin her yerden alabileceği dersler. Vaad basitti—harika materyali çevrimiçi koyun ve merak ölçeklensin.
Zamanla, "ücretsiz video + testler"in sınırları netleşti. Birçok öğrenen içeriğin tadını çıkardı ama daha azı bitirdi. Ve bitirenler için bile bir sertifika genellikle işe dönüşmedi. İşverenler sadece ders izlediğinizin kanıtını değil; gerçekten inşa edebileceğinize dair kanıt istiyordu.
Ücretli, kariyer odaklı programlara geçiş sadece bir iş kararı değildi—öğrenenlerin istediklerine yanıt olarak ortaya çıktı: yapı, hesap verebilirlik ve daha net çıktılar.
Ücretsiz dersler keşif için iyidir, ama kariyer değiştirenler genellikle rehberli bir yola ihtiyaç duyar:
İşte Udacity bu noktada şirketlerle ortaklıklara ve rol-temelli eğitime yatırım yaparak öğrenimi işe daha doğrudan bağlamaya çalıştı.
Udacity’nin nanodegree yaklaşımı öğrenmeyi tek başına bir dersten çok iş-odaklı bir program olarak paketledi. Amaç: “Ben işi yapabilirim”i görünür kılmak.
Bir nanodegree genellikle şunlara vurgu yapar:
Kısaca, bunun bir ustalık-apprenticeship parçasını taklit etmesi amaçlanmıştı: bir kavram öğren, uygula, eleştiri al, geliştir.
Bu evrim gerçek faydalar getirdi ama aynı zamanda ödünler de verdi.
Öğrenme tarafında, kariyer programları daha pratik olabilir—ancak bazen daha daralan içerik sunarlar. Odaklı bir müfredat sizi daha hızlı "işe hazır" hale getirebilir, ama derin teori veya geniş keşif için daha az alan bırakabilir.
İş tarafında, proje incelemeleri ve destek ek kalite getirir ama ölçeği azaltır. Ücretsiz bir MOOC milyonlara düşük maliyetle hizmet edebilir; anlamlı geri bildirim sağlamak zaman ve para gerektirir; bu yüzden nanodegree'ler profesyonel eğitim fiyatlandırmasına yakın olur.
Udacity’nin evriminin büyük sonucu: erişilebilirlik sadece fiyatla ilgili değil. Aynı zamanda öğrenenlerin işi bitirmesine, gerçek bir şey inşa etmesine ve çabayı fırsata çevirmesine yardımcı olmakla da ilgili.
Sebastian Thrun’un otonom araçlardan eğitime geçişi rahatsız edici bir gerçeği öne çıkardı: çoğu insan yapay zekâda yetenek eksikliğinden değil, öğrenme yolunun bulanık olmasından başarısız olur. Net çıktıların, sıkı geri bildirim döngülerinin ve gerçek eserlerin önemi, "her şeyi kapsamak"tan daha fazladır.
Matematik kaygısı genellikle teoriyi izole öğrenmeye çalışmaktan doğar. Daha iyi bir desen "tam zamanında matematik"tir: bir model anlamak için minimum lineer cebiri veya olasılık bilgisini öğrenin, sonra hemen uygulayın. Bir loss fonksiyonunun ne yaptığını açıklayabilmek ve onun azaldığını görmek özgüveni artırır.
Araç karmaşası başka bir tuzaktır. Başlangıçlar notebook'lar, framework'ler, GPU'lar ve MLOps kelimeleri arasında savrulabilir. Bir yığınla başlayın (ör. Python + tek bir derin öğrenme kütüphanesi) ve gerçek bir sınırlama ortaya çıkana kadar gerisini isteğe bağlı tutun.
Belirsiz hedefler motivasyonu bozar. "Yapay zekâ öğren" çok belirsiz; "destek taleplerini sınıflandıran bir sınıflandırıcı yap" somuttur. Hedef veri setini, değerlendirme metriğini ve paylaşabileceğiniz bir demoyu tanımlamalı.
Projeler karar vermeyi zorunlu kıldığı için işe yarar: veri temizleme, temel modeller, değerlendirme ve yineleme. Bu, sınıfın dışındaki yapay zekâ geliştirme sürecini yansıtır.
Ama projeler kopyala-yapıştır egzersizlerine dönüştüğünde başarısız olabilir. Özelliklerinizi açıklayamıyorsanız, train/validation bölmenizi veya neden bir modelin diğerini yendiğini tarif edemiyorsanız, öğrenmediniz—kodunuz sadece çalıştı. İyi projeler kısa yazılar, ablatif çalışmalar ("bu özelliği çıkarırsam ne olur?") ve hata analizi içerir.
Projelerin tıkanmasını önlemenin pratik yolu “gönderme” adımını açık yapmak: örneğin bir modeli basit bir web uygulamasına sarmalayın, logging ve geri bildirim formu ekleyin; böylece sadece eğitimi değil izlemeyi ve yinelemeyi de öğrenirsiniz. Koder.ai gibi platformlar burada faydalıdır: sohbetle istediğiniz uygulamayı tarif ederek bir React ön yüzü ile Go + PostgreSQL backend üretebilir, sonra kaynak kodu dışa aktarabilir veya dağıtabilirsiniz; bu, bir notebook'u test edilebilir bir şeye dönüştürmeyi kolaylaştırır.
Üç nadirce kesişen dünyayı birbirine bağlıyor: akademik yapay zekâ (olasılıksal robotik), yüksek riskli endüstriyel uygulama (otonom sürüş) ve internet ölçeğinde eğitim (MOOC'lar ve Udacity). Ortak desen ise sıkı geri bildirim döngüleri—inşa et, gerçek dünyada test et, öğren, yinele.
Sürücüsüz bir sistem tek bir model değil, uçtan uca bir yığındır:
Makine öğrenmesi algılamada (ve bazen tahminde) en güçlü olandır; güvenlik ve güvenilirlik ise sistem mühendisliği ve doğrulamadan gelir.
Çünkü gerçek dünya nadir ama yüksek etkili olaylarla dolu (alışılmadık şantiye, sıra dışı aydınlatma, el işaretleri, sensör arızaları). Bir model ortalamada iyi görünebilir ama milyon başına bir senaryoda felaket şekilde başarısız olabilir.
Pratik önlemler arasında simülasyon, küratörlü senaryo kütüphaneleri, yedekli sensör/denetimler ve belirsizlik yüksek olduğunda uygulanan açık güvenli düşüş davranışları bulunur.
DARPA, takımları laboratuvarın dışına çıkarıp otonomiyi kanıtlamaya zorladı; toz, tümsekler ve belirsizlik düzgün varsayımları parçalar. Kalıcı ders, otonominin entegrasyon disiplini ile başarıya ulaştığıdır:
Bu “sistem-öncelikli” bakış açısı sonraki sürücüsüz çabalara doğrudan taşındı.
Sorular “bazen çalışıyor mu?”dan “koşullar altında güvenilir ve güvenli mi?”ye değişir. Ürün odaklı düşünce şunları önceler:
Uygulamada test ve izleme, eğitim kadar önemli hale gelir.
Erken MOOC'lar mükemmel eğitimin büyük kitlelere ulaşabileceğini gösterdi, fakat birçok öğrenen kursu tamamlamadı ve tamamlamak doğrudan işe dönüşmedi. Udacity daha yapılandırılmış programlara kaydı:
Bir nanodegree, “Ben işi yapabilirim”i görünür kılmayı hedefler:
Bunu küçük bir çıraklık gibi düşünün: inşa et, eleştiri al, yinele.
Somut bir kullanım durumunu seçip ona göre inşa edin. Pratik başlangıç planı:
İlerlemeyi saatle değil, yeniden üretilebilirlik ve açıklama ile ölçün.
Kopyalanacaklar:
Kaçınılması gerekenler:
Sorumluluk, özellikle yüksek riskli durumlarda bir mühendislik meselesi olarak ele alınmalı:
Amaç mükemmellik değil—öngörülebilir davranış, dürüst sınırlar ve güvenli hata modlarıdır.