Makine Öğrenimi ve Sinir Ağları - sayfa 46

 

CS480/680 Ders 3: Lineer Regresyon



CS480/680 Ders 3: Lineer Regresyon

Doğrusal Regresyon dersi, verilen bir dizi noktaya mümkün olduğunca yaklaşan en iyi doğruyu bulma problemine girişle başlar. Öğretim görevlisi, doğrusal fonksiyonların ağırlıklı girdilerin bir kombinasyonu ile temsil edilebileceğini açıklar. Doğrusal regresyon, ağırlık vektörünü değiştirerek Öklid kaybını en aza indirmek amacıyla optimizasyon yoluyla çözülebilir ve bu, dışbükey optimizasyon problemleri kullanılarak verimli bir şekilde yapılabilir. Doğrusal bir regresyon denklemini çözme süreci, matris ters çevirme veya yinelemeli yöntemler gibi teknikler kullanılarak yapılabilen, amaç fonksiyonu için genel minimumu verecek W değişkenini veya ağırlıklarını bulmayı içerir. Düzenlileştirmenin aşırı uydurmayı önlemedeki önemi, ağırlıkların büyüklüğünü sınırlamak ve onları mümkün olduğu kadar küçük olmaya zorlamak için amaç fonksiyonuna eklenen bir ceza terimi ile de tartışılmıştır. Ders, lineer regresyonda aşırı uyum sorununu ele almanın önemini tartışarak sona erer.

  • 00:00:00 Bu bölümde eğitmen, regresyon için standart bir makine öğrenimi tekniği olan doğrusal regresyonu tanıtır ve sorunu sezgisel olarak açıklar. Sorun, belirli bir noktalar kümesine mümkün olduğunca yaklaşan en iyi çizgiyi bulmaktır. Veriler girdi özelliklerinden (X) ve hedef çıktıdan (T) oluşur. Amaç, H'nin lineer olduğunu varsayarak X'i T'ye eşleyen bir H hipotezi bulmaktır. Doğrusal fonksiyonlar her zaman, ağırlıkların girdilerle çarpıldığı ve ardından toplandığı girdilerin ağırlıklı bir kombinasyonunu alma şeklinde temsil edilebilir.

  • 00:05:00 Bu bölümde, konuşmacı lineer fonksiyonların uzayını ve bir kayıp fonksiyonu minimize etmek için en iyi lineer fonksiyonları bulmanın amacını tartışıyor. Tahmini hedeften çıkararak mesafenin karesinin alındığı Öklid kayıp fonksiyonu kullanılır. Konuşmacı, Y'nin lineer bir fonksiyon olan öngörücünün çıktısı olduğunu ve T1'in evin satıldığı fiyat olduğunu ve bunun temel gerçek olduğunu açıklıyor. Ev değerlemesinde banyo ve yatak odası sayısı gibi birden fazla özellik dikkate alınarak 25-30 büyüklüğünde bir vektör elde edilir. Konuşmacı ayrıca slaytlarda kullanılan notasyonlardan da bahsediyor ve ikiye bölmenin teoride gerekli olmadığından bahsediyor.

  • 00:10:00 Dersin bu bölümünde, profesör ders boyunca lineer regresyondan bahsederken kullanacağı notasyonu tartışıyor. Hipotez için H, veri noktaları için X, tüm veri noktaları için çıktı vektörü için Y ve ağırlık vektörü için W değişkenlerini tanıtır. Ayrıca, bir skaler ile birleştirilmiş bir veri noktasını temsil etmek için X çubuğunun kullanılmasından bahseder. Profesör, W'leri değiştirerek Öklid kaybını en aza indirmek amacıyla doğrusal regresyonun optimizasyon yoluyla çözülebileceğini açıklamaya devam ediyor. O, bu optimizasyon probleminin kolay olduğunu çünkü dışbükey olduğunu, bunun da bir minimum olduğu ve global optimumun güvenilir bir şekilde bulunabileceği anlamına geldiğini belirtiyor.

  • 00:15:00 Dersin doğrusal regresyon hakkındaki bu bölümünde, konuşmacı, minimuma ulaşana kadar fonksiyonun eğriliğini takip etmeyi içeren gradyan inişini kullanarak dışbükey optimizasyon problemlerinin nasıl verimli bir şekilde çözülebileceğini açıklıyor. Bununla birlikte konuşmacı, dışbükey olmayan hedeflerin birden fazla minimuma sahip olabileceğini ve bunun da küresel optimumu güvenilir bir şekilde bulmayı zorlaştırdığını belirtiyor. Doğrusal regresyonda amaç dışbükeydir ve bu nedenle daha verimli bir çözüm, gradyanı hesaplamak, sıfıra ayarlamak ve minimumu sağlamak için hem gerekli hem de yeterli olan bu denklemi karşılayan tek noktayı çözmektir.

  • 00:20:00 Dersin bu bölümünde profesör, amaç fonksiyonu için genel minimumu verecek olan W değişkenini veya ağırlıklarını bulmak için bir doğrusal regresyon denklemini çözme sürecini açıklıyor. Doğrusal denklemler sistemi, W'yi izole ederek W eşittir B şeklinde yeniden yazılabilir ve ardından girdi verilerini temsil eden A matrisi, W'yi çözmek için ters çevrilebilir. Ancak, Gauss eleme gibi başka teknikler de vardır. eşlenik gradyan ve daha hızlı ve daha verimli olabilen yinelemeli yöntemler. Profesör ayrıca veri noktaları ve çizgi arasındaki dikey mesafeleri daraltarak çıktıya veya Y eksenine göre Öklid mesafesini en aza indirecek bir çizgi bulma kavramını göstermek için bir resim çizer.

  • 00:25:00 Bu bölümde öğretim görevlisi, tek bir çözüm elde etmek için doğrusal regresyonda dikey mesafeyi en aza indirmenin ardındaki mantığı açıklar. Amaç fonksiyonu dışbükeydir ve top şeklindeki fonksiyonun tek bir minimumu vardır. Bununla birlikte, en küçük kareler hedefinin en küçüklenmesiyle elde edilen çözüm kararlı değildir ve bu da fazla uydurmaya yol açabilir. Öğretim görevlisi bunu, biri girdiyi epsilon ile bozan iki örnekle açıklar. Ders ayrıca, tekillik veya tekilliğe yakınlık nedeniyle A matrisinin ters çevrilememesi gibi önemli bir sorunu tartışır.

  • 00:30:00 Dersin bu bölümünde eğitmen, aynı matris A, ancak farklı hedef değerler B ile iki sayısal doğrusal regresyon örneği verir. İlk örnek, ilk veri noktası için tam olarak 1 hedef değerine sahiptir, ikinci örnek, aynı veri noktası için 1 artı epsilon hedef değerine sahipken. Hedef değerlerdeki fark, epsilon çok küçük bir değer olmasına rağmen çıktıda önemli bir değişikliğe neden olur. Eğitmen, girdi değerlerindeki değişikliklerin önemini ve bunun lineer regresyonda neden zorluk teşkil ettiğini vurgulayarak sorunu grafiksel bir sunumla gösterir.

  • 00:35:00 Bu bölümde öğretim üyesi doğrusal regresyonu iki veri noktası yardımıyla açıklar. X'in iki girişi vardır, ancak ikinci boyut değişkendir ve ilk giriş yok sayılır. Öğretim görevlisi, biri X'i 0 ve hedefi 1 + Epsilon, diğeri X'i Epsilon ve hedefi 1 olacak şekilde iki veri noktası çizer. ilk veri noktasının yüzdesi 1'den 1 + Epsilon'a yükseltildi, yetersiz veri ve gürültü nedeniyle fazla uydurma gösteriliyor. Daha fazla veri veya daha yüksek boyutlar olsa bile çözüm kararsızdır.

  • 00:40:00 Bu bölümde lineer regresyonda düzenlileştirme kavramı tanıtılmaktadır. Düzenleme, ağırlıkların büyüklüğünü sınırlayan ve onları mümkün olduğu kadar küçük olmaya zorlayan bir ceza terimi ekler. Bu ceza terimi, çıktı ve hedef arasındaki Öklid mesafesini en aza indirme orijinal amacına eklenir. Düzenlileştirmenin kullanımı, sonraki derste açıklanacak olan hem sayısal hem de istatistiksel açıdan anlamlıdır. Soruna bağlı olarak, ceza teriminin önemini belirleyen hiper parametre lambdasının çapraz doğrulama yoluyla ayarlanması gerekecektir. Doğrusal regresyonda düzenleme, doğrusal denklem sistemini lambda I + A çarpı W eşittir B olarak değiştirir. Düzenleme yoluyla, doğrusal sistemin özdeğerleri, onları 0'dan uzaklaştırarak sayısal istikrarsızlığı ve hataları önleyen en az lambda olmaya zorlanır.

  • 00:45:00 Bu bölümde öğretim görevlisi, aşırı uydurmayı önlemek için doğrusal regresyonda düzenlileştirme uygulamasını tartışır. Düzenleme fikri, amaç fonksiyonuna bir ceza terimi eklemeyi ve ceza terimine atanan ağırlık miktarını kontrol etmek için bir lambda parametresi getirmeyi içerir. Öğretim görevlisi, bu düzenlileştirme tekniğinin nasıl çalıştığını doğrusal cebir açısından açıklar. Ek olarak, düzenlileştirmenin doğrusal regresyonda elde edilen çözümleri nasıl stabilize edebileceğini ve aşırı uydurmayı nasıl önleyebileceğini gösteren bir örnek verilmiştir. Örnek, ağırlıkların minimize edilmesi ve bir ceza teriminin eklenmesiyle birbirine daha yakın çözümler elde edilebileceğini göstermektedir.

  • 00:50:00 Bu bölümde öğretim görevlisi, doğrusal regresyonda fazla uydurma sorununu azaltmak için düzenlileştirmenin önemini tartışıyor. Fazla uydurma, bir modelin eğitim verilerinde iyi performans gösterdiği, ancak test verilerinde kötü performans gösterdiği yaygın bir sorundur. Düzenleme, bu sorunu çözmenin bir yoludur ve kurs diğer yaklaşımları da kapsayacaktır. Bir sonraki derste konu istatistiksel bir bakış açısıyla ele alınacaktır.
 

CS480/680 Ders 4: İstatistiksel Öğrenme



CS480/680 Ders 4: İstatistiksel Öğrenme

İstatistiksel öğrenmeyle ilgili bu derste, profesör marjinalleştirme kuralı, koşullu olasılık, ortak olasılık, Bayes Kuralı ve Bayes öğrenmesi gibi çeşitli kavramları açıklıyor. Bu kavramlar, öğrenme sırasında belirsizliği azaltmak için olasılık dağılımlarının kullanımını ve bunların güncellenmesini içerir. Ders, çeşitli algoritmaları doğrulamak ve açıklamak için bu kavramları anlamanın önemini vurgulamaktadır. Ders ayrıca, özellikle geniş hipotez uzaylarıyla uğraşırken bu kavramların sınırlamalarını da vurgulamaktadır. Bu sınırlamaya rağmen, önceki doğru olduğu ve kullanıcılara anlamlı bilgiler sağladığı sürece Bayesci öğrenmenin optimal olduğu kabul edilir.

Bu derste eğitmen, yaklaşık Bayes öğrenme kavramını, Bayes öğrenme ile izlenebilirlik sorununa bir çözüm olarak açıklar. Maksimum olasılık ve maksimum a-posteriori, istatistiksel öğrenmede yaygın olarak kullanılan yaklaşımlardır, ancak aşırı uydurma ve Bayesçi öğrenmeye göre daha az kesin tahminler gibi kendi zayıf yönleriyle birlikte gelirler. Ders aynı zamanda olasılığın en üst düzeye çıkarılmasından kaynaklanan optimizasyon problemini, farklı problemler için ihtiyaç duyulan veri miktarını ve sonraki birkaç slaydın ders ödevi için önemini kapsar. Eğitmen, bazı oranlar gerçekleştirilemez olsa bile, algoritmanın verilen uzayda en iyi hipoteze yakınsayacağını vurgulayarak bitirir.

  • 00:00:00 Dersin bu bölümünde profesör, öğrenirken belirsizliği yakalamak ve azaltmak için istatistik ve olasılık teorisini kullanmayı içeren istatistiksel öğrenme konusunu tanıtıyor. Fikir, belirsizliği ölçmek ve öğrenme ilerledikçe bunları güncellemek için olasılık dağılımlarını kullanmaktır. Ders aynı zamanda olasılık dağılımlarının ve çoklu rasgele değişkenler üzerinde ortak olasılık dağılımı kavramının gözden geçirilmesini sağlar. Nihayetinde, istatistiksel öğrenme, düzenlileştirme de dahil olmak üzere algoritmaları istatistiksel bir bakış açısıyla açıklamaya ve doğrulamaya yardımcı olur.

  • 00:05:00 Bu bölümde öğretim görevlisi, ortak bir dağıtımdan belirli bir dağılımı çıkarmak için marjinalleştirme kuralının nasıl kullanılacağını açıklar. Hava koşulları, baş ağrısı koşulları ve her gün için bir olasılığın üç değişkeni üzerinden ortak bir dağılımın verildiği bir örnek sunuyor. Marjinal dağılımları kullanarak olasılıkların hesaplanmasını gösteriyor, ortak bir olasılık veya belirli hava durumu veya baş ağrısı senaryolarının olasılıklarını bulmanın nasıl mümkün olduğunu gösteriyor. Bu yöntemi kullanarak, yirmi sekizinci noktaya gelen baş ağrısı veya güneşli partiye varır ve böylece ortak bir dağılımdan belirli bir dağılımın nasıl çıkarılacağını gösterir.

  • 00:10:00 Bu bölümde, bir değişkenin başka bir değişkene verilen olasılığıyla ifade edilen koşullu olasılık kavramı ele alınmaktadır. Dikey çubuk, kesir için referansı temsil eder ve pay, her iki değişkenin de doğru olduğu dünyaları temsil eder. Her iki değişkene sahip kişi sayısının oranının dikkate alındığı bu kavramı açıklamak için grafiksel bir gösterim kullanılır. Bu kavram, grip nedeniyle baş ağrısına sahip olma olasılığı gibi nadir görülen olayları belirlemek için kullanılır.

  • 00:15:00 Bu bölümde konuşmacı, sayma ve görselleştirme yöntemlerini kullanarak koşullu olasılıkların nasıl hesaplanacağını açıklar. Koşullu olasılık için genel denklem, belirli değişkenlere sahip dünyaların sayısını temsil eden iki alanın kesridir. Ortak olasılıklar ve marjinal olasılıklar kavramı tanıtılır ve ortak bir dağılımı koşullu olasılık ve marjinal olasılık olarak çarpanlarına ayırmamızı sağlayan zincir kuralı denklemi açıklanır. Konuşmacı ayrıca, gribe baş ağrısı verildiğinde gribe yakalanma olasılığının grip verildiğinde baş ağrısına sahip olma olasılığıyla aynı olduğunu varsaymak gibi yaygın bir hata konusunda uyarıda bulunur ve bunun neden yanlış olduğunu açıklar.

  • 00:20:00 Bu bölümde konuşmacı, semptomlara dayalı bir hastalık teşhisi bağlamında koşullu olasılığı araştırıyor. Koşullu bir olasılıktaki argümanların sırası önemlidir, çünkü sol taraf tahmin edilen şeydir ve sağ taraf bağlamdır. Konuşmacı bunu, gribin baş ağrısına neden olma olasılığını hesaplama örneğiyle açıklıyor. Grip ve baş ağrısına sahip olma ortak olasılığı, zincir kuralı kullanılarak hesaplanır ve daha sonra ortak olasılığın baş ağrısına sahip olma marjinal olasılığına bölünmesiyle koşullu olasılık elde edilir. Başka bir örnek, baş ağrısı, güneşli ve soğuk olmak üzere üç rasgele değişkenle verilmiştir. Güneşli verildiğinde baş ağrısı ve soğuğun koşullu olasılıklarının yanı sıra baş ağrısı ve soğuk verildiğinde güneşlinin ters koşullu olasılığı hesaplanır.

  • 00:25:00 Dersin bu bölümünde eğitmen, belirli bir bağlamda birden çok olay için ortak olasılıkların hesaplanmasını açıklar ve belirli durumlarda olasılıkların neden toplamının bir olmayabileceğini tartışır. Verilen örnekler, gün güneşli olsun veya olmasın, baş ağrısı ve soğuk algınlığı olasılığını içerir. Eğitmen daha sonra, olasılıkların toplamının bir olup olmayacağını belirlemek için dikey çubuğun sol tarafındaki tüm sonuçları dikkate almanın önemini vurgular ve olayların bağlamını değiştirmenin sonuçlanacağını varsaymak gibi yaygın bir hataya karşı uyarır. toplamı bir olan olasılıklarda.

  • 00:30:00 Bu bölümde eğitmen, makine öğrenimi ve çıkarım için kullanılan Bayes Kuralını açıklar. Bayes Kuralı, birbirini değiştiren argümanlar aracılığıyla iki koşullu olasılık arasındaki ilişkiyi hesaplamaya izin verir. İlk belirsizliği yakalayan bir önceki dağılımla birlikte kullanılır, ardından sonsal dağılımı elde etmek için önceki dağılımı revize etmek için kullanılan kanıt veya veri seti gelir. Bu kural ayrıca belirli veri kümelerini elde etme olasılığını ölçmek için kullanılabilir ve belirsizliği ölçen dağılımları gözden geçirerek öğrenme için etkili bir araç olabilir. Bayes Kuralı denklemi, öncekini kanıtlara bölmek yerine olasılıkla ve bir sabitle çarpmayı içerir.

  • 00:35:00 Dersin bu bölümünde konuşmacı, kanıt özelliğinin öğrenme perspektifinden bir normalleştirme sabiti olduğunu açıklar. Elde edilen sayıların 0 ile 1 arasında olması için payı normalleştirme amacına sahiptir. Bayes öğrenme süreci sonsal bir dağılım verir, ancak pratikte istenen, tahminlerde bulunmak için kullanılacak bir hipotezdir. Bunu yapmak için, karşılık gelen sonsal olasılıklarına göre ağırlıklandırarak tahminler yapmak için ağırlıklı bir hipotez kombinasyonu kullanılır.

  • 00:40:00 Bu bölümde, makine öğrenimi için farklı hipotezlerin ağırlıklarını tanımlamak üzere sonsal dağılımı kullanma kavramı tartışılmaktadır. Bir torba şekerdeki tatların oranını tahmin etmek için Bayes öğrenmesinin kullanılmasına ilişkin bir örnek verilmiş olup, burada önceki dağılım başlangıçta yapılan bir tahmindir ve kanıtlar, şekerleri yiyerek elde edilen verilere karşılık gelir. Sonsal dağılım, belirsizliği azaltmak ve tatların oranı hakkında bilgi edinmek için kullanılır. İlk inanç özneldir ve eğitimli bir tahmine dayanabilir.

  • 00:45:00 Dersin bu bölümünde, konuşmacı bir torba şekerdeki tatların oranını tahmin etmek için Bayesçi öğrenmeyi tartışıyor. Olabilirlik dağılımı, şekerlerin aynı ve bağımsız olarak dağıldığı varsayımına dayanarak hesaplanır. Bayes teoremini kullanarak ve önceki olasılığı olasılıkla çarparak, her hipotez için son olasılıkları veren sonsal dağılım elde edilir. Konuşmacı, sonsal dağılımları grafiksel olarak gösterir ve şu ana kadar yenen tüm şekerler kireç olduğunda, her şey kirecin hakim olduğu hipotezinin olasılığının nasıl olduğunu açıklar.

  • 00:50:00 Videonun istatistiksel öğrenmeyle ilgili bu bölümünde sunucu, şekerlerin bir torbadan rastgele çekildiği ve tatlarının not edildiği bir şeker torbası deneyinin sonuçlarını tartışıyor. Poşetin lezzet oranıyla ilgili hipotez, gözleme dayalı olarak güncellenir ve olasılık hesaplanır. Torbanın sadece kiraz içerdiği hipotezinin kireç gözlendiğinde sıfıra düştüğü, %75 kireç ve %25 kiraz hipotezinin olasılığının kireçle arttığı ancak dört şekerlemeden sonra tekrar düştüğü görülmektedir. Sunucu ayrıca, her hipotez için seçilen ilk olasılığın önceki inancı temsil ettiğini ve seçimin uzmanın inancına bağlı olarak öznel olduğunu açıklar. Son olarak sunum yapan kişi, kullanıcılara anlamlı bilgiler sağlamak için sonsal dağılımı kullanarak tahminlerde bulunmanın önemini vurgular.

  • 00:55:00 Dersin bu bölümünde, konuşmacı Bayes öğrenmesini ve özelliklerini tartışır. Önceki doğru olduğu ve tahminlerde bulunmanın ilkeli bir yolunu sağladığı sürece Bayes öğrenmesi optimal kabul edilir. Ek olarak, makine öğreniminde önemli bir sorun olan fazla uydurmaya karşı genellikle bağışıktır. Bununla birlikte, Bayesci öğrenmenin ana dezavantajı, özellikle büyük hipotez uzaylarıyla uğraşırken, genellikle zor olmasıdır. Bu, sonsal dağılımın ve tahminin hesaplanmasını sorunlu hale getirir.

  • 01:00:00 Bu bölümde, Bayes öğrenme ile izlenebilirlik sorununa bir çözüm olarak yaklaşık Bayes öğrenme kavramı tanıtılmaktadır. Maksimum a-posteriori, posteriorda en yüksek olasılığa sahip hipotezi seçmeyi ve buna dayalı tahminler yapmayı içeren yaygın bir yaklaşımdır. Bu yaklaşım, aşırı uydurmayı kontrol edebilir ancak ortadan kaldıramaz ve tek bir hipoteze dayandığından Bayes tahmininden daha az doğrudur. Maksimum olasılık, verilere en iyi uyan hipotezi seçmeyi içeren ve önceki olasılıkları kullanmayan, Bayes öğrenmesinden daha basit ama daha az kesin hale getiren başka bir yaklaşımdır. Her iki yaklaşım da inatçılık problemini çözer, ancak onu optimizasyon sorunları ile değiştirir.

  • 01:05:00 Videonun bu bölümünde eğitmen, verilere en iyi uyan hipotez olan maksimum olasılık kavramını açıklıyor. Ancak bu, fazla takmaya yol açabilecek gürültü de dahil olmak üzere her şeyi takmayı içerebilir. Olabilirliği en üst düzeye çıkarmak, hesaplamaları basitleştirebilirken, Bayesian ve MAP tahminlerinden daha az doğru tahminlere yol açar. Olabilirliği en üst düzeye çıkarmaktan kaynaklanan optimizasyon problemi hala anlaşılmaz olabilir, ancak kurstaki birçok algoritma istatistiksel bir bakış açısıyla olasılığı en üst düzeye çıkaracaktır. Son olarak, eğitmen, öğrenme teorisi alanına ait olan ve hipotez uzayının boyutuna göre öznel olan farklı problemler için ne kadar veriye ihtiyaç duyulduğu sorusunu tartışır.

  • 01:10:00 Bu bölümde konuşmacı dersi bitirir ancak bir sonraki derste ödev için önemli olacak birkaç slayt daha ele alacağından bahseder. Ayrıca, bazı oranlar gerçekleştirilemez olsa bile, algoritmanın yine de verilen alan içinde bir tahmin yapmada en iyi olan hipoteze yakınsayacağından bahseder.
 

CS480/680 Ders 5: İstatistiksel Lineer Regresyon



CS480/680 Ders 5: İstatistiksel Lineer Regresyon

İstatistiksel doğrusal regresyon hakkındaki bu derste profesör, maksimum olasılık kavramı ve gürültülü, bozuk veriler için Gauss olasılık dağılımları ile başlayarak çok sayıda konuyu ele alıyor. Veri kümesindeki tüm veri noktaları için maksimum olasılığı veren ağırlıkların bulunmasında maksimum olabilirlik tekniklerinin kullanımını açıklarlar. Ders daha sonra maksimum a-posteriori (MAP), küresel Gauss ve kovaryans matrisi fikrini derinlemesine araştırır. Konuşmacı ayrıca a priori bilginin kullanımını ve düzenlemeyi tartışır. Doğrusal regresyonda beklenen hata daha sonra iki terime bölünür: biri gürültüyü hesaba katar ve diğeri sapma ve varyansa bölünebilen ağırlık vektörü W'ye bağlıdır. Ders, sonsal dağılımı hesaplamak için Bayesci öğrenmenin kullanımına ilişkin bir tartışmayla sona erer. Genel olarak, ders, istatistiksel doğrusal regresyonla ilgili çok çeşitli konuları kapsar ve tahmin hatasını azaltmak için modelleri optimize etme konusunda değerli bilgiler sağlar.

Ders, daha fazla veri noktası gözlendikçe gerçek ağırlık kümesine yakınsayan bir sonsal dağılımı tahmin eden Bayes regresyonuna odaklanır. Önceki dağılımın, W sıfır ve W1 çiftleri üzerindeki bir dağılım olduğu ve çizgilerin bir dağılımı olduğu gösterilmiştir. Bir veri noktasını gözlemledikten sonra, önceki dağılım ve olasılık dağılımları kullanılarak sonsal dağılım hesaplanır ve çizginin konumu hakkında güncellenmiş bir inanç elde edilir. Tahminler yapmak için, hipotezlerin tahminlerinin ağırlıklı bir kombinasyonu, sonsal dağılıma dayalı olarak alınır ve bu, belirli formüller tarafından verilen bir ortalama ve varyans ile bir Gauss tahminine yol açar. Gerçek bir nokta tahmini elde etmenin püf noktası, Gauss tahmininin ortalamasını almaktır.

  • 00:00:00 Bu bölümde, lineer regresyon bağlamında maksimum olasılık ve maksimum rakip tasavvuru öğrenme kavramları tanıtılmaktadır. Verilerin gürültülü ve bozuk ölçümlerden geldiği varsayılır. Gözlemlenen çıktı, bazı gürültü eklenmiş temel işlevin çıktısının bozuk bir sürümüdür. Gaussian'ın gürültüyü gösterdiği varsayılır. Veri kümesindeki her girdi için belirli bir çıktıyı ölçme olasılığını belirlemek için bir olasılık dağılımı ifade edilir. Bu anlayış, düzenleme için daha iyi seçimler yapılmasına yardımcı olur.

  • 00:05:00 Dersin bu bölümünde profesör Gauss dağılımını lineer regresyon bağlamında tartışıyor. Temel işlevin doğrusal ve deterministik olduğu varsayıldığında, ortaya çıkan dağılımın, W devrik X'e eşit bir ortalamaya ve Sigma kareye eşdeğer bir varyansa sahip Gauss olduğunu açıklarlar. Daha sonra, Sigma karesi tarafından belirlenen eğrinin genişliği ile ortalama etrafındaki değerleri ölçme olasılığının daha yüksek olduğunu göstermek için Gauss dağılımının bir grafiğini çizerler. Profesör, bunun olasılık fonksiyonu olduğunu ve veri kümemizdeki tüm veri noktaları için maksimum olasılığı veren W'yi bulmak için maksimum olasılık tekniklerini kullanabileceğimizi belirtiyor.

  • 00:10:00 Bu bölümde öğretim görevlisi, gözlemlenen Y'lerin belirli bir X girişi ve varyanslı bir gürültü seviyesi Sigma ile optimize edilmesiyle başlayarak, istatistiksel doğrusal regresyon için en iyi modelin nasıl seçileceğini açıklar. Öğretim görevlisi daha sonra, doğal günlüğü alıp ilgisiz faktörleri kaldırarak bu ifadenin nasıl basitleştirileceğini ve dışbükey bir hedefe yeniden ölçeklendirileceğini gösterir. Sonuç, doğrusal regresyonda noktalar ve çizgi arasındaki mesafeyi en aza indirmek için sezgisel yaklaşımı gösteren orijinal en küçük kareler problemidir.

  • 00:15:00 Bu bölümde, konuşmacı istatistiksel perspektifi ve Gauss gürültüsüne sahip bir model varsayarak ölçümleri gözlemleme olasılığını en yüksek verecek W'nin nasıl bulunacağını tartışır. Optimizasyon problemi matematiksel olarak eşdeğerdir ve bu yaklaşıma daha fazla güven verir. Sigma'yı toplamdaki her terimden çıkarmak, matematiksel olarak onu toplamdan çıkarmaya eşdeğerdir ve W seçildiğinde her bir ölçüm için aynı gürültünün mevcut olduğu varsayımına izin verir. Konuşmacı ayrıca, en iyi çözümü bulmak için gürültü için bir modele sahip olmanın ve onu sabit tutmak için tekrarlanan deneylere dayalı Sigma'yı tahmin etmenin önemli olduğundan bahseder. Sonsal dağılım, olasılık ve bir normalizasyon sabiti ile öncekinin çarpımı olarak sonsalın hesaplanmasıyla, sonda en yüksek olasılığa sahip olan W'nin bulunmasıyla hesaplanır.

  • 00:20:00 Dersin bu bölümünde eğitmen maksimum a-posteriori (MAP) kavramını ve bunun maksimum olasılıktan nasıl farklı olduğunu tartışır. MAP, belirsizliği azaltan hipotezin dağılımını iyileştirmek için hesaplamaya önceki dağılımı dahil etmeyi içerir. Eğitmen, ağırlık vektörü (W) için bir Gauss ön dağılımının nasıl tanımlanacağını ve çok değişkenli Gauss'un PDF'sinin nasıl hesaplanacağını açıklar. Eğitmen ayrıca Gauss dağılımının şeklini göstermek için kontur çizgileri çizme örneği sağlar.

  • 00:25:00 Dersin bu bölümünde eğitmen küresel Gauss kavramını ve bunun kovaryans matrisiyle nasıl bir ilişkisi olduğunu açıklar. Kovaryans matrisinin köşegen girişleri, her bir ağırlığın varyansını temsil ederken, köşegen dışı girişler, ağırlıklar arasındaki kovaryansı temsil eder. Eğitmen daha sonra, kovaryans matrisinin tersinin lambda çarpı birim matrise eşit olduğunu varsayarak, bir türev kullanarak posteriorun maksimumunun nasıl bulunacağını gösterir. Bu şekilde, ifade düzenlileştirilmiş en küçük kareler problemine eşdeğerdir ve ceza terimi lambda çarpı W'nin kare normunun karesidir. Düzenlileştirme terimi artık yeni bir şekilde yorumlanarak, önceki dağılımdan geldiğini açıkça ortaya koyabilir. ve W normunu en aza indirmenin, ağırlıkları dağılımın ortalamasına yaklaştırmaya eşdeğer olduğu.

  • 00:30:00 Bu bölümde konuşmacı, istatistiksel lineer regresyonda bir kovaryans matrisi seçmek için önsel bilginin kullanımını tartışıyor. Çözümlerin sıfıra yakın olması gerektiğini öne süren bir bilgi varsa, o zaman belirli bir dağılıma sahip çan şeklindeki bir dağılımla tanımlanan bir kovaryans matrisi ile sıfır ortalamanın önsel değeri kullanılır. Olasılığı en üst düzeye çıkarmak, bu önceliği kullanırken ceza süresi ile normalleştirilmiş hedefi en aza indirmekle eşdeğerdir. Gauss'un küresel bir şekle sahip olmadığı, ancak daha genel bir şekle sahip olduğu durumlarda, her boyut için yarıçap farklıdır, yani köşegen girişlerinde farklı değerler vardır. Bir kovaryans matrisinin, pratikte iyi çalışma eğiliminde olan, her yönde aynı genişliğe sahip köşegen bir forma sahip olduğunu varsaymak mantıklıdır.

  • 00:35:00 Bu bölümde konuşmacı, karesel kaybı minimuma indirgeme ve a posteriori hipotezi maksimize etme yaklaşımlarının nasıl potansiyel olarak farklı kayıp sonuçlarına yol açabileceğini tartışıyor. Bu bölüm, kayıp fonksiyonunu analiz eder ve beklenen kaybı iki farklı terime ayırır. Lambda seçimi çözümü ve dolayısıyla beklenen kaybı etkiler. Konuşmacı daha sonra belirli bir W'nin nasıl beklenen bir kayba yol açabileceğinin matematiksel türevini ve bu kaybın iki farklı terime nasıl ayrıştırılabileceğini gösterir. Analiz, örnek bir veri kümesine ve temel dağılıma dayanmaktadır ve sonuçlar, belirli bir W'nin beklenen kaybını ve değişen lambdanın etkisini anlamak için kullanılabilir.

  • 00:40:00 Dersin bu bölümünde, konuşmacı bir lineer regresyon modelinde beklenen hatanın türetilmesini açıklar. Beklenen hata iki terime ayrılır: biri gürültüyü açıklayan, diğeri ise ağırlık vektörü W'ye bağlı olan. Bu ikinci terim, yanlılık karesine ve varyansa ayrıştırılabileceğini göstermek için daha da genişletilebilir. . Önyargı, modelin çıktısı ile yaklaşık olarak tahmin edilen gerçek temel işlev arasındaki ortalama farkı ölçerken, varyans, modelin çıktılarının ortalamaları etrafındaki değişkenliğini ölçer. Önyargı ve varyansın beklenen hataya katkılarını anlayan veri bilimcileri, tahmin hatasını azaltmak için modellerini daha iyi optimize edebilir.

  • 00:45:00 Dersin bu bölümünde, profesör beklenen kaybın üç terime ayrılmasını açıklıyor: gürültü, varyans ve yanlılığın karesi. Bu, x ekseninin atamadaki düzenleme teriminin ağırlığı olan lambda olduğu bir grafiğe götürür. Lambda arttıkça, hata başlangıçta azalır ve sonra tekrar artar. Beklenen kayıp, gürültü artı varyans artı yanlılığın karesinden oluşur. Grafik, varyans artı yanlılığın karesi eğrisinin, varyans ve yanlılığın karesi için bireysel eğrilerin toplamı olduğunu gösterir. Çapraz doğrulama, elde edilen hatayı kontrol edebilen en iyi lambda değerini bulmak için kullanılırken, beklenen kayıp ile gerçek kayıp arasındaki fark, her durumda mevcut olan gürültüdür.

  • 00:50:00 Bu bölümde öğretim görevlisi, farklı veri kümeleriyle maksimum a-posteriori öğrenmenin uygulanmasından elde edilen farklı eğrilerin sapma ve varyans ile nasıl ilişkili olduğunu göstermek için doğrusal olmayan regresyona bir örnek verir. Öğretim görevlisi, lambda azaldıkça yanlılığın azaldığını ve varyansın arttığını açıklar. Amaç, eğride gösterildiği gibi, yanlılık ve varyans arasında en iyi değiş tokuşu veren bir lambda bulmaktır. Öğretim üyesi ayrıca hatanın mesafenin karesi olarak ölçüldüğünden ve lambda'nın düzenlileştirmede kullanılan bir parametre olduğundan bahseder.

  • 00:55:00 Bu bölümde öğretim görevlisi mesafelerin karesini en aza indirme ve lambda'nın ceza teriminin ağırlığı olduğu bir ceza terimi ekleme fikrini tartışıyor. Değişen lambda sapmayı ve varyansı etkiler, farklı optimal W değerlerine yol açar ve beklenen kayıp lambdanın bir fonksiyonu olarak düşünülebilir. Bayesci öğrenme, bir önceki ile başlayarak sonsal dağılımı hesaplamayı ve makine öğrenimi yoluyla belirsizliği azaltmayı gerektirir. Arka dağılım, bir Gauss öncesi ile bir Gauss olasılığı çarpılarak hesaplanır ve bir Gauss arkası elde edilir.

  • 01:00:00 Bu bölümde Bayes regresyon kavramı, bir doğruyu temsil edebilen w'ler uzayında bir Gauss önsel dağılımı yardımıyla açıklanmaktadır. Önceki dağılımın, w naught ve w1 çiftleri üzerindeki bir dağılım olduğu ve çizgilerin bir dağılımı olduğu gösterilmiştir. Ardından, tek bir veri noktası gözlemlendikten sonra, önceki ve olabilirlik dağılımları çarpılarak bir sonsal dağılım hesaplanır. Ortaya çıkan arka dağılım, sırt boyunca uzar ve biraz yuvarlaktır ve bu nedenle, çizginin konumuna ilişkin güncellenmiş görünüm haline gelir.

  • 01:05:00 bu bölümde öğretim görevlisi, Bayesci öğrenmenin daha fazla veri noktası gözlendikçe gerçek ağırlıklar kümesine yaklaşan bir sonsal dağılımı nasıl tahmin ettiğini açıklıyor. Kırmızı çizgiler, veri alanında karşılık gelen bir satırı tanımlayan ağırlıklara göre bir dağılım olan karşılık gelen sonsal dağılımdan örnekleri temsil eder. Bununla birlikte, nihai sonsal dağılıma dayalı olarak tahminlerin nasıl yapılacağına dair hala bir soru var.

  • 01:10:00 Bu bölümde, konuşmacı, her hipotez tarafından yapılan tahminlerin ağırlıklı bir kombinasyonunu almayı içeren Bayes öğrenmeyi kullanarak nasıl tahminde bulunulacağını açıklar. Tahmin yeni bir girdi için yapılır ve ağırlıklar sonsal dağılımla belirlenir. Konuşmacı, belirli formüllerle verilen bir ortalama ve varyans ile bir Gauss öngörüsüne varmak için bir Gauss sonsalını ve olasılığını kullanır. Son olarak, gerçek bir nokta tahmini elde etmenin yaygın bir hilesi, Gauss tahmininin ortalamasını almaktır.
 

CS480/680 Ders 6: Anket araçları (Paulo Pacheco)



CS480/680 Ders 6: Anket araçları (Paulo Pacheco)

Bu videoda Paulo Pacheco, anketler için iki akademik araç sunuyor: Google Scholar ve RefWorks. Google Akademik kullanarak akademik makalelerin nasıl aranacağını ve alıntılara göre nasıl sıralanacağını açıklıyor ve daha yeni olanlar için eski makaleleri filtrelemeyi öneriyor. Pacheco, alıntıları dışa aktarmanın ve yönetmenin önemini vurgular ve bu görev için bir araç olarak RefWorks'ü sunar. Ayrıca, yaratıcı anahtar kelime aramalarını kullanma ve potansiyel olarak üniversite ağ erişimi veya bir VPN gerektirme dahil olmak üzere akademik yayınlara erişim için ipuçları sağlar.

  • 00:00:00 Bu bölümde, Paulo Pacheco anket yapmak için iki araç sunuyor: Google Scholar ve kütüphanenin RefWorks'ü. Akademik makaleleri aramak ve yaklaşık olarak alıntılara göre sıralamak için Google Akademik'in nasıl kullanılabileceğini açıklıyor. Ayrıca eski makaleleri nasıl filtreleyeceğinizi ve daha yeni olanlara nasıl odaklanacağınızı da önerir. Pacheco, akademik çalışma için alıntıları dışa aktarmanın ve yönetmenin önemini vurguluyor ve bu süreçte yardımcı olabilecek bir araç olarak RefWorks'ten bahsediyor.

  • 00:05:00 Bu bölümde konuşmacı, özellikle Google Scholar ve Waterloo Üniversitesi kütüphanesi aracılığıyla akademik yayınlara erişim için çeşitli araçları ve ipuçlarını tartışıyor. Google Akademik'in ilgili makaleleri bulmak ve bunları yıl veya alıntı sayısına göre sıralamak için nasıl kullanılabileceğini açıklıyor ve ayrıca tam metinlere erişmenin üniversite ağ erişimi veya bir VPN kullanımını gerektirebileceğini belirtiyor. Ayrıca, ilham ve yüksek kaliteli kaynaklar bulmak için "NLP için harika veri kümeleri" veya "bilgisayar görüşü için harika bağlantılar" gibi yaratıcı bir anahtar kelime araması kullanmanızı önerir.
 

CS480/680 Ders 6: Kaggle veri kümeleri ve yarışmalar



CS480/680 Ders 6: Kaggle veri kümeleri ve yarışmalar

Derste, veri bilimi uygulayıcılarının nakit para ödülü için sağlanan veri kümelerini kullanarak sponsorlu yarışmalarda rekabet edebilecekleri, makine öğrenimi modeli eğitimi ve veri özellik çıkarma için çekirdekler sunan ve algoritma tasarlamada kullanılmak üzere yaklaşık 17.000 veri kümesinden oluşan geniş bir seçim sunan bir topluluk olan Kaggle tartışılıyor. Öğretim görevlisi ayrıca şirket GitHub depolarının yarışmalar için değerli veri kümeleri, kodlar ve yayınlanmış makaleler sağlayabileceğini de belirtiyor.

  • 00:00:00 Bu bölümde öğretim görevlisi, veri bilimi pratisyenlerinin bir veri seti ve para ödülü sağladıkları özel şirketler tarafından desteklenen yarışmalarda yarışabilecekleri bir veri bilimi topluluğu olan Kaggle'dan bahsediyor. Katılımcılar verileri indirebilir, makine öğrenimi algoritmalarını eğitebilir ve tahminleri veri kümesi için en iyisiyse kazanmak için yarışmaya tahminler gönderebilir. Kaggle ayrıca, farklı kullanıcılar tarafından gönderilen, özellik çıkarma veya bazı veriler üzerinde belirli bir model türünü eğitme konusunda yardımcı olan çekirdekler, kod parçacıkları sağlar. Yarışmalara ve çekirdeklere ek olarak Kaggle, aklınıza gelebilecek tüm disiplinleri kapsayan yaklaşık 17.000 veri seti sağlar. Kullanıcılar, bir algoritma tasarlamak için ihtiyaç duydukları varsayımları karşılayabilecek bir veri kümesi bulmak için biraz araştırma yapabilir.

  • 00:05:00 Bu bölümde konuşmacı, çeşitli yarışmalar için veri kümelerinin bulunabileceği bazı kaynakları tartışıyor. Kaggle'dan harika bir veri seti kaynağı olarak bahsediyor. Ayrıca, kodu çalıştırmak için kullanılabilecek verilerle birlikte ücretli kodların ve yayınlanmış belgelerin bulunduğu şirket GitHub depolarına bakmayı da önerir. Bu, yüksek kaliteli veri kümeleri elde etmek için değerli bir kaynak olabilir.
 

CS480/680 Ders 6: Akışları normalleştirme (Priyank Jaini)



CS480/680 Ders 6: Akışları normalleştirme (Priyank Jaini)

Video, bilinen bir dağılımı bilinmeyen bir ilgilenilen dağılıma dönüştürmek amacıyla bir dağılımı diğerine dönüştürme işlevini öğrenen bir teknik olan derin üretken modellerdeki normalleştirme akışlarına bir giriş sağlar. Videoda ayrıca akışları normalleştirmeyle ilgili farklı makaleler ve ilerlemeler üzerinde bir anket yürütmek ve tek bir Gauss'un Gauss karışımına dönüşümünü analiz etmek de dahil olmak üzere akışları normalleştirmeyle ilgili olası araştırma projeleri tartışılıyor. Öğretim görevlisi, akışları normalleştirmenin birçok farklı uygulamasının araştırılmasını teşvik eder.

  • 00:00:00 Bu bölümde, konuşmacı derin üretken modellerde akışları normalleştirmeye giriş sağlar. Bir dağılımı öğrenmek, makine öğreniminin önemli bir yönüdür ve konuşmacı, akışları normalleştirmenin, bir dağılımı diğerine dönüştürmek için bir işlevi öğrenen bir teknik olduğunu açıklar. Amaç, Gauss dağılımı gibi bilinen bir dağılımı bilinmeyen bir ilgilenilen dağılıma dönüştürmektir. Uygulamada, bu dönüşüm için bir sinir ağı kullanılır ve araştırma odağı, istenen dağılımı elde etmek için sinir ağlarını tasarlamak olmuştur.

  • 00:05:00 Bu bölümde öğretim görevlisi, makine öğreniminde son yıllarda çokça ilgi gören bir konu olan normalleştirme akışlarıyla ilgili olası araştırma projelerini tartışıyor. Proje fikirlerinden biri, potansiyel olarak yayınlanabilecek akışları normalleştirmeyle ilgili farklı makaleler ve ilerlemeler hakkında bir anket yapmaktır. Başka bir fikir, belirli işlevleri kullanarak tek bir Gauss'un bir Gauss karışımına dönüşümünü ve bunun üstel ve öğrenci T dağılımları gibi diğer dağılımlara nasıl genişletilebileceğini analiz etmektir. Öğretim görevlisi ayrıca finansal sermaye piyasalarındaki ağır kuyruklu davranışları yakalamada teorik olarak açık soruları vurgular. Genel olarak, öğretim görevlisi akışları normalleştirmenin birçok farklı uygulamasını keşfetmeyi teşvik eder ve ilgili öğrencileri akış hakkında daha fazla bilgi için onlarla iletişime geçmeye davet eder.
 

CS480/680 Ders 6: Denetimsiz sözcük çevirisi (Kira Selby)



CS480/680 Ders 6: Denetimsiz sözcük çevirisi (Kira Selby)

Videoda, herhangi bir diller arası bilgi veya sözlük eşleştirmesi olmadan bir dilden diğerine çeviri yapmak için bir makine öğrenimi modelinin eğitilmesini içeren denetimsiz kelime çevirisi ele alınmaktadır. Muse modeli, diller arası herhangi bir bilgi olmadan yüzlerce dilde son teknoloji doğruluk elde edebilen ve performansta denetimli modellere yaklaşan bir yaklaşım olarak tanıtıldı. Denetimsiz sözcük çevirisi işlemi, GAN veya üretken çekişmeli ağlar kullanarak farklı dil sözcüklerinin gömme alanlarını çeviren bir matris kullanır. Bu iki modeli birbirine karşı eğiterek, iki dağılımı bir uzaya eşlemenin bir yolu oluşturulur ve daha iyi çeviri sonuçları sağlanır. Modeller kelimeden kelimeye çevirilerde %82,3 doğruluk elde edebilmektedir.

  • 00:00:00 Bu bölümde öğretim görevlisi, herhangi bir diller arası bilgi veya sözlük eşleştirmesi olmadan bir dile ve dilden çeviri yapmak için bir makine öğrenimi modelinin eğitilmesini içeren denetimsiz sözcük çevirisi konusunu tartışır. Öğretim görevlisi, sözcüklerin bir modelin parçası haline gelebilecek vektörlere dönüştürüldüğü sözcük yerleştirme kavramını açıklar. Öğretim görevlisi, doğrusal bir dönüşümün farklı dillerin vektör uzaylarını birbirine bağlayabileceğine dair basit bir hipotez kullanan Muse modelini tanıtır. Muse, diller arası herhangi bir bilgi olmadan yüzlerce dilde son teknoloji doğruluk elde edebilir ve performansta denetimli modellere yaklaşır.

  • 00:05:00 Bu bölümde Kira Selby, farklı dil kelimelerinin gömülü boşluklarını çeviren bir matris kullanarak denetimsiz kelime çevirisi sürecini açıklıyor. Matris, bir dil uzayından başka bir dil uzayına dönüştürülmüş bir dizi vektörü karşılaştırabilir. Amaç, çevirileri elde etmek için çakışan dil boşluklarına ulaşmaktır. Bu süreç, üreticinin bir kaynak uzay vektörünü alan ve bir hedef uzay vektörü sağlayan u matrisi olduğu GAN veya üretken çekişmeli ağları kullanır. Bu arada ayrımcı, bir dizi vektörün gerçek Fransız verilerinden mi yoksa model tarafından oluşturulan yaklaşık Fransız verilerinden mi olduğunu söylemeyi öğrenir. Bu iki modeli birbirine karşı eğiterek, iki dağılımı bir uzaya eşlemenin bir yolu oluşturulur ve daha iyi çeviri sonuçları sağlanır. Modeller, kelimeden kelimeye çevirilerde %82,3 doğruluk elde edebilir, ancak İngilizce'den Farsçaya, Hintçe'ye, Japonca'ya ve Vietnamca'ya kadar pek çok dilde henüz bir araya gelmemiştir.
 

CS480/680 Ders 6: Gerçekleri kontrol etme ve pekiştirmeli öğrenme (Vik Goel)



CS480/680 Ders 6: Gerçekleri kontrol etme ve pekiştirmeli öğrenme (Vik Goel)

Bilgisayar bilimcisi Vik Goel, gerçek zamanlı çevrimiçi haberlerde takviyeli öğrenmenin uygulanmasını tartışıyor ve gerçek zamanlı olarak destekleyici kanıtlar eklemek için bir öneri sistemi kullanmayı öneriyor. Bir alıntının nerede gerekli olduğunu tahmin edecek bir sınıflandırıcıyı eğitmek için veri kaynağı olarak geniş bir akademik makale külliyatının kullanılmasını önerir. Ek olarak Goel, araştırmacıların süreci hızlandırmak ve video oyunlarındaki farklı nesneleri tanımak için insan önceliklerini pekiştirmeli öğrenme modellerine nasıl kodlamaya başladığını açıklıyor. Bu, ek önceliklerin öğrenme sürecini iyileştirebileceği umut verici bir araştırma alanı sunar.

  • 00:00:00 Dersin bu bölümünde Vik Goel, çevrimiçi haberleri doğrulamak için pekiştirmeli öğrenmeyi kullanma fikrini tartışıyor. Google'ın, haber makalelerinin doğruluğunu belirlemek için sınıflandırma modellerini eğitmek için kullanılabilecek bir bilgi doğrulama web siteleri veri kümesi derlediğini açıklıyor. Bununla birlikte, çoğu haber makalesinde metin içi alıntılar bulunmadığından Goel, destekleyici kanıtları gerçek zamanlı olarak eklemek için bir öneri sistemi geliştirmeyi öneriyor. Veri kaynağı olarak geniş bir akademik makale külliyatı kullanmayı ve her makalenin neresinde alıntı yapılması gerektiğini tahmin etmek için bir sınıflandırıcı eğitmeyi öneriyor. Bir öneri sisteminin uygulanması, daha sonra hangi kaynakların alıntılanması gerektiğini önerebilir ve yanlış bilgilerin çevrimiçi olarak yayılmasını önlemeye yardımcı olabilir.

  • 00:05:00 Bu bölümde, bilgisayar bilimcisi Vik Goel, bir temsilcinin bir ortamdaki ödülleri en üst düzeye çıkararak bir hedefe ulaşmaya çalıştığı pekiştirmeli öğrenme kavramını açıklıyor. Mevcut modeller, ortamla milyonlarca etkileşime giriyor ve bu da video oyunları oynamayı öğrenmeyi zorlaştırıyor. Süreci hızlandırmak için araştırmacılar, insan önceliklerini modellere kodlamayı keşfetmeye başladı ve bu da aracıların oyundaki farklı nesneleri anlamasını ve tanımasını sağlıyor. Bu yaklaşım, bilim adamlarının öğrenme sürecini önemli ölçüde iyileştirmek için daha fazla öncelik ekleyebilecekleri geniş bir araştırma alanı sunar.
 

CS480/680 Ders 6: Toplam-çarpım ağları (Pranav Subramani)



CS480/680 Ders 6: Toplam-çarpım ağları (Pranav Subramani)

Ders, üstel olmayan çalışma süreleri sağlayan izlenebilir olasılıksal modelleme için kullanılan ve yorumlanabilirlik ve kolay marjinal yoğunluk hesaplaması gibi birçok uygulamaya sahip toplamlar ve ürünlerden oluşan ağlar olan toplam-çarpım ağları (SPN) kavramlarını tartışır. Video ayrıca SPN'nin evrişimli sinir ağları ile mükemmel performansından, GAN'lar ve değişken su kodlayıcılar gibi modellerle birleştirildiğinde daha iyi üretken modeller oluşturma potansiyelinden ve rakip sağlamlık, takviyeli öğrenme senaryoları ve beklenen yardımcı programların modellenmesi dahil olmak üzere SPN'ler için kullanılmayan potansiyel araştırma alanlarından bahseder. oyunlarda. Modeli yorumlamanın teorik garantisi ve akademisyenlerin makine öğrenimi alanında önemli katkılar yapma fırsatı da vurgulandı.

  • 00:00:00 Bu bölümde, konuşmacı, toplamlardan ve çarpımlardan - dolayısıyla 'toplam-çarpım'dan oluşan ağlar olan bazı çarpım ağlarını kullanan izlenebilir olasılıksal modellemeyi tartışıyor ve olasılık fonksiyonunu şu sonuçları verecek şekilde modellemenin izlenebilir bir yolu. üstel olmayan çalışma süreleri. Büyüklüğüne rağmen, toplam çarpım ağı modelleri ifade, yorumlanabilirlik, kolay marjinal yoğunluk hesaplaması, MAP sorgu hesaplaması ve olasılık hesaplaması açısından süper kullanışlıdır ve aynı zamanda Evrişimli Sinir Ağları ile birlikte mükemmel performans gösterir. Bu modellerin, son teknoloji ürünü yaklaşık %10 oranında daha iyi performans gösterebildiği ve daha iyi üretken modeller oluşturmak için Gans ve değişken su kodlayıcılar gibi diğer modellerle birleştirilebildiği gösterilmiştir.

  • 00:05:00 Bu bölümde, konuşmacı bazı ürün ağları (SPN'ler) için potansiyel araştırma alanlarını tartışıyor. Konuşmacı önce "Af veri kümesi" gibi modellerin ve veri kümelerinin yorumlanmasına izin veren bazı etik özellikleri tanıtıyor. Sinir ağlarından farklı olarak, bu model, modelin ne yaptığını bir dereceye kadar yorumlamaya izin veren teorik bir garanti sağlar. SPN'ler için bazı potansiyel araştırma alanları, SPN'ler için birincil kitaplığın üzerine özellikler oluşturma, rakip sağlamlık, bazı maksimum ürün ağlarıyla pekiştirmeli öğrenme senaryoları ve oyunlarda beklenen yardımcı programların modellenmesini içerir. Bu araştırma alanları çoğunlukla kullanılmamaktadır ve akademisyenlere makine öğrenimi alanında önemli katkılar yapma fırsatı sunmaktadır.
 

CS480/680 Ders 6: EM ve karışım modelleri (Guojun Zhang)



CS480/680 Ders 6: EM ve karışım modelleri (Guojun Zhang)

CS480/680 Ders 6'da Profesör Guojun Zhang, denetimsiz öğrenme ve kümelemenin temellerini tartışıyor, karışım modellerine ve bunların kümeleme verilerinde kullanımına odaklanıyor. Ders, Beklenti-Maksimizasyon algoritması ve onun Estep ve Mstep süreçlerinin yanı sıra bir optimizasyon yöntemi olarak gradyan inişine odaklanır. Önerilen potansiyel proje, nihai amaç, kötü yerel minimumlardan kaçınmak için daha iyi bir algoritma önermek olan, öğrenme karışımı modellerinde EM ve gradyan inişinin nasıl davrandığını incelemeyi içerir. Proje için gerekli olan matematiksel bir arka plan not edilir.

  • 00:00:00 Bu bölümde Cody, denetimsiz öğrenme ve kümelemenin temellerini ve bunun karma modellerle nasıl ilişkili olduğunu tanıtıyor. Karışım modeli, bir olasılık dağılımını koşullu dağılımların dışbükey bir kombinasyonu olarak tanımlamanın bir yoludur. Örneğin, verileri kümelemek için Gauss dağılımlarının karışımı ve Bernoulli dağılımlarının karışımı kullanılabilir. Karışım modellerine bir çözüm bulmak için, minimize edecek bir amaç fonksiyonu formüle etmemiz gerekir. Bunun için klasik algoritma Beklenti-Maksimizasyon algoritmasıdır.

  • 00:05:00 Bu bölümde öğretim üyesi, karışım modellerinin optimizasyonunda sonsal dağılımın değerlendirilmesinde ve q fonksiyonunun maksimize edilmesinde kullanılan Estep ve Mstep işlemlerinden bahseder. Gradyan iniş, tartışılan başka bir optimizasyon algoritmasıdır ve optimizasyon sürecinde alınamayan bazı kümelerin olabileceğine dikkat çekilmektedir. Önerilen potansiyel proje, öğrenme karışımı modellerinde EM ve gradyan inişinin nasıl davrandığını ve nihai hedef daha iyi bir algoritma önermek üzere kötü yerel minimumlardan kaçınmanın bir yolu olup olmadığını incelemektir. Öğretim görevlisi, bu proje için matematiksel bir altyapının gerekli olduğunu belirtiyor.
Neden: