Makine Öğrenimi ve Sinir Ağları - sayfa 14

 

Ders 22: Dış Yönlendirme, Pozisyon ve Yönlendirmeyi Kurtarma, Demet Ayarı, Nesne Şekli



Ders 22: Dış Yönlendirme, Pozisyon ve Yönlendirmeyi Kurtarma, Demet Ayarı, Nesne Şekli

Ders, kameraların konumu ve yönünün 3 boyutlu bir ortamda belirlendiği fotogrametride dış yönlendirme kavramını araştırıyor. Öğretim görevlisi, işaretlerin üçgen kuralını ve kosinüs kuralını kullanarak bir nesnenin konumunu ve yönünü kurtarma gibi dış yönelimle ilgili problemleri çözmek için çeşitli yöntemleri tartışır. Video ayrıca, 3B nesneleri temsil etmek ve bunları bilgisayar görüşünde hizalamak için genelleştirilmiş silindirlerin ve kafeslerin kullanımını araştırıyor. Öğretim görevlisi ayrıca, keyfi şekle sahip dışbükey nesneleri bir birim küreye eşleme yöntemi olan genişletilmiş Gauss görüntüsünü tanıtır ve dışbükey olmayan nesneleri işleme konusundaki sınırlamalarını açıklar. Ek olarak video, doğrusal olmayan optimizasyona ve bunun fotogrametri için doğru 3B modeller oluşturmadaki uygulamasına değiniyor.

Ders, eğrilerin parametreleştirilmesini ve hem 2B hem de 3B senaryolarda eğriliğin hesaplanmasını tartışır. 2B'de kapalı bir dışbükey eğri, bir birim çember üzerinde eta açısı ve eğrinin yarıçapının tersi olan eğrilikle orantılı bir yoğunluk ile temsil edilebilir. Ders, dairesel görüntü için dışbükey nesneyi elde etmek için eta'nın nasıl entegre edileceğini ve xy denklemlerinin nasıl kullanılacağını gösterir ve gösterimi elips gibi diğer şekillere genişletir. 3B'de, bir yüzeydeki noktaları bir birim küre üzerindeki noktalara bağlamak için Gauss eşleme kavramı tanıtılır ve yüzeylerin eğriliği, eğriliği ölçen uygun bir tek skaler nicelik olan Gauss eğriliği ile tartışılır. Ders, k ve g olmak üzere iki alanın oranı ve bunun bir kürenin eğriliğiyle nasıl ilişkili olduğu üzerine bir tartışmayla sona erer.

  • 00:00:00 Bu bölümde fotogrametride dış yönelim kavramı ele alınmaktadır. Ayrıntılı bir model ile bir arazi üzerinde uçan kamera donanımlı bir drone aracılığıyla gösterilmektedir. Dış yönlendirme, dronun kamerasının nerede olduğunu ve nesneleri 3B ortamda hangi açıdan gördüğünü belirlemeyi içerir. Bu, üçü dönme hareketi ve üçü öteleme için olmak üzere altı serbestlik derecesi gerektirir. Model, sorunu çözmek için yeterli kısıtlama sağlamak için görüntü verilerinde üç veya daha fazla nokta gerektirir.

  • 00:05:00 Bu bölümde öğretim görevlisi, R1, R2 ve R3'ü belirlemek için tripodun bacak uzunluğunun nasıl bulunacağını açıklar. Işınları oluşturarak ve açıları hesaplayarak, bilinmeyen tek faktör üç çubuğun uzunluklarıdır. Bu uzunluklar bulunduktan sonra, üç küre kesişerek P0 keşfedilebilir. Çözümde belirsizlik potansiyeli vardır, ancak bu, ayna görüntüsü veya görüntülerin döngüsel düzeni kullanılarak çözülebilir. Öğretim görevlisi, kitapların bu sorunu çözmek için formüllerle dolu olduğunu, ancak artık bu işlemin paket ayarlama yoluyla gerçekleştirilebileceğini açıklıyor.

  • 00:10:00 Bu bölümde öğretim görevlisi, dış yönelimle ilgili problemleri çözmek için, yani bir nesnenin konumunu ve yönünü geri kazanmak için farklı kural ve denklemlerin kullanımını tartışır. Bu kuralların kullanımı navigasyon ve ölçmede önemliydi ancak günümüzde pek kullanılmıyor. İşaretlerin üçgen kuralı ve kosinüs kuralı gereken iki kuraldır, ancak diğer kurallar kolaylık sağlamak için yararlı olabilir. Tartışılan problem, bir üçgende bir açı ve mesafeye sahip olmayı ve doğrusal olmayan üç denklem kullanarak r1 ve r2'yi çözmeyi içerir. Uçağın konumu bulunduğunda, nesnenin yer koordinat sistemine göre yönünü belirlemek için vektörler oluşturulabilir. Çözüm bulmak ve aykırı değerlerle başa çıkmak için en küçük kareler ve RANSAC yöntemleri de kullanılabilir.

  • 00:15:00 Bu bölümde öğretim görevlisi kameraların dış yönünü ve kamera koordinat sistemindeki üç vektörün dünya koordinat sistemindeki vektörlerle bir döndürme matrisi aracılığıyla nasıl ilişkilendirileceğini tartışır. Öğretim görevlisi, ortonormal bir matris olarak temsil edebileceğimiz dönme matrisini çözmek için bu denklem sistemini 3x3 matris denklemi olarak temsil edebileceğimizi açıklıyor. Daha fazla yazışmamız varsa, daha doğru bir çözüm elde etmek için görüntü düzlemindeki hatayı en aza indirmek için en küçük kareler kullanabiliriz. Aynı nesneyi veya sahneyi farklı konumlardan yakalayan birden fazla kamerayı içeren bu yöntemin demet ayarı için nasıl kullanılabileceğinden ve yüzlerce kameranın söz konusu olduğu ilgili soruna nasıl çözüm sağladığından da bahseder.

  • 00:20:00 Bu bölümde konuşmacı, fotogrametride doğrusal olmayan optimizasyon problemini ve Levenberg Markat gibi yöntemlerle çözümlerini tartışıyor. Bu optimizasyonda, ortamdaki noktalar, kameraların konumu, kamera özellikleri ve radyal bozulma gibi ortamın bilinmeyen parametreleri vardır. Pek çok kısıtlama ve resim kullanan araştırmacılar, bazen bir yanardağın üzerinde uçan tek bir dron kamera kullanarak bile çeşitli nesnelerin doğru 3B modellerini oluşturabildiler. Konuşmacı ayrıca resimlerdeki ilginç noktalardan da bahsediyor, Lowe'un bunları tanımlamak için kullandığı çevrimiçi bir kaynağı anlatıyor ve fotogrametri içinde koca bir endüstri olan demet ayarına kısaca değiniyor.

  • 00:25:00 Bu bölümde konuşmacı, çokyüzlüler ve ağlar da dahil olmak üzere 3B nesnelerin çeşitli temsillerini tartışıyor. Polyhedra'yı tanımlaması nispeten kolaydır, ancak kavisli yüzeyler için kafesler daha iyi bir seçenektir. Bununla birlikte, ağları hizalamak çok anlamlı değildir çünkü köşelerin herhangi bir özel etiketi veya anlamı yoktur. Konuşmacı, 3B nesnelerin konumunu ve yönünü kurtarmaya yardımcı olabilecek çevrimiçi bir kaynak olan genişletilmiş Gauss görüntülerinin kullanılmasını önerir.

  • 00:30:00 Video dersinin bu bölümünde, konuşmacı, öteleme ve döndürme gibi belirli değişmezlik koşullarını karşılayan bilgisayar görüşünde nesneler için iyi bir temsil bulma kavramını araştırıyor. Konuşmacı, böyle bir temsil bulmaya yönelik belirli girişimlerle ilgili sınırlamaları tartışır ve özellikle bir temsili, genelleştirilmiş silindiri incelemeye geçer. Bu temsil, bir üreteç şekli almayı ve enine kesitin uzunluk boyunca herhangi bir yerde aynı olması özelliği ile daha karmaşık şekiller oluşturmak için bir çizgi boyunca hareket ettirmeyi içerir. Konuşmacı, bu temsilin belirli değişmezlik koşullarını nasıl karşıladığını ve nesne tanıma ve hizalamaya nasıl yardımcı olabileceğini tartışır.

  • 00:35:00 Bu bölümde öğretim görevlisi, nesneleri temsil etmek için genelleştirilmiş silindirlerin kullanımını ve bunların bir 3D model oluşturmak için nasıl birleştirilebileceğini tartışıyor. Bununla birlikte, aynı nesneyi tanımlamanın sonsuz yolu olduğunda benzersiz bir temsil elde etmek zor olduğundan, bu yöntemin sınırlamaları vardır. Bu nedenle ders, 3B koordinatlara sahip bir köşe listesi ve köşeler ile yüzler arasındaki bağlantıları açıklamak için bir grafik yapısı kullanarak, 3B temsil için bir başlangıç noktası olarak çokyüzlülere geri döner.

  • 00:40:00 Bu bölümde, konuşmacı bir nesnenin yüzlerine dik birim vektörler çizerek ve ardından bunları alanlarla çarparak bir nesneyi nasıl temsil edeceğini tartışır. Bu temsil, bu vektörlerin toplamı sıfır olduğu sürece, dışbükey nesneler veya karmaşık çokyüzlüler için benzersiz olabilir. Konuşmacı, bu temsilin yeniden yapılandırmadan ziyade nesnelerin tanınması ve hizalanması için yararlı olduğunu not eder. Yapıcı olmayan bir kanıt olmasına rağmen temsil, konuşmacının açıkladığı gibi caydırıcı değildir.

  • 00:45:00 Dersin bu bölümünde, konuşmacı düz kısmı olan silindirik ve konik bir şekil gibi çokyüzlü olmayan bir nesneyi dilimlere ayırarak ve aşağıdakileri göz önünde bulundurarak bir birim vektör oluşturarak yaklaşık olarak nasıl hesaplanacağını tartışır. alan. Konuşmacı daha sonra bir birim küre oluşturur ve nesnenin yüzeyini temsil eden küre üzerindeki karşılık gelen noktalara kütleler koyar. Silindirik yüzey küre üzerinde büyük daireye, konik yüzey küre üzerinde küçük daireye ve uçtaki levha tek noktada büyük kütleye karşılık gelmektedir. Konuşmacı, bu temsilin eldeki görev için çeşitli şekillerde kullanılabileceğini açıklar.

  • 00:50:00 Bu bölümde öğretim görevlisi, nesneleri hizalamak ve tanımak için temsilin kullanımını tartışır. Temsil, her nesne için bir yönelim yoğunluğunun hesaplanmasını içerir; burada nesne üzerindeki her nokta, bir birim küre üzerinde karşılık gelen bir noktaya sahiptir. Öğretim görevlisi, gösterimin öteleme ve döndürmeye göre değişmez olduğunu ve bu sayede uygulanmasını kolaylaştırdığını açıklar. Yoğunluk, yüksek yoğunluğun düşük eğriliğe ve düşük yoğunluğun yüksek eğriliğe karşılık geldiği eğriliği belirlemek için kullanılabilir. Öğretim görevlisi daha sonra, nesne üzerindeki belirli bir nokta için küre üzerindeki karşılık gelen noktayı belirlemek için yüzey normallerini kullanan genişletilmiş Gauss görüntüsünü tanıtır. Öğretim görevlisi, 3B'ye geçmeden önce konsepti anlamak için 2B sürümle başlamayı önerir.

  • 00:55:00 Bu bölümde, keyfi şekle sahip dışbükey nesneler için bir birim küreye eşleme yöntemi açıklanmaktadır. Gauss, nesneden bir noktayı normalle aynı yönde küre üzerindeki noktaya eşleyen bu yöntemi önerdi. Bu yöntem, kuzey gök kutbunu belirlemek veya güneşin nerede olduğuna ve yılın hangi zamanında açıyı ölçmek için bakmak kolay olduğu için kullanılır. Bu eşleme tersine çevrilebilir, bu nedenle bir küreden bir nesneye aynı yönelime sahip nokta arasındaki yazışma mümkündür. Ancak, bu yöntemin sınırlaması, dışbükey olmayan nesnelerle ilgili bazı sorunları olmasıdır.

  • 01:00:00 Bu bölümde, konuşmacı düzlemde bir birim çemberi eta açısı ve eğrilikle orantılı bir kütlenin yoğunluğu ile parametreleştirmeyi tartışıyor. Eğrilik, yön değiştirme oranı veya eğrinin yarıçapının tersi olan bir dışbükey kapalı eğrinin dönüş hızıdır. Yoğunluk, eğriliğin tersidir ve birim çember üzerindeki bu temsil, 2B'deki kapalı bir dışbükey eğriye özgüdür. Konuşmacı, bir eğrinin, eğrinin bir birim çember üzerinde temsilinin sürekli durumuna yol açan, eğrinin yoğunluğuna katkıda bulunan küçük yönlere nasıl bölüneceğini açıklar. 3B'de tersine çevirme olmamasına rağmen, konuşmacı fikirleri daha fazla açıklamak için ters çevirme ve entegrasyonu gösterir.

  • 01:05:00 Bu bölümde öğretim görevlisi, 2B durumlarda dairesel görüntü için dışbükey nesneyi elde etmek için eta'nın entegrasyonunu ve x ve y denklemlerinin kullanımını tartışır. Ancak aynı işlem 3 boyutlu senaryolarda kullanılamaz. Öğretim görevlisi daha sonra kütle dağılımının ağırlık merkezi kavramını tanıtır ve bunun kapalı, dışbükey bir eğri için orijinde olması gerektiğini not eder. Ayrıca, yalnızca belirli toplu dağıtım türlerinin meşru olduğu sınırlamasını da açıklıyor. Teoriyi açıklamak için öğretim görevlisi eğriliği belirlemek için r yarıçaplı bir daire örneği kullanır.

  • 01:10:00 Dersin bu bölümünde, profesör dairesel olmasa bile bir daire ve diğer herhangi bir eğri şekil için eğrilik yarıçapının nasıl hesaplanacağını açıklıyor. Eğrilik, basitçe eğrilik yarıçapının tersidir, yarıçap belirli bir konumdaki en uygun dairenin yarıçapıdır. Profesör, basitlik için bir elipsi ezilmiş bir daire olarak temsil etmek için matematiğin nasıl kullanılacağını gösteriyor ve eğrileri matematiksel olarak temsil etmenin birçok farklı yolu olduğunu açıklıyor. Ancak profesör, simetri çok belirsiz olduğu için bu yöntemin yönü belirlemede işe yaramayacağını belirtiyor.

  • 01:15:00 Dersin bu bölümünde, konuşmacı (x/a)^2 + (y/b)^2 = 1 denklemini kullanarak dairelerin parametrik olarak nasıl temsil edileceğini açıklar. Bunu kullanarak bir dairenin nasıl oluşturulacağını gösterirler. Bu, olası tüm x ve y değerlerini denemekten daha uygun bir yoldur. Konuşmacı daha sonra bu parametrik temsilin, dikey yönde sıkıştırılmış bir küre olarak görülebilen Dünya ile nasıl ilişkili olduğunu açıklar. Ayrıca türev kullanarak eğrinin normalini hesaplayarak, x ve y'yi ters çevirerek ve işareti değiştirerek çemberin kürenin yüzeyine nasıl eşleneceğini de kapsar. Son adım, normal yönü teğet yönüyle eşleştirmeyi içerir.

  • 01:20:00 Bu bölümde, bir elipsin eğriliği veya bir bölü k, birim çember üzerindeki açı olan eta'ya göre analiz edilir. Ekstremum veya maksimum ve minimum değerler, yarı eksenlerin uçlarına karşılık gelen eta eşittir sıfır ve pi bölü ikide meydana gelir. Eğrilik sürekli olarak değişir ve a ve b yarı eksenlerine bağlıdır. Bir koordinat sistemiyle hizalanmayan bir elips için ekstremumun sürekli dağılımı hesaplandıktan sonra, nesne tanıma için başka bir elipsle eşleşecek şekilde döndürülebilir. İyi bir eşleşme varsa nesne bir elipstir; Aksi takdirde, değildir.

  • 01:25:00 Bu bölümde konuşmacı, 2B dış yönlendirme uygulamasını ve daireler üzerinde evrişim kullanılarak yapılabilecek ilginç filtreleme işlemlerini tartışıyor. Bununla birlikte, ana odak noktası 3B dış yönelimdir ve yüzey normal yönelimine dayalı olarak yüzeydeki noktaları birim küre üzerindeki noktalara bağlamak için Gauss eşleme kavramı tanıtılır. Bu kavram şekillere genişletilir ve yüzeylerin eğriliği, eğriliği ölçen uygun tek bir skaler nicelik olan Gauss eğriliği ile tartışılır. Dışbükey yüzeyler için pozitif eğrilik, dışbükey olmayan yüzeyler için eğrilik negatif kabul edilir.

  • 01:30:00 Bu bölümde konuşmacı, sırasıyla 1 bölü r kare ve r kare olan iki alanın, k ve g'nin oranını tartışıyor. Oran, küçük bir kürenin yüksek eğriliğe sahip olduğu bir kürenin eğriliği ile tutarlıdır ve büyük bir küre için bunun tersi de geçerlidir. Tartışma daha sonra Gauss eğriliğine ve bunun yapılan hesaplamalarla nasıl yakından bağlantılı olduğuna değinir. Pürüzsüz olmayan yüzeyler için geçerli olan ve tanıma ve hizalamada nasıl kullanıldığı sonraki derste daha ayrıntılı olarak tartışılacak olan integral eğrilikten de bahsedilmektedir.
Lecture 22: Exterior Orientation, Recovering Position & Orientation, Bundle Adjustment, Object Shape
Lecture 22: Exterior Orientation, Recovering Position & Orientation, Bundle Adjustment, Object Shape
  • 2022.06.08
  • www.youtube.com
MIT 6.801 Machine Vision, Fall 2020Instructor: Berthold HornView the complete course: https://ocw.mit.edu/6-801F20YouTube Playlist: https://www.youtube.com/p...
 

MIT 6.801 Yapay Görme, Sonbahar 2020. Ders 23: Gauss Görüntüsü, Dönen Katılar, Yön Histogramları, Düzenli Çokyüzlüler



Ders 23: Gauss Görüntüsü, Dönen Katılar, Yön Histogramları, Düzenli Çokyüzlüler

Bu videodaki öğretim görevlisi, genişletilmiş Gauss görüntüsünü (EGI), polihedra olarak sunulamayan 3B nesnelerin bir temsili olarak tartışıyor. Konuşmacı, integral eğriliğin bir şeklin yüzeyindeki bir yamayla nasıl ilişkili olduğunu açıklıyor, soyut ve ayrık uygulamalarda EGI kavramını tartışıyor ve elipsoidler, silindirler ve koniler gibi dönme katıları ve dışbükey olmayanlar dahil olmak üzere çeşitli şekillerin Gauss görüntüsünü araştırıyor. tori gibi nesneler. EGI, bir nesnenin uzaydaki tutumunun belirlenmesine yardımcı olabilir ve yapay görme verileriyle hizalama için kullanılabilir. Dönen katıların eğriliğini ve Gauss eğriliğini bulma yöntemleri ve dışbükey olmayan nesnelerin EGI'sinin hesaplanmasındaki zorluklar da tartışılmaktadır.

Bir bilgisayar bilimi dersinin 23. Dersinde öğretim görevlisi, nesne tanıma ve hizalama için Gauss Görüntüsünün nasıl kullanılacağını ve ayrıca bir kitaplıktaki bir nesnenin gerçek şeklini temsil etmek için bir yön histogramının nasıl oluşturulacağını açıklar. Ayrıca, histogramları bindirmenin, bir küreyi bölmenin ve bir dönüş katısını hizalamanın zorluklarını ve ayrıca düzenli kalıpları ve katıları tartışırlar. Ders, nesneleri bir küre üzerinde kütle dağılımı kullanarak temsil etme, gizli yüzey öğelerinden kaçınma ve eğriliğin kütle dağılımı üzerindeki etkisini anlama hakkında bilgiler sağlar. Ayrıca histogramları bindirmek için farklı şekiller kullanmanın avantaj ve dezavantajlarını ve iyi kalite için düzenli desen ve şekillerin önemini tartışır.

  • 00:00:00 Bu bölümde, genişletilmiş Gauss görüntüsü, çokyüzlü olarak gösterilemeyen 3B nesneler için bir temsil olarak tartışılmaktadır. Gauss görüntüsü, yüzey normallerinin eşitliğine dayalı olarak nesnenin yüzeyi ile birim küre üzerindeki noktalar arasındaki bir yazışmadır. Küre üzerindeki konumun bir fonksiyonu olarak Gauss eğriliğinin tersini çizerek, yüzeyin ne kadarının o yönü gösteren bir normale sahip olduğunu tanımlamak için kullanılabilir. Gauss eğriliğini nesne üzerindeki bir yama üzerinde entegre etmek, küre üzerindeki karşılık gelen yamanın alanıyla sonuçlanır, buna integral eğrilik denir. Buna karşılık, Gauss eğriliğini küre üzerinde k üzerine entegre etmek, nesne üzerinde buna karşılık gelen, daha önemli bir nicelik olan alanla sonuçlanır.

  • 00:05:00 Bu bölümde, konuşmacı integral eğrilik kavramını ve bunun bir şeklin yüzeyindeki bir yamayla nasıl ilişkili olduğunu tartışıyor. Bir alan üzerinde eğriliğin integralini alarak, o yamadaki yönelimdeki toplam değişikliğin yakalanabileceğini ve integralin hesaplamasının bu olduğunu açıklıyorlar. Konuşmacı daha sonra bu kavramı bir küpe uygular ve bir küpün köşesinin integral eğriliğinin pi bölü iki olduğunu açıklar. Ayrıca, yönelime bağlı olan küre üzerindeki dağılımı ("g" olarak anılır) ve çokyüzlülerde görülenlere benzer bazı kısıtlamalara nasıl sahip olabileceğini tartışırlar.

  • 00:10:00 Dersin bu bölümünde konuşmacı, açının kosinüsünü temel alarak belirli bir yönden bakıldığında dışbükey bir nesnenin görünen alanını tartışır. Konuşmacı, bu açıdan yalnızca pozitif nokta çarpımı olan yönlerin görülebildiğini açıklar ve tüm yönlerin toplamının sıfır olduğunu not eder. Bu, merkezin orijinde olduğu ve egis'in, kütle merkezinin merkezde olduğu birim küre üzerindeki dağılımlar olduğu sonucuna götürür.

  • 00:15:00 Bu bölümde, EGI (Genişletilmiş Gauss Görüntüsü) kavramı soyut ve ayrık uygulamalarda daha ayrıntılı olarak tartışılmaktadır. EGI'nin merkez noktası, nesnenin yüzeyinin kapalı olmasına ve kürenin orijinine karşılık gelir. EGI, simetrik yapısı nedeniyle EGI'nin basitçe R kare olduğu bir küre örneği gibi geometrik olarak tanımlanmış nesneler için de tam olarak hesaplanabilir. Elipsoid gibi daha karmaşık nesneler, görselleştirmeler oluşturmak veya yüzey üzerinde bütünleşmek için pratik olmayan, ancak aynı yüzeyi tanımlamanın alternatif yollarından yararlanılabilen örtük yüzey denklemi aracılığıyla temsil edilebilir.

  • 00:20:00 Bu bölümde öğretim görevlisi teta ve phi'yi parametre olarak kullanarak bir yüzeyin parametrik bir tanımını elde etmenin bir yöntemini tartışır. Denklemi bu parametrelere göre türevleyerek, yüzey normalini hesaplamak için kullanabileceği teğetleri elde eder. Ayrıca eğriliğin nasıl tanımlanacağını da gösteriyor. Öğretim görevlisi daha sonra enlem ve boylam koordinatlarını kullanarak birim küreyi parametreleştirmenin bir yolunu açıklamaya devam eder. Bu, birim küreye normal olan vektörün büyüklüğünü bulmayı ve başka bir vektörü tanımlamayı içerir. Ders, türetme sürecinin ayrıntılı bir açıklamasını sağlar.

  • 00:25:00 Bu bölümde, bir elipsoidin genişletilmiş Gauss görüntüsü kavramı inceleniyor. Normal açısından eğrilik, nesnenin yüzeyindeki yarı eksenlerin kesişme noktalarının bulunmasını içerir. Cevap teta-phi koordinatlarının ne anlama geldiği olmasa da, tanıma ve yönlendirme için kullanılır. Model içinde maksimum ve minimumlar vardır ve bunlar küre üzerinde dağılmıştır. Diğer tarafa simetrik olan üç ortogonal yön vardır. Deneysel verilerle Gauss görüntüsü, bir nesnenin uzaydaki tutumunun belirlenmesine yardımcı olabilir.

  • 00:30:00 Dersin bu bölümünde, elipsoidler gibi daha karmaşık şekillerden daha kolay hesaplanabilen nesneler olan dönüş katılarına odaklanılır. Silindirler, koniler, küreler, bir veya iki tabakadan oluşan hiperboloidler gibi dönme katıları, nesneyi üretmek için bir eksen etrafında dönen ve daha sonra egi'yi hesaplamak için bir küre üzerine eşlenebilen bir üreteç içerir. Nesnenin yüzey normali ve ekvatorla açısı dikkate alınır ve nesnenin bandı, nesnenin 3B şeklini 2B'ye indirgeyen küre üzerinde karşılık gelen bandı elde etmek için kullanılır. Nesne bandının alanı 2 pi çarpı nesnenin yarıçapı çarpı bandın genişliğidir, kürenin yarıçapı ise enleme bağlıdır; enlem ne kadar yüksekse, yarıçap o kadar küçüktür.

  • 00:35:00 Bu bölümde öğretim görevlisi, k=cos(eta)/r*kg formülünü kullanarak dönen bir katının eğriliğini bulmayı tartışıyor; burada kg, jeneratörün eğriliğidir. Öğretim görevlisi, eğriliğin, jeneratörün 2B eğriliği olan yay boyunca hareket ederken yüzey normalinin yönünün değişme oranı olduğunu açıklar. Öğretim görevlisi ayrıca, eğrinin örtülü bir biçimde mi yoksa s'nin veya z yüksekliğinin bir fonksiyonu olarak mı verildiğine bağlı olarak formülün farklı sürümleri olduğunu gösterir. Son olarak ders, s'nin bir fonksiyonu olarak r verildiğinde dönen bir katının eğriliğini bulmak için uygun bir formül sağlar.

  • 00:40:00 Bu bölümde, konuşmacı bir dönme katının Gauss eğriliğini elde etmenin iki yolunu açıklamaktadır. İlk yöntem, bir eğri belirlemenin en yaygın 12 yolundan biriyle, eğri oluşturucuyu yay uzunluğunun bir fonksiyonu olarak r olarak tanımlamayı içerir. İkinci yöntem, belirtilen diğer değişken olan z'ye bakar ve eğriliği elde etmek için trigonometrik terimler kullanır. Konuşmacı, z'ye göre türev alma sürecini ve bunun teğet ve sekant terimlerle nasıl ilişkili olduğunu adım adım gösterir. Gauss eğriliği için, ilk yöntemden biraz daha karışık olan ancak yine de üreteç eğrisinin z'nin bir fonksiyonu olarak r olarak verildiği durumlar için yararlı olan son formül sağlanmıştır.

  • 00:45:00 Bu bölümde, konuşmacı dönen katıların genişletilmiş Gauss görüntülerinin nasıl oluşturulacağını tartışıyor ve simit veya halka şekli kullanan bir örnek üzerinden çalışıyor. Torus gibi dışbükey olmayan nesnelerde, nesne üzerinde aynı yüzey yönelimine sahip birden fazla nokta olabileceğini ve bu da eşlemeyi tersine çevrilemez hale getirdiğini açıklıyorlar. Torusun biri dışbükey, diğeri eyer noktası olmak üzere bu tür iki noktası vardır ve bu da kendi zorluklarını ortaya koyar.

  • 00:50:00 Bu bölümde konuşmacı, yarıçap ve ikinci türev formüllerini kullanarak dışbükey olmayan bir nesnenin genişletilmiş Gauss görüntüsünün hesaplanmasını tartışıyor. Yüzey eğriliğinin belirli noktalarda pozitiften negatife doğru değiştiğini ve cismi farklı eğriliklere sahip iki parçaya böldüğünü gözlemlerler. Konuşmacı, bununla başa çıkmak için iki seçenek önerir, ya aynı yüzey oryantasyonuna sahip tüm noktalarda Gauss eğriliğini hesaplar ve bunları toplar ya da Gauss eğriliklerinin toplamı için bazı terimleri sıfırlayan bir formül kullanır.

  • 00:55:00 Bu bölümde, konuşmacı Genişletilmiş Gauss Görüntüsünü (EGI) ve bunun hizalama için nasıl kullanılabileceğini tartışır. Konuşmacı, bir torus için EGI'nin sorunsuz bir şekilde değiştiğini ve birim kürenin bir birim silindire gömülmesiyle görselleştirilebilen kutupta bir tekilliğe sahip olduğunu açıklıyor. Bu varyasyon, sorunsuz değişen ancak kutuplara doğru hızlı büyüyen bir dağılımla iki küreyi bir araya getirerek nesnenin modelini yapay görme verileriyle hizalamak için kullanılabilir. Bununla birlikte, nesne, katı bir dönüş için uygun olan hiçbir şeyi değiştirmeden eksen etrafında döndürülebildiğinden, bu tam bir tutum vermez. Konuşmacı ayrıca, insanların ayrık çokyüzlü durum için EGI'yi yinelemeli olarak yeniden yapılandırmaya çalıştıklarından bahseder.

  • 01:00:00 Bu bölümde konuşmacı, bir nesneyi Gauss görüntüsünden yeniden oluşturmanın, parametreler olarak tüm düzlemlerin orijinden uzaklıkları ile büyük bir arama veya optimizasyon süreci gerektirecek karmaşık bir problem olduğunu açıklıyor. Bununla birlikte, Gauss görüntüleri kullanılarak tanıma ve hizalama için bu yaklaşım gerekli değildir, çünkü yöntem küre üzerindeki dağılımları karşılaştırmayı ve iyi bir eşleşme elde edilene kadar bir küreyi diğerine göre döndürmeyi içerir. Konuşmacı ayrıca, eğriliğin hesaplanmasına ve kutupların yakınında ezilme etkisinin açıklanmasına izin veren, küre üzerindeki bantları anlamanın yeni bir yolunu sunar.

  • 01:05:00 Bu bölümde öğretim görevlisi simidin alanını ve bunun Gauss İmgesi ile ilişkisini tartışıyor. Farklı şekillerde ancak aynı alanda iki simidin aynı EGI'ye sahip olduğunu, bunun da dışbükey olmayan nesnelere izin vermenin bir dezavantajı olduğunu açıklıyor. Bu benzersizlik kaybı bir uygulamada önemli olabilir veya olmayabilir, ancak bunu dışbükey olmayan nesnelere genişlettiğimizde her şeyin o kadar da hoş olmadığını gösteriyor. Ek olarak, dışbükey olmayan nesnelerde gizli yüzey öğeleriyle ilgili sorunlar vardır ve sayısal veriler kullanılarak EGI oluşturulurken küçük hatalar ortaya çıkabilir.

  • 01:10:00 Bu bölümde öğretim görevlisi, kusurlu gerçek nesnelerle sayısal olarak nasıl başa çıkılacağını ve onları gerçek şekillerine göre bir kitaplığa nasıl yerleştireceğini tartışır. Fotometrik stereo veri veya ağ modelleri kullanılarak bir nesnenin yüzeyindeki üçgen bir yamanın yüzey normali ve alanının nasıl hesaplanacağını açıklarlar. Daha sonra, yön histogramını temsil eden yüzey normaline dayalı olarak bir küre üzerinde kütle dağılımının nasıl oluşturulacağını açıklarlar. Bu yöntem, eğriliğin kütle dağılımı üzerindeki etkisini ve kütle katkılarını çıkarmak yerine toplamanın neden faydalı olduğunu anlamanın bir yolunu sağlar. Genel olarak, bu teknik, yön histogramlarının oluşturulmasına ve nesnelerin gerçek şekillerine göre bir kitaplıkta temsil edilmesine izin verir.

  • 01:15:00 Bu bölümde konuşmacı, küreyi kutulara bölmeyi ve her bir hücredeki oluşumları saymayı içeren yön histogramları kavramını tartışıyor. Yöntem, paralel kas lifleri ve beyindeki suyun akış yönleri gibi şeylerde belirli bir yönde güçlü bir konsantrasyonu belirtmek için kullanılır. Oryantasyon histogramlarında tekdüze bir dağılımın düzensiz bir dokuyu gösterdiği tümörlerin görüntülenmesi gibi alanlarda da uygulanır. Düzlemi bölmek için kare kullanmanın dezavantajları, üçgenlerden daha avantajlı olan altıgen gibi daha yuvarlak şekillerle açıklanır.

  • 01:20:00 Bu bölümde öğretim görevlisi, histogramları gruplamak için hücre seçmenin zorluklarını ve histogramları karşılaştırırken rastgele gürültünün nasıl hesaba katılacağını tartışır. Kaydırılan ikinci bir histograma sahip olma kavramı tanıtıldı, ancak boyutsallık arttıkça bu çözüm daha pahalı hale geldi. Başka bir çözüm, dağılımı bir yayma işleviyle sarmaktır ve bunu yapmak önceki çözümden daha ucuz olabilir. Ders daha sonra bir küreyi bölme problemini ve eşit alan, eşit şekiller, yuvarlak şekiller, düzenli bir model ve bindirme kolaylığı gibi mozaiklemenin istenen özelliklerini ele alır. Bu istenen özelliklerin düzlemsel durumlarda elde edilmesinin kolay olduğu, ancak küre gibi kavisli bir yüzeyde daha karmaşık hale geldiği belirtilmektedir.

  • 01:25:00 Bu bölümde öğretim görevlisi, dönen bir cismin dönüşten sonra kendisiyle hizalanması problemini ve dönüşte hizalamanın avantajını tartışır. Bir kürenin yüzeyine bir dodekahedron yansıtılarak on iki bölüme nasıl ayrılabileceğini ve bu bölümlerin her birinin bir sayı ile temsil edilebileceğini açıklıyor. Küre döndürülürse, bölümleri temsil eden sayılar basitçe değiştirilir ve kalite kaybı olmaz. Ancak, bölümler rotasyondan sonra üst üste binerse, her bölümdeki ağırlığı yeniden dağıtmak gerekli olacak ve bu da kalite kaybına yol açacaktır. Öğretim görevlisi daha sonra, oryantasyon histogramları için başlangıç noktaları olarak düzenli kalıplardan ve düzenli katılardan kısaca bahseder, ancak bunun bir sonraki derste daha ayrıntılı olarak tartışılacağını not eder.
Lecture 23: Gaussian Image, Solids of Revolution, Direction Histograms, Regular Polyhedra
Lecture 23: Gaussian Image, Solids of Revolution, Direction Histograms, Regular Polyhedra
  • 2022.06.08
  • www.youtube.com
MIT 6.801 Machine Vision, Fall 2020Instructor: Berthold HornView the complete course: https://ocw.mit.edu/6-801F20YouTube Playlist: https://www.youtube.com/p...
 

MIT 6.0002 Intro to Computational Thinking and Data Science, Güz 2016. Ders 1. Giriş, Optimizasyon Problemleri



1. Giriş, Optimizasyon Problemleri (MIT 6.0002 Hesaplamalı Düşünme ve Veri Bilimine Giriş)

Bu video, "1. Giriş, Optimizasyon Problemleri (MIT 6.0002 Hesaplamalı Düşünmeye ve Veri Bilimine Giriş)" dersini tanıtmakta ve ön koşulları ve dersin hedeflerini tartışmaktadır. Kursun ana odak noktası, dünyayı anlamak ve gelecekteki olayları tahmin etmek için hesaplamalı modellerin kullanılmasıdır. Video, hedefleri ve kısıtlamaları içeren sorunları çözmenin basit bir yolu olan optimizasyon modellerini tartışıyor. Video ayrıca sırt çantası problemi adı verilen ve kişinin sınırlı sayıda nesneden hangi nesneleri alacağını seçmesi gereken bir problem olan belirli bir optimizasyon problemini de tartışıyor. Video, açgözlü bir algoritma kullanarak bir menünün nasıl optimize edileceğini tartışıyor. Videoda ayrıca, "değere göre açgözlü" olarak adlandırılan, kaynakları tahsis etmek için verimli bir algoritma tartışılıyor.

  • 00:00:00 Bu video, "1. Giriş, Optimizasyon Problemleri (MIT 6.0002 Hesaplamalı Düşünmeye ve Veri Bilimine Giriş)" dersini tanıtır ve ön koşulları ve dersin hedeflerini tartışır. Kursun ana odak noktası, dünyayı anlamak ve gelecekteki olayları tahmin etmek için hesaplamalı modellerin kullanılmasıdır.

  • 00:05:00 Video, hedefleri ve kısıtlamaları içeren sorunları çözmenin basit bir yolu olan optimizasyon modellerini tartışıyor. Video ayrıca sırt çantası problemi adı verilen ve kişinin sınırlı sayıda nesneden hangi nesneleri alacağını seçmesi gereken bir problem olan belirli bir optimizasyon problemini de tartışıyor.

  • 00:10:00 Bu videoda sürekli ya da kesirli sırt çantası diye tabir edilen problem anlatılmakta ve bir greedy algoritması anlatılmaktadır. En iyi şeyi ilk önce alma sorunu daha karmaşıktır ve sorunun resmileştirilmesi gösterilir.

  • 00:15:00 Açgözlü algoritma, dolduğunda sırt çantasına mevcut en iyi öğeyi koyarak bir optimizasyon problemini çözer. Bu algoritma etkilidir, ancak mümkün olan en iyi çözümün bulunması garanti edilmez.

  • 00:20:00 Video, açgözlü bir algoritma kullanarak bir menünün nasıl optimize edileceğini tartışıyor. Algoritma, bir get değeri, get cost yoğunluğu ve string temsil fonksiyonları olan Food adlı bir sınıfta uygulanır. İşlev oluşturma menüsü, eşit uzunlukta bir ad listesi ve değer listesi alır ve "en iyi" ile neyin kastedildiğini belirlemek için key işlevini kullanır.

  • 00:25:00 Bu video, "değere göre açgözlü" olarak adlandırılan, kaynakları tahsis etmek için verimli bir algoritmayı tartışıyor. Algoritma, bir kaynağın ağırlığını ve taleplerini hesaba katar ve kaynakları büyük sayılar için verimli bir şekilde tahsis edebilir.

  • 00:30:00 Video, anonim bir işlev oluşturmak için lambda ifadelerinin kullanımını tartışıyor. Lambda ifadelerinin, bir dizi parametre üzerinde bir ifadeyi değerlendiren bir işlev oluşturmak için kullanılabileceğini açıklar. Ayrıca bir lambda ifadesinin işlevinin nasıl çağrılacağını da gösterir.

  • 00:35:00 Video, açgözlü algoritmaların sıralama düzenine bağlı olarak nasıl farklı sonuçlara yol açabileceğini ve bunun tepe tırmanırken nasıl bir sorun olabileceğini tartışıyor. Ayrıca, her zaman en iyi sonucu elde etmek için açgözlü bir algoritmanın nasıl değiştirileceğini de gösterir.

  • 00:40:00 Video, açgözlü algoritmanın bazen daha optimal, ancak daha fazla zaman alan algoritmadan nasıl daha iyi çözümlere yol açabileceğini tartışıyor.
1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)
1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Ders 2. Optimizasyon Problemleri



2. Optimizasyon Problemleri

Bu video, dinamik programlama adı verilen bir teknik kullanarak optimizasyon problemlerinin nasıl çözüleceğini tartışmaktadır. Kullanılan örnek, her düğümdeki farklı seçimlerin aynı problemin çözülmesiyle sonuçlandığı sırt çantası problemidir. maxVal işlevinin memo uygulaması ele alınmış ve dinamik programlama çözümü için çağrı sayısının yavaş büyüdüğü gösterilmiştir.

  • 00:00:00 Video, açgözlü algoritmaların artılarını ve eksilerini tartışıyor ve bir sorunu çözmek için bir arama ağacının nasıl kullanılabileceğine dair bir örnek sunuyor.

  • 00:05:00 Video, bir ağacın geçişini tartışıyor ve en soldaki düğümün en fazla olası öğeye sahip olduğunu ve en sağdaki düğümün en az olası öğeye sahip olduğunu açıklıyor. Algoritma basit ve karmaşıklıkta asimptotiktir.

  • 00:10:00 Bu video, optimizasyon problemlerini çözmek için özyinelemeli algoritmanın nasıl çalıştığını açıklar. Algoritma, mevcut öğe alınamıyorsa ağacın sol dalını inceleyerek başlar ve ardından alabilirse sağ dalına geçer. Dallardan hiçbiri alınamazsa, algoritma toConsider listesinin maksimum değerini döndürür.

  • 00:15:00 Bu videoda yazar, gerçekten optimal bir algoritma kullanarak bir arama algoritmasının performansının nasıl iyileştirileceğini gösteriyor.

  • 00:20:00 Bu videoda, optimizasyon problemlerini ve bunların dinamik programlama adı verilen bir teknik kullanılarak nasıl çözülebileceğini öğreniyoruz. Dinamik programlama, bir matematikçinin verilerin zaman içinde nasıl biriktiği konusundaki anlayışına dayanan optimizasyon problemlerini çözmenin bir yoludur.

  • 00:25:00 Dinamik programlama, aynı hesaplamaları birçok kez tekrarlamaktan kaçınma yöntemidir. Bir Fibonacci sayısının cevabının önceki iki Fibonacci sayısını alıp toplayarak hesaplandığı Fibonacci probleminde kullanılır.

  • 00:30:00 Bu videoda yazar, sonuçları yinelemeli olarak hesaplamak yerine bir tabloda depolayan bir teknik olan not almanın faydalarını tartışıyor. Önce daha küçük alt problemleri çözerek ve ardından sonuçları birleştirerek bunun bir Fibonacci işlevindeki performansı artırmak için nasıl kullanılabileceğini gösteriyorlar.

  • 00:35:00 Video, optimizasyon sorunlarını ve bazı durumlarda aynı sorunu birden çok kez çözerek çözümlerin nasıl bulunabileceğini tartışıyor. Aynı zamanda, optimal altyapıya sahip olduğu gösterilen, yani aynı sorunu çözen iki düğüm olan sırt çantası problemini tartışır. Bununla birlikte, video aynı zamanda bazı durumlarda sorunlara farklı sorunları çözerek çözüm bulunabileceğine de işaret ediyor - bu durumda, bir menüden farklı biralar alarak aynı sorunu çözen iki düğüm.

  • 00:40:00 Video, dinamik bir programlama çözümü kullanılarak optimizasyon sorunlarının nasıl çözülebileceğini tartışıyor. Örnekteki ağaç, bireysel çözümler farklı görünse bile, her düğümdeki farklı seçimlerin (neyi almalı ve almamalı) aynı sorunun çözülmesine nasıl yol açtığını gösterir. maxVal işlevinin memo uygulaması ele alınmış ve dinamik programlama çözümü için çağrı sayısının yavaş büyüdüğü gösterilmiştir.

  • 00:45:00 Bu video, optimizasyon problemlerini çözmenin ne kadar zor olabileceğini tartışıyor, ancak dinamik programlama genellikle optimal olmasa da yeterli bir çözüm sağlayabilir.
2. Optimization Problems
2. Optimization Problems
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Anlatım 3. Graf-teorik Modeller



3. Grafik-teorik Modeller

Bu video, ağlarla ilgili sorunları anlamak ve çözmek için çizge teorisinin nasıl kullanılabileceğini açıklamaktadır. Video, grafik kavramını tanıtıyor ve iki nokta arasındaki en kısa yolu bulmak için grafik teorisinin nasıl kullanılacağını açıklıyor. Video ayrıca bir ağı optimize etmek için grafik teorisinin nasıl kullanılacağını gösteriyor ve modelin gerçek dünya problemlerine nasıl uygulanabileceğini açıklıyor.

  • 00:00:00 Bu video, matematiğin ağların yapılarını ve dinamiklerini inceleyen bir dalı olan çizge teorisi üzerine dersler vermektedir. Grafik teorisi, optimizasyon modellerinin daha kolay tasarlanmasına ve çalışılmasına ve ayrıca verilerin ağlar üzerinden nasıl aktığının anlaşılmasına olanak tanır. Grafik teorisi iki kategoriye ayrılır: grafikler ve kenarlı grafikler. Grafiklerin tipik olarak iki öğesi vardır, düğümler ve kenarlar. Düğümler veri noktalarını temsil eder ve kenarlar aralarındaki bağlantıları temsil eder. Kenarlı grafikler daha yaygındır ve iki varlık arasındaki ilişkiyi modellemek için kullanılır. Kenarları olan grafikler oluşturmanın iki yolunu göreceğiz: yönsüz ve yönlü. Ağırlıklar gibi kenarlara nasıl bilgi ekleneceğini de keşfedeceğiz. Son olarak, maliyetin en aza indirilmesi veya en kısa yol olarak bilinen grafikler aracılığıyla gezinme yöntemiyle tanışacağız.

  • 00:05:00 Grafikler kenarlardan veya yaylardan oluşur ve varlıklar arasındaki ilişkileri modellemek için kullanılabilirler. Diğer şeylerin yanı sıra ulaşım ağlarında, finansal ağlarda ve sosyal ağlarda kullanılabilirler.

  • 00:10:00 Bu video, ilişki ağlarını anlamak için kullanılan matematiksel bir alan olan çizge teorisini tanıtmaktadır. Grafikler, gerçek dünyadaki durumları temsil etmek için kullanılabilir ve en kısa yol ve bir ağdaki öğeler arasındaki etkileşim sırası gibi bilgileri çıkarmak için kullanılabilir. Bu video, işe gidip gelme ve navigasyon gibi sorunları çözmek için grafik teorisinin nasıl kullanılacağını gösterir.

  • 00:15:00 Grafik teorisi, ağların yapıları ve etkileşimleriyle ilgilenen bir matematik alanıdır. Bu video, en kısa yol problemlerini çözmek için grafik teorisinin nasıl kullanıldığına dair basit bir açıklamayı izler.

  • 00:20:00 Yazar, düğümleri ve kenarları olan yönlendirilmiş bir grafik olan ve düğümleri ve kenarları bir sözlükte saklamanın bir yolu olan bir grafik-teorik modeli tanıtıyor. Model, bir grafiğin kolayca temsil edilmesini sağlar, ancak bunu yapmanın en etkili yolu değildir. Yazar, bir grafiği temsil etmenin daha verimli bir yolu olan bir bitişiklik listesi sunar ve bunu bir kenarın nasıl ekleneceğini ve bir düğümün tüm alt öğelerinin nasıl alınacağını göstermek için kullanır.

  • 00:25:00 Bu video, Python programlama dili kullanılarak grafiklerin nasıl oluşturulacağını, aranacağını ve yazdırılacağını açıklar. Grafikler, yönlendirilmiş ve yönlendirilmemiş grafiklere izin veren digraph sınıfının alt sınıfı olarak oluşturulabilir. Video, bir grafikteki iki düğüm arasına bir kenarın nasıl ekleneceğine dair bir örnek gösterir.

  • 00:30:00 Video, üç grafik-teorik model sunar: en kısa yol problemleri, rota navigasyonu ve iletişim ağları. İlk model olan en kısa yol problemleri, amacın iki şehir arasında bir rota bulmak olduğu bir navigasyon problemidir. İkinci model olan rota navigasyonu, amacın bir grafikte iki nokta arasında bir yol bulmak olduğu bir problemdir. Üçüncü model olan iletişim ağları, amacın bir ağdaki iki düğüm arasındaki en kısa yolu bulmak olduğu bir problemdir. Video, en kısa yol problemlerini çözmek için iki algoritma sunuyor: önce derinlik ara ve böl ve fethet.

  • 00:35:00 Derinlemesine ilk aramada, algoritma kaynak düğümle başlar ve doğru konumda olup olmadığını kontrol ederek ilk kenarı takip eder. Değilse, algoritma düğümden çıkan ilk kenarı takip eder ve hedef düğümü bulana veya seçenekler bitene kadar bu sırayla kenarları takip etmeye devam eder. Verilen örnekte, algoritma kaynak düğümde başlar ve yol boyunca bilgileri yazdırarak arama ağacındaki ilk yolu izler. Düğüm yolda değilse, algoritma düğümden çıkan ilk yolu izler ve hedef düğüme giden yolu bulana kadar düğümün alt öğelerini yinelemeli olarak araştırır.

  • 00:40:00 Bu video, sorunlara çözümlerin nasıl bulunabileceğini anlamanın bir yolu olan grafik-teorik modeli tanıtıyor. Model, bir yolun bir düğüm listesi olduğu ve bir çözüm bulmak için önce derinlik aramasının kullanılabileceği fikrine dayanmaktadır. Model iki örnekle açıklanmıştır. İlk örnek, Boston'dan Chicago'ya giden bir yolun nasıl bulunacağını gösterir ve ikinci örnek, Phoenix'ten New York'a giden bir yolun nasıl bulunacağını gösterir. Modeli tanıttıktan sonra video, bir soruna çözüm bulmak için önce derinlik aramasının nasıl kullanılacağını gösterir.

  • 00:45:00 Bu video grafik-teorik modellerin optimizasyondaki sorunları çözmek için nasıl kullanılabileceğini gösterir. Video önce derinlik öncelikli arama algoritmasının kenarlardaki ağırlıkların toplamını en aza indirmek için nasıl değiştirilebileceğini gösteriyor ve ardından genişlik öncelikli aramanın en kısa ağırlıklı yolu bulmak için nasıl kullanılabileceğini gösteriyor.

  • 00:50:00 Bu video, değişkenler arasındaki ilişkileri incelemek için kullanılan grafik-teorik modelleri tanıtıyor.
3. Graph-theoretic Models
3. Graph-theoretic Models
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...
 

Ders 4. Stokastik Düşünme



4. Stokastik Düşünme

Prof. Guttag, stokastik süreçleri ve temel olasılık teorisini tanıtıyor.

Bu videoda konuşmacı, aynı doğum gününü paylaşan iki kişi problemi ile aynı doğum gününü paylaşan üç kişi problemi arasındaki olasılık hesaplamalarındaki farkı tartışıyor. İki kişi için tamamlayıcı problemin basit olduğunu, çünkü sadece tüm doğum günlerinin farklı olup olmadığı sorusunu içerdiğini açıklıyor. Bununla birlikte, üç kişi için, tamamlayıcı problem, matematiği çok daha karmaşık hale getiren, birçok olasılıkla karmaşık bir ayrışmayı içerir. Konuşmacı, kalem ve kağıt hesaplamalarına güvenmek yerine bu olasılıksal soruları kolayca yanıtlamak için simülasyonların nasıl kullanılabileceğini gösterir. Ayrıca, tüm doğum günlerinin eşit olasılığa sahip olduğu varsayımını ve ABD'deki doğum günlerinin dağılımının nasıl tekdüze olmadığını, belirli tarihlerin diğerlerinden daha yaygın veya nadir olduğunu tartışıyor. Son olarak, konuşmacı dinleyicilere MIT öğrencilerinin doğum günlerinin bir ısı haritasını gösterir ve simülasyon modelini ayarlamanın, doğum tarihlerinin tekdüze olmayan dağılımını açıklamak için analitik modeli ayarlamaktan daha kolay olduğu sonucuna varır.

4. Stochastic Thinking
4. Stochastic Thinking
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Ders 5. Rastgele Yürüyüşler



5. Rastgele Yürüyüşler

Rastgele yürüyüşlerle ilgili bu video, onları incelemenin ve simülasyonun bilimsel ve sosyal disiplinlerdeki programlama kavramlarına nasıl yardımcı olabileceğini anlamanın önemini kucaklıyor. Konuşmacı, bir sarhoşun attığı adım sayısının orijine olan mesafesini nasıl etkilediğini göstererek başlar. Video daha sonra önyargılı rasgele yürüyüşü ve mazoşist sarhoşu tanıtarak simülasyon ve yineleme sürecinin basit çizim komutları kullanarak nasıl çalıştığını gösteriyor. Konuşmacı, simülasyonları aşamalı olarak oluşturmanın ve doğruluklarını sağlamak için sağlık kontrolleri yapmanın önemini vurguluyor ve verileri temsil etmek için farklı türde grafik oluşturma sanatını tartışarak bitiriyor. Video ayrıca simülasyonda daha fazla çeşitlilik ve karmaşıklık sağlamanın bir yolu olarak WormField'ı tanıtıyor.

  • 00:00:00 Bu bölümde, Guttag rastgele yürüyüşlerin neden önemli olduğunu açıklıyor ve örnek olarak sarhoş yürüyüşü kavramını tanıtıyor. Bir ayyaşın attığı adım sayısı ile orijinden ne kadar uzak olduğu arasında ilginç bir ilişki olup olmadığı sorusunu sorar. Bunu göstermek için küçük bir örnek verir ve seyirciden, sarhoş ne kadar çok adım atarsa, o kadar uzaklaşıp uzaklaşmayacağını veya kaç adım attığının önemli olup olmadığı konusunda bir anket yapmalarını ister. Guttag ayrıca rastgele yürüyüşleri incelemenin, çeşitli bilimsel ve sosyal disiplinlerdeki modelleme süreçlerini ve programlama ile ilgili önemli konuları öğretirken simülasyonun çevremizdeki dünyayı anlamaya nasıl yardımcı olabileceğini göstermek için yararlı olduğundan bahseder.

  • 00:05:00 Videonun rastgele yürüyüşlerle ilgili bu bölümünde, konuşmacı sarhoş bir kişinin bir veya iki adım attıktan sonra başlangıç noktasından alacağı ortalama mesafeyi analiz ederek başlıyor. Pisagor teoremini kullanarak, ortalama olarak sarhoş kişinin iki adım attıktan sonra başlangıç noktasından daha uzaklaşacağını belirlerler. Daha sonra 100.000 adımdan sonra ne olduğunu analiz etmeye devam ederler ve n yürüyüşün başlangıç noktasından ortalama mesafeyi hesaplamak için bir simülasyona başvururlar. Simülasyona hazırlanmak için konuşmacı konum, alan ve sarhoş kişi gibi bazı yararlı soyutlamalar tanımlar. Drunk sınıfı, her zamanki sarhoş alt sınıfı da dahil olmak üzere iki alt sınıfı tanımlamak için kullanılan bir temel sınıf görevi görür.

  • 00:10:00 Bu bölümde, bir sarhoşun y'yi artırarak, y'yi azaltarak, x'i artırarak veya x'i azaltarak ve rastgele yalnızca bir tanesini döndürerek bir adım atabileceği önyargılı rastgele yürüyüşü öğreniyoruz. Mazoşist sarhoş, olağan sarhoşun bir alt sınıfıdır ve kuzeye doğru hareket etmeyi tercih eder, ancak bir ileri adıma kıyasla 1.1 adım gider ve güneye doğru hareket ederken bir adımın yalnızca 9/10'u kadardır. Bu, önyargılı bir rastgele yürüyüşe işaret etse de, sarhoşlar ve konumlar değişmeden kaldığı için değişmezlik mevcuttur. Ancak alanlar değişkendir, çünkü sarhoşları bir sözlük aracılığıyla alandaki konumlarıyla eşlerler. Sarhoşun orada olup olmadığını kontrol etmek veya alanın yerini öğrenmek için değer hata mesajlarını kullanırız. moveDrunk çağrılırken, x ve y'deki mesafeler takeStep işlevinden alınır ve bu yeni mesafeye self.drunk atanır.

  • 00:15:00 Bu bölümde sunum yapan kişi, rastgele yürüyüşlerin nasıl simüle edileceğini ve farklı sarhoş türlerinin nasıl hareket ettiğiyle ilgili soruları yanıtlamak için bunları nasıl kullanacağını açıklıyor. Simülasyon, bir alan yaratmayı ve sarhoşların sahada farklı sayıda rasgele adım attığı sarhoşları eklemeyi içerir. Sunucu, tek bir yürüyüşün nasıl simüle edileceğini gösterir ve ardından sarhoşların davranışlarıyla ilgili soruları yanıtlamak için birden fazla yürüyüşün nasıl simüle edileceğini gösterir. Mesafelerin ortalamasını alarak, ortalamaya, minimuma veya maksimuma bakarak, farklı sarhoş türlerinin kökenden ne kadar uzaklaştığını görebiliriz. Sunucu daha sonra simülasyonun sonuçlarını tartışır ve makul görünüp görünmediklerini sorar.

  • 00:20:00 Bu bölümde Profesör John Guttag, bir simülasyon oluştururken akıl sağlığı kontrolünün önemini vurguluyor. Sarhoş bir adamın adımlar atması örneğini kullanarak basit bir durum akıl sağlığı kontrolü yapıyor, bu da simülasyon kodunda hemen belli olmayan bir programlama hatasını ortaya çıkarıyor. Guttag, hatayı düzelttikten sonra simülasyonu yeniden çalıştırarak sonuçları iki kez kontrol eder ve izleyicilere akıl sağlığı kontrolünden geçmenin simülasyonun doğru olduğunu garanti etmediğini, ancak bunun iyi durumda olduğunun iyi bir göstergesi olduğunu söyler.

  • 00:25:00 Bu bölümde, konuşmacı, normal sarhoşu mazoşist sarhoşla karşılaştıran bir deneyi anlatıyor; burada ilki rastgele adımlar atıyor ve mazoşist versiyon önceki yönün tersi yönde daha sık adımlar atıyor. Deney, mazoşist sarhoşun normal sarhoştan önemli ölçüde daha fazla ilerleme kaydettiğini, yani hareketlerinin bir yönde önyargılı olduğunu gösteriyor. Nedenini anlamak için konuşmacı, zaman içindeki mesafeyi görselleştirmek için her bir sarhoş türü için trend çizgisini çizmek üzere Pylab'ı kullanır; PyLab, MATLAB benzeri çizim yetenekleri sağlamak için NumPy, SciPy ve MatPlotLib kitaplıklarını birleştirir. Konuşmacı ayrıca arsa işlevinin temel sözdizimini ve Python için bağımsız değişkenlerini açıklar.

  • 00:30:00 Bu bölümde konuşmacı, plot ve lejant fonksiyonlarıyla kullanılabilecek farklı argümanların yardımıyla PyLab kullanarak nasıl grafik üretileceğini gösteriyor. Ayrıca olay örgüsü yapma sanatında ustalaşmanın değerli bir beceri olduğu fikrini de ifade ediyor. Ayrıca, konuşmacı normal bir sarhoş ile mazoşist bir sarhoş arasındaki mesafe eğilimlerini araştırır ve gösterir. Konuşmacı, normal sarhoşun kabaca adım sayısının karekökünde hareket ettiğini, mesafe bakımından mazoşist sarhoş eğiliminin ise adım sayısı çarpı 0,05 oranında hareket ettiğini keşfeder. Konuşmacı, veri noktalarının çizgilerle bağlantısının kesildiği yeni bir olay örgüsünü göstererek bitirir.

  • 00:35:00 Bu bölümde, konuşmacı görselleştirmenin verilere nasıl içgörü sağlayabileceğini tartışıyor. Rastgele yürüyüşlerin sonundaki yerleri çizerek, farklı sarhoş türlerinin nasıl davrandığını ve aralarındaki farklılıkları gösteriyor. Yalnızca uç noktaların elektronik tablolarını sunmaktan ziyade verileri anlamak için çizimleri kullanmanın önemini vurguluyor. Konuşmacı ayrıca, bir sarhoşun yerini farklı bir noktaya ışınlayan solucan deliklerine sahip bir Field alt sınıfı olan OddField'ı da tanıtıyor. Simülasyonda daha fazla değişkenliğe izin vererek, sarhoşun ışınlanabileceği rastgele konumlara sahip bir solucan deliği sözlüğü oluşturur.

  • 00:40:00 Videonun bu bölümünde eğitmen, bir sarhoşun hareketini simüle etmek için rastgele yürüyüşlerin nasıl kullanıldığını ve solucan deliklerinin sarhoşların son bulduğu yer üzerinde nasıl derin etkiler yarattığını açıklıyor. Ayrıca, sınıfları tanımlama, bir ve birden çok denemeye karşılık gelen işlevleri oluşturma ve sonuçları raporlama ile başlayarak simülasyonu aşamalı olarak oluşturmanın önemini vurguluyor. Ayrıca, simülasyona ilişkin fikir edinmeye yardımcı olan çeşitli çizim türleri üretmek için basit çizim komutlarını nasıl kullandığını da gösteriyor.

  • 00:45:00 Bu bölümde, konuşmacı ortak bir paradigmadan bahsediyor. sonraki stili elde etmek için. Stiller, arsanın okunmasını kolaylaştırmak için varsayılan ayarlarından değiştirmeyi sevdiği diğer şeylerin yanı sıra işaretçi, çizgi, renk ve boyutu içerir. Konuşmacı, bu yaklaşımın esnekliğini vurgulayarak, farklı olay örgüsü stilleri elde etmek için deneyleri teşvik eder. Bir sonraki derste, diğer fenomenleri simüle etmeyi ve bir simülasyonun inandırıcılığını tartışmayı araştıracak.
5. Random Walks
5. Random Walks
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Ders 6. Monte Carlo Simülasyonu



6. Monte Carlo Simülasyonu

Video, Monte Carlo simülasyonunun nasıl çalıştığını ve bilinmeyen bir niceliğin değerlerini tahmin etmek için nasıl kullanılabileceğini açıklıyor. Video, yöntemin nasıl çalıştığını ve farklı örneklem boyutlarından nasıl etkilendiğini tartışıyor.

  • 00:00:00 Bu derste John Guttag, Monte Carlo simülasyonunun nasıl çalıştığını ve bilinmeyen bir niceliğin değerlerini tahmin etmede nasıl yararlı olduğunu açıklıyor. Ayrıca, yöntemin başarısının anahtarının, popülasyondan alınan numunenin, alındığı popülasyonun özelliklerini yansıtma eğiliminde olması olduğuna da dikkat çekiyor.

  • 00:05:00 Video, bir popülasyondan bir örneğin çekildiği ve ortalama davranışın ne olduğunu belirlemek için analiz edildiği Monte Carlo simülasyonunu tartışıyor. Örnekte, bir madeni para 100 kez atılır ve tura veya yazı belirlenir. Tura belirlenirse, bir sonraki atışın olasılığı hesaplanır. Yazı belirlenirse, bir sonraki atışın olasılığı mevcut kanıtlara göre hesaplanır. Tekrar tura belirlenirse, bir sonraki atışın olasılığı mevcut kanıtlara ve madeni paranın adil olduğu varsayımına göre hesaplanır. Üçüncü kez tura belirlenirse, bir sonraki atışın olasılığı madeni paranın adil olduğu varsayımına ve mevcut kanıtlara bağlıdır. Madeni paranın adil olduğuna inanmak için hiçbir neden olmadığından, bir sonraki atışın olasılığı düşüktür.

  • 00:10:00 Monte Carlo simülasyonlarında, rastgele olayların öngörülemeyen sonuçları, sonuçların varyansıyla yakalanır. Varyans arttıkça, simülasyonun doğruluğuna olan güven azalır. Rulet, yüksek varyansa sahip bir oyundur, yani sonucun tahmin edilmesi zordur.

  • 00:15:00 Bu videoda, sonucun olasılığı her seferinde aynıysa, bir rulet çarkının dönüşünün beklenen getirisinin 0 olduğunu göstermek için bir Monte Carlo simülasyonu gerçekleştiriliyor. Büyük sayılar yasası, deneme sayısı sonsuza giderken, dönüşün 0'dan farklı olma şansının 0'a yakınsayacağını belirtir.

  • 00:20:00 "Kumarbaz yanılgısı", kişinin belirli bir durumda beklentilerinin karşılanmaması durumunda bunun gelecekte düzeltileceğine olan inancıdır. Ortalamaya gerileme, 1885'te Francis Galton tarafından ortaya atılan ve aşırı bir olayın (ebeveynlerin alışılmadık derecede uzun olması gibi) ardından bir sonraki rastgele olayın nasıl daha az aşırı olabileceğini açıklayan bir terimdir. Bu konsept, birisi adil bir rulet çarkını 10 kez döndürürse ve 10 kırmızı alırsa, bu aşırı bir olay olan rulet için geçerlidir. Kumarbazın yanılgısı, sonraki 10 dönüşün daha fazla siyahın çekilmesiyle sonuçlanması gerektiğini söylerken, dönüşlerin bağımsız olması durumunda beklenen 1.1024 olasılığın aksine. Kötü şakalar yapabilen tek kişi Profesör Grimson değil.

  • 00:25:00 Bu videoda John Guttag, ortalamaya gerilemenin nasıl çalıştığını ve kumarda neden önemli olduğunu açıklıyor. Daha sonra Avrupa ruletinin adil ruletin bir alt sınıfı olduğunu gösterir ve oyuna fazladan bir cep, 0 ekler. Bu ekstra cep, bir sayı alma olasılığını etkiler ve oranların her zaman aynı olduğu Avrupa ruletinin bir alt sınıfı olan Amerikan ruletinden daha 0'a yaklaştırır.

  • 00:30:00 Monte Carlo simülasyon yöntemi, olasılıkları ve olasılık oranlarını tahmin etmek için kullanılır. Video, farklı örneklem boyutlarının tahmini olasılıkların doğruluğunu nasıl etkileyebileceğini gösterir. Varyans ve standart sapmanın arkasındaki matematik de açıklanmaktadır.

  • 00:35:00 Monte Carlo simülasyonu, bilinmeyen değerleri tahmin etmek için kullanılan bir yöntemdir. Monte Carlo simülasyonu, bir rulet çarkına bahse girmenin beklenen getirisini, bir sınavdan beklenen notu ve bir siyasi adayın beklenen oy sayısını tahmin etmek için kullanılabilir. Ampirik kural, verilerin %68'inin ortalamanın önünde veya arkasında bir standart sapma içinde olacağını belirtir.

  • 00:40:00 Ampirik kural, hataların dağılımı normalse, bir simülasyonda hesaplanan ortalamaya yüksek derecede güvenmemiz gerektiğini söylüyor.

  • 00:45:00 Bu video, olasılık yoğunluk fonksiyonunu (PDF) ve belirli değerleri alan rastgele bir değişkenin olasılığını hesaplamak için nasıl kullanıldığını açıklar. Olasılık yoğunluk fonksiyonu, ortalama etrafında simetriktir ve ortalamada bir tepe noktasına sahiptir, bu nedenle genellikle rastgele bir değişkenin belirli bir değer alma olasılığını açıklamak için kullanılır. Eksi 1 ile 1 arasındaki eğrinin altındaki alanın oranı kabaca %68'dir.
6. Monte Carlo Simulation
6. Monte Carlo Simulation
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Anlatım 7. Güven Aralıkları



7. Güven Aralıkları

Bu video, normal dağılımlar, merkezi limit teoremi ve simülasyonları kullanarak pi değerinin tahmin edilmesi dahil olmak üzere istatistikle ilgili çeşitli konuları kapsar. Öğretim görevlisi, normal dağılımlar için histogramların ve olasılık yoğunluk fonksiyonlarının nasıl çizileceğini ve ayrıca integralleri yaklaşık olarak hesaplamak için kareleme tekniğinin nasıl kullanılacağını göstermek için Python'u kullanır. Ek olarak, konuşmacı, istatistiksel yöntemlerin altında yatan varsayımları anlamanın önemini ve simülasyonların geçerliliğini sağlamak için doğruluk kontrollerine duyulan ihtiyacı vurgular. Güven aralıkları istatistiksel olarak geçerli ifadeler sağlayabilse de, gerçeği yansıtmayabilirler ve bir simülasyonun sonuçlarının gerçek değere yakın olduğuna inanmak için nedenlerin olması çok önemlidir.

  • 00:00:00 Bu bölümde öğretim görevlisi ampirik kuralın altında yatan varsayımlardan ve Python'da rastgele kitaplığı kullanarak normal dağılımların nasıl üretildiğinden bahsediyor. Normal bir dağılımın ayrık bir yaklaşımının nasıl üretileceğini ve ağırlıklı bölmelerle bir histogramın nasıl çizileceğini gösterirler. Kutuları ağırlıklandırmanın amacı, y ekseninin buna göre ayarlanabilmesi için her öğeye farklı bir ağırlık vermektir.

  • 00:05:00 Bu bölümde eğitmen, normal dağılımlar için histogramları ve olasılık yoğunluk fonksiyonlarını (PDF'ler) çizmek için Python'u nasıl kullanacağını açıklar. Y ekseninin belirli bir aralığa düşen değerlerin kesrini gösterdiği pylab kitaplığını kullanarak bir histogram oluşturmak için kodu gösterir. Daha sonra PDF'leri tanımlar ve Python kullanarak bunların nasıl çizileceğini gösterir. PDF eğrisi, rastgele bir değişkenin iki değer arasında düşme olasılığını temsil eder, burada eğrinin altındaki alan bunun olma olasılığını verir. Eğitmen, sıfır ortalama ve bir standart sapma ile standart bir normal dağılım örneği kullanır.

  • 00:10:00 Bu bölümde, konuşmacı bir olasılık yoğunluk fonksiyonunun (PDF) nasıl çizileceğini açıklar ve Y değerlerini grafik üzerinde yorumlar. Y değerleri aslında kümülatif dağılım fonksiyonunun yoğunlukları veya türevleridir ve 1'i geçebilecekleri veya negatif olabilecekleri için gerçek olasılıklar değildir. Konuşmacı, eğrinin altındaki alanın entegrasyonu, belirli bir aralığa düşen değerlerin olasılıklarını belirlememizi sağladığından, eğrinin şeklinin Y değerlerinden daha önemli olduğunu vurgular. Konuşmacı daha sonra entegrasyon için "scipy" kütüphanesindeki "integrate quad" algoritmasını kısaca tanıtır.

  • 00:15:00 Videonun bu bölümünde, konuşmacı kareleme adı verilen sayısal bir tekniğin integralleri yaklaşık olarak hesaplamak için nasıl kullanılacağını tartışıyor. Üç bağımsız değişken alan Gaussian işleviyle bu tekniğin bir örneğini gösterir ve bunların, bağımsız değişkenler için tüm değerleri sağlayan bir demet ile birlikte kareleme işlevine nasıl aktarılacağını gösterir. Konuşmacı daha sonra mu ve sigma için rasgele değerler kullanarak Gauss fonksiyonu için ampirik kuralı test eder ve sonuçların beklenen aralık içinde olduğunu göstererek kuralın geçerliliğini gösterir. Son olarak, normal dağılımların önemini ve birçok alandaki yaygınlığını açıklıyor.

  • 00:20:00 Bu bölümde, konuşmacı normal dağılımı ve bunun erkek ve kadınların boyları veya petrol fiyatlarındaki değişiklikler gibi çeşitli senaryolara nasıl uygulandığını tartışıyor. Ancak, bir rulet çarkının dönüşleri gibi her şey normal bir dağılım izlemez. Bir dizi spin ile uğraşırken, konuşmacı merkezi limit teoreminin nasıl uygulandığını gösterir; bu teorem, bir popülasyondan yeterince büyük bir örnek alınırsa, örneklerin ortalamalarının normal dağılacağını ve ortalamanınkine yakın bir ortalamaya sahip olacağını belirtir. nüfus.

  • 00:25:00 Bu bölümde konuşmacı, örneklem ortalamasının varyansının, popülasyonun varyansının örneklem büyüklüğüne bölünmesiyle nasıl ilişkili olduğunu açıklar. Konuşmacı, farklı sayıda zarla bir zarı birden çok kez atma simülasyonunu kullanır ve zar sayısı arttıkça standart sapmanın azaldığını gösterir. Ek olarak konuşmacı, araçların dağılımının nasıl normal bir dağılım oluşturduğunu gösterir. Bu, merkezi limit teoreminin kullanışlılığını gösterir. Konuşmacı bu kavramı rulet oyununa da uygular ve rulet spinlerinden elde edilen ortalama kazanç dağılımının normal dağılıma benzer bir şekil aldığını gösterir.

  • 00:30:00 Bu bölümde, konuşmacı, orijinal değerlerin dağılımının şekli ne olursa olsun, yeterince büyük örneklemler kullanarak ortalamayı tahmin etmek için Merkezi Limit Teoreminin (CLT) nasıl kullanılabileceğini tartışır. Konuşmacı, ampirik kuralın tamamen doğru olmasa bile çoğu durumda yararlı olacak kadar yakın olduğunu açıklıyor. Ek olarak, rasgelelik ve Monte Carlo simülasyonları, pi'nin değeri gibi doğası gereği rasgele olmayan bir şeyin hesaplanmasında yararlı olabilir. Bu, insanların tarih boyunca pi'nin değerini nasıl tahmin ettiklerine dair tarihsel bir açıklama ile gösterilir.

  • 00:35:00 Bu bölümde, konuşmacı tarih boyunca pi'nin değerini tahmin etmek için kullanılan farklı yöntemleri tartışıyor. Yöntemler, 96 kenarlı bir çokgen oluşturmayı ve pi'nin değerini tahmin etmek için iğneleri rastgele düşürmeyi içeren bir Monte Carlo simülasyonunu içerir. Simülasyon, bir dairedeki iğnelerin bir karedeki iğnelere oranını bularak pi'yi tahmin etmek için matematiksel bir formül kullandı. Konuşmacı ayrıca bir okçu kullanarak Monte Carlo yöntemini simüle etmeye çalışmaktan ve bir Monte Carlo simülasyonu oluşturmak için Python kullanımından bahsediyor.

  • 00:40:00 Bu bölümde, konuşmacı bir simülasyon kullanarak pi'nin nasıl tahmin edileceğini ve güven aralıklarını kullanarak doğruluğunun nasıl belirleneceğini açıklamaktadır. Simülasyon, iğneleri bir zemine fırlatmayı ve kaç tanesinin bir çizgiyi geçtiğini saymayı içerir, daha fazla iğne daha iyi pi tahminlerine yol açar. Doğruluğu belirlemek için standart sapma, tahminlerin ortalaması alınarak ve tahminlerin uzunluğuna bölünerek hesaplanır. Daha sonra, pi tahmini belirli bir kesinlik aralığı içinde olana kadar iğne sayısını artırmaya devam etmek için bir döngü kullanılır ve bu da tahminde daha fazla güven sağlar. İğne sayısı arttıkça pi tahminleri monoton olarak daha iyi olmasa da, standart sapmalar monoton bir şekilde azalarak tahminde artan güven sağlar. Konuşmacı, iyi bir cevap üretmenin yeterli olmadığını, bunun yerine cevabın gerçek değere yakın olduğuna inanmak için bir nedene sahip olmanın önemini vurgular.

  • 00:45:00 Bu bölümde, konuşmacı istatistiksel olarak geçerli ifadeler ile doğru ifadeler arasındaki farkı tartışır. Bir simülasyon bize istatistiksel olarak geçerli güven aralıkları verebilirken, gerçeği tam olarak yansıtmayabilir. Konuşmacı, 4'ü 2 ile değiştirerek simülasyonlarına bir hata getiriyor ve güven aralıkları geçerliyken, pi'nin tahmini tamamen yanlış. Simülasyonun doğruluğunu sağlamak için bir akıl sağlığı kontrolü yapılmalıdır. Genel olarak kullanışlı rastgele nokta örnekleme tekniği, herhangi bir bölgenin alanını tahmin etmek için tanıtılır ve rastgeleliğin, entegrasyon gibi doğası gereği rastgele olmayan bir şeyi hesaplamak için nasıl kullanılabileceğinin bir örneği olarak kullanılır.
7. Confidence Intervals
7. Confidence Intervals
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Ders 8. Örnekleme ve Standart Hata



8. Örnekleme ve Standart Hata

"Örnekleme ve Standart Hata" konulu bu video, popülasyon parametrelerini tahmin etmek için örnekleme tekniklerine odaklanarak, çıkarımsal istatistiklerdeki çeşitli kavramları kapsar. Video, olasılık örneklemesi ve basit rastgele örneklemenin yanı sıra katmanlı örneklemeyi araştırıyor ve bir popülasyondan rastgele örnekler genelinde ortalamaların tutarlılığı ve standart sapmalarla ilgili olan merkezi limit teoremini tartışıyor. Video ayrıca hata çubukları, güven aralıkları, standart sapma ve standart hata, uygun örneklem boyutunu seçme ve dağıtım türleri gibi konuları da ele alıyor. Konuşmacı, tüm popülasyonu incelemeden popülasyon standart sapmasını tahmin etmeye yardımcı olduğu için standart hatayı anlamanın önemini ve bunun farklı bölümlerde nasıl geniş çapta tartışılan bir kavram olduğunu vurgular.

  • 00:00:00 Bu bölümde eğitmen, çıkarımsal istatistiklerle ilgili olarak örnekleme konusunu tartışır. Ana fikir, bir popülasyondan alınan bir veya daha fazla rasgele örneği incelemek ve o popülasyon hakkında referanslar yapmaktır. Eğitmen, popülasyonun her bir üyesinin bir örneğe dahil edilme olasılığının sıfırdan farklı olduğu olasılık örneklemesini tartışır. Basit rasgele örnekleme, popülasyonun her bir üyesinin örneklemde eşit seçilme olasılığına sahip olmasını gerektiren derinlemesine araştırılır. Bununla birlikte eğitmen, bir popülasyonun eşit olarak dağılmadığı ve alt grupların örnekte orantılı olarak bölümlenmesi ve temsil edilmesi gerektiği gibi belirli durumlarda tabakalı örneklemenin gerekli olabileceğini not eder.

  • 00:05:00 Bu bölümde, popülasyondaki boyutlarıyla orantılı olarak temsil edilmesi gereken küçük alt grupları örnekleme yöntemi olarak tabakalı örnekleme kavramı tanıtılmaktadır. Mimarlık öğrencilerinin temsil edilmesini sağlamak için tabakalı örnekleme kullanma örneği verilmiştir. Bununla birlikte, tabakalı örneklemeyi doğru bir şekilde yapmak zor olabilir, bu nedenle bu ders basit rastgele örneklere bağlı kalacaktır. Kurs, 1961-2015 yılları arasında 21 ABD şehri için günlük yüksek ve düşük sıcaklıkların örnek bir veri kümesini sağlar. Veriler, verilerin normal dağılmadığını gösteren histogramlar kullanılarak görselleştirilir. Ortalama günlük yüksek sıcaklık, yaklaşık 9,4 derecelik bir standart sapma ile 16,3 santigrat derecedir.

  • 00:10:00 Bu bölümde video, örnekleme fikrini ve bunun bir bütün olarak popülasyonla ilişkisini tartışıyor. Bir popülasyondan 100 büyüklüğünde rasgele örnekler alarak ve ortalamaları ve standart sapmaları karşılaştıran video, bireysel örneklerin popülasyondan farklı olabileceğini ancak genel olarak ortalamaların ve standart sapmaların merkezi limit teoremi nedeniyle popülasyonla tutarlı olacağını gösterir. . Video, bin örnekten oluşan bir simülasyon çalıştırarak örnek ortalamanın nasıl 16,3 ve standart sapmanın 0,94 olduğunu gösteriyor ve 14,5 ile 18,1 arasında %95'lik bir güven aralığı sağlıyor. Güven aralığı geniş olmakla birlikte popülasyon ortalamasını da içerir.

  • 00:15:00 Bu bölümde video, gerçek nüfus ortalamasının tahmini üzerinde daha sıkı bir sınır elde etmenin yollarını tartışıyor. Daha fazla örnek çekmek ve daha büyük örnekler almak her ikisi de dikkate alınır. Örnek boyutu 100'den 200'e çıkarılmış bir deney yapmak, standart sapmada 0,94'ten 0,66'ya oldukça dramatik bir düşüşle sonuçlandı, bu da daha büyük örnek boyutlarının daha doğru bir tahmin elde edilmesine yardımcı olabileceğini gösteriyor. Verilerin değişkenliğini görselleştirmek için hata çubuklarının kullanımı da tanıtıldı. Ortalamaların istatistiksel olarak anlamlı bir şekilde farklı olup olmadığını belirlemek için güven aralıkları kullanılabilir. Güven aralıkları örtüşmüyorsa, ortalamaların önemli ölçüde farklı olduğu sonucuna varmak mümkündür. Çakıştıklarında, daha fazla araştırmaya ihtiyaç vardır.

  • 00:20:00 Bu bölümde, konuşmacı Python'da PyLab paketi kullanılarak hata çubuklarının nasıl çizileceğini tartışıyor. 1,96 ile çarpılan standart sapma kullanılarak, tahminin ortalamasını ve güvenirlik düzeyini gösteren hata çubukları oluşturulabilir. Örnek boyutu arttıkça, hata çubukları küçülerek daha fazla güven sağlar, ancak daha iyi doğruluk sağlamaz. Bununla birlikte, merkezi limit teoremini kullanarak, büyük örneklem boyutlarına sahip birden fazla örneğe bakmak gereksiz olsa da, tek bir örneklem kullanmak yine de değerli bilgiler sağlayabilir.

  • 00:25:00 Bu bölümde video, örnek ortalamanın varyansının, popülasyonun varyansı bölü örnek boyutuna yakın olacağını belirten Merkezi Limit Teoreminin üçüncü parçasını tartışıyor. Bu, popülasyon standart sapmasının örneklem boyutunun kareköküne bölünmesine eşit olan ortalamanın standart hatasının hesaplanmasına yol açar. Video, ortalamanın standart hatasının işe yarayıp yaramadığını test etmek için bir kod kullanır ve standart sapmanın standart hatayı çok iyi takip ettiğini gösterir, böylece standart hatayı hesaplayarak standart sapmayı tahmin etmeyi faydalı hale getirir. Standart sapma ile standart hata arasındaki fark, ilkini hesaplamak için birçok örneğe bakmanın gerekmesi ve ikincisi için sadece bir örneğe ihtiyaç duyulmasıdır.

  • 00:30:00 Bu bölümde konuşmacı, birden çok örnek almadan bir popülasyonun standart sapmasına yaklaşmanın bir yolu olan standart hata kavramını tartışıyor. Standart hata formülü, popülasyonun standart sapmasını içerir, ancak bu, tüm popülasyonun incelenmesini gerektireceğinden genellikle bilinmemektedir. Bunun yerine, numune standart sapması genellikle bir tahmin olarak kullanılır. Konuşmacı, daha büyük örneklem büyüklükleri için, örneklem standart sapmasının popülasyon standart sapmasının nispeten doğru bir tahmini olduğunu gösterir. Ancak, bunun farklı dağılım türleri ve daha büyük popülasyonlar için her zaman doğru olmayabileceği belirtilmektedir.

  • 00:35:00 Bu bölümde video, tek biçimli, normal veya Gauss ve üstel dahil olmak üzere farklı dağılımları tartışır ve bu dağılımlara ilişkin ayrık yaklaşımları gösterir. Standart sapma ile örneklem standart sapması arasındaki fark tüm bu dağılımlar için aynı değildir ve en kötü durum üsteldir. Bir olasılık dağılımının asimetrisinin bir ölçüsü olan çarpıklık, popülasyonu tahmin etmek için kaç örneğe ihtiyaç duyulduğuna karar verirken önemli bir faktördür. Ek olarak, video, ihtiyaç duyulan örnek sayısını belirlerken popülasyonun boyutunun önemli olmadığına dair mantığa aykırı bir bulgu ortaya koyuyor.

  • 00:40:00 Bu bölümde konuşmacı, tek bir örnek verilen bir popülasyonun ortalamasını tahmin etmek için uygun bir örnek boyutu seçmenin önemini tartışıyor. Doğru bir cevap almak ve çok küçük bir örneklem büyüklüğü kullanmaktan kaçınmak için doğru örneklem boyutunu seçmenin gerekli olduğunu vurguluyor. Örnek boyutu seçildikten sonra, örneğin ortalamasını ve standart sapmasını hesaplamak için popülasyondan rastgele bir örnek alınır. Numuneden üretilen tahmini standart hata kullanılarak, numune ortalaması etrafındaki güven aralıkları oluşturulur. Konuşmacı, bu yöntemin yalnızca bağımsız rastgele örnekler seçildiğinde işe yaradığı konusunda uyarıyor ve bağımlı örneklerin seçilmesinin nasıl yanlış sonuçlara yol açabileceğini gösteriyor. Son olarak, %95 güven aralığı dışındaki kesirleri hesaplamak için örnek bir deney gösteriyor ve en uygun sonucun yüzde beş olduğunu vurguluyor.

  • 00:45:00 Bu bölümde, konuşmacı istatistiksel analizde standart hata kavramını anlamanın önemini tartışıyor. Cevap çok iyi ya da çok kötü ise olasılık hesabının yanlış olduğunu vurguluyor. Standart hatanın nasıl çalıştığını göstermek için bir simülasyon çalıştırıyor ve %95 güven aralığının dışındaki kesrin, %5'lik beklenen değere çok yakın olduğunu gösteriyor. Konuşmacı, standart hatanın önemini ve farklı departmanlar arasında nasıl geniş çapta tartışılan bir kavram olduğunu vurgulayarak bitirir.
8. Sampling and Standard Error
8. Sampling and Standard Error
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
Neden: