Bir mayın tarlasında pazar görgü kuralları veya görgü kuralları - sayfa 83

 
paralocus писал(а) >>

Bir H eşiğine sahip bir BP kenesinin optimal kagi-bölümlemesi, bir dizi işlemin minimum sayıda ardışık tek renkli omuzunun olduğu böyle bir bölümleme olarak düşünülmelidir.

Alınan işlem serisinin dağılımı, birbirini takip eden omuzların %50'sinden fazlasının farklı bir renge sahip olduğu şekildeyse, neden NS?

Her şey doğru. Gerçekten de dile getirdiğiniz durum, para kazanabileceğiniz ve kazanmanız gereken verimsiz bir piyasaya tekabül ediyor! Terminal zamanından (sadece serinin okumaları) ayrı olarak bir dizi işlem (RT) oluşturursak, etki çok açıktır:

Pastukhov'un tezinde açıklanan Kagi yapıları temelinde TS'nin yakaladığı bu alanlardır (ve H+/- stratejileri için aynı görünürler). Ancak böyle bir aracın düşük karlılığı (DC komisyonuna kıyasla) ile ilgili bir sorun var. Bunun nedeni, klasik stratejinin Kagi yapısının en basit ve en erişilebilir özelliğini kullanmasıdır - RT işaretinin değişmesi, ancak başka düzenlilikler de var ... bunlar tam olarak NN'nin ortaya çıkarması gereken şeyler!

 
Neutron >> :

başka düzenlilikler de var... NN'nin saptaması gereken şey bu!

Bu metsa'dan daha ayrıntılı olarak mümkün mü? Omuzların uzunluğu dışında aklıma başka bir şey gelmiyor (Millet Meclisi ve Kagi'yi düşünürseniz)

Bu yüzden biraz şaşkınım:

Yan yana eğitilmiş bir sinir ağı olsun: +1,-1,+1,-1,+1,-1.... (yani ikili girişler). Bu durumda öğreneceğini yaklaşık %80 doğrulukla üç kat tahmin edebiliyorum. Bu durumda, NS'nin doğrusal olmaması önemli değildir.

 

Bazı soruların cevaplarını sizin kadar bende bilmek isterim!

Şimdi ikili NN'nin nasıl çalıştığını görelim. Bir eğitim vektörümüz olduğunu varsayalım. Böyle bir sinir ağının çıktı hatasını en aza indirmek için yapabileceği tek şey, tüm olası girdi kombinasyonları için sonuçların olasılıklarını hesaplamaktır. Kesinlik için, diyelim ki üç girdimiz var, sonra tüm girdi kombinasyonları aşağıdaki kalıplara iniyor (güzellik için +/-1'den 0/1'e geçelim):

000

001

010

011

100

101

110

111

Eğitim vektörü P , girdi sayısından ( d ) birkaç kat daha uzun olsun, o zaman sinir ağı basitçe her bir modelde 1'e ulaşma olasılığını p hesaplayacaktır (sıfır olasılığı 1- p'dir ). Ama bunu Ulusal Meclis olmadan da yapabiliriz! Burada bir incelik var. Yani eğitim vektöründe kombinasyon olmadığında ne yapacaksınız? Bu kalıba gerçekte ne atayacaksınız? - Hiç bir şey! P vektörünün uzunluğunu, onunla (desen) karşılaşana kadar artırmanız gerekecektir. Elinizin altında yeterli veriye sahip olduğunuz ya da varsa bile optimal antrenman süresinin dışına çıkmayı başaramayacağınız bir gerçek değil. Ne demek istediğimi anlıyor musun? Millet Meclisi'nin avantajı tam burada yükselir. Tüm eğitim miktarına ihtiyacı olmadığı ortaya çıktı (tüm durumlar için), mevcut bilgiyi maksimum genelleme güvenilirliği ile genelleştirebiliyor! Başka bir deyişle, daha önce öğreticide bulunmamış olsa bile, kalıbın kendisi için en olası sonucu geri yükleyecektir. Bir yetişkin gibidir, çünkü belirli bir durumda karar vermek için emsallere ihtiyacımız yoktur.

Bu nedenle, eğitimi sırasında özellik alanında oluşturduğu belirli bir hiper yüzeye mevcut verileri (girdileri) yansıtarak bir karar verecektir. Bu yüzey çok boyutludur (girişlerin sayısına göre) ve bir düzlem veya daha yüksek dereceli bir yüzey (paraboloid, üç boyut için hiperboloid vb.) olabilir. Doğrusal olmamanın varlığı, yüzeylerin karmaşık topolojilerinin kullanılmasına izin verir ve girdinin ikili olması önemli değildir, önemsiz olmayan bir yüzeye yansıtılması önemlidir.

Bu yüzden, ikili bir girdiyle bile doğrusal olmamanın bir rol oynadığını düşünüyorum.

 
Evet anladım. Bir fikir var. Y eksenindeki bir dizi işlemin bir sonraki omzunun projeksiyon modülünün n>1 spread olma olasılığını hesaplamak gerekir. Ardından hilenin boyutunu omuz uzunluğunun MO olarak hesaplayın ve durma aynı olacaktır. Korkarım istatistiklerin verebileceği tek şey bu, ama bu +.
 

Doğrusal olmayan bir FA ile gizli katman için hatanın yeniden hesaplanmasıyla hafifçe körelttiğim bir şey. Lütfen bir göz atın, gizli katman hatasını doğru mu alıyorum?

Burada, gizli katmanın çıkışındaki hatanın, çıkış katmanının karşılık gelen sinapsının mikro düzeltmesinin değerine eşit olduğu gerçeğiyle kafam karıştı.

 

Hayır, her şey yolunda değil!

1. NS- OUT çıkışını bulun. Haklısın.

2. Millet Meclisinin hatasını göz önünde bulundurursunuz: dOUT \u003d x-OUT. Bu hatayı bilerek çıkış nöronunun ağırlıklarının düzeltme değerini bulursunuz. Bu sizin için de doğru.

3. Gizli katmanın (giriş) her bir i -inci nöronunun çıkışında aynı hata çıkıyor, onu aşağıdaki formüle göre girişe yeniden hesaplıyoruz: dIn[i]=dOUT*(1-out[i]^ 2 ), burada out[i] - gizli katmanın i -inci nöronunun çıktısı. Her nöronun girişine verilen hatayı ( dIn[i] ) bilerek, giriş katmanındaki ağırlık düzeltme değerini bulursunuz.

 

Tek kat için 100 - 120 devir verdim. Bir dvushki için bu belki de yeterli değil mi? Kotira'da (saat saati) iyi sonuç vermediği bir şey.


 
paralocus писал(а) >>

Kotira'da (saat saati) iyi sonuçlar vermediği bir şey.

Başka bir şey mi bekliyordun?

 
Neutron >> :

Başka bir şey mi bekliyordun?

Dürüst olmak gerekirse, evet. En azından tek katman işe yaradı. Elbette haklı olsanız da, zaman dilimlerini tamamen bırakmanın zamanı geldi.

 
paralocus писал(а) >>

Tek kat için 100 - 120 devir verdim. Bir dvushki için bu belki de yeterli değil mi? Kotira'da (saat saati) iyi sonuç vermediği bir şey.

Tek kattan bahsettiğini sanıyordum...

Bir saat boyunca iki katmanım istikrarlı bir şekilde th<=0.05 veriyor ve tek katman sıfıra yakın.

Neden: