NN için giriş değerleri nasıl doğru bir şekilde oluşturulur. - sayfa 24

 
Reshetov писал (а) >>

Ve son olarak, NN'nin enterpolasyon yeteneklerinin ticaret için gerekli olduğuna inanan inekler için belirli bir karşı argüman verebilirim. Herhangi bir yeniden çizim göstergesini veya osilatörü alın ve herhangi bir sinir ağı ve süslü mimari olmadan tarihte harika enterpolasyon elde edeceksiniz. Tüccarların hindileri yeniden çizmekten çekindikleri açıktır, çünkü enterpolasyon veya yaklaşıklık için uygun olan, durağan olmayan koşullarda ekstrapolasyon için tamamen uygun değildir.

Bir çeşit sapkınlık... Yeniden çizim göstergesinin enterpolasyon ve gelecek tahmini ile nasıl bir bağlantısı var???

 
Reshetov писал (а) >>

Ve son olarak, NN'nin enterpolasyon yeteneklerinin ticaret için gerekli olduğuna inanan inekler için belirli bir karşı argüman verebilirim. Herhangi bir yeniden çizim göstergesini veya osilatörü alın ve herhangi bir sinir ağı ve süslü mimari olmadan tarihte harika enterpolasyon elde edeceksiniz. Tüccarların hindileri yeniden çizmekten çekindikleri açıktır, çünkü enterpolasyon veya yaklaşıklık için uygun olan, durağan olmayan koşullarda ekstrapolasyon için tamamen uygun değildir.

Tam olarak neye yaklaşıldığını tam olarak anlamıyorsunuz. N boyutlu bir X girdi vektörü ve M boyutlu bir Y çıktı vektörü vardır. Sinir ağı aralarında bir bağlantı kurar, yani Y = F(X) bağımlılığına yaklaşır. Y herhangi bir şey olabilir, en az üç kez uyanış, NN lanet bir şeydir, eğitim setinde F (X)'e yaklaşma problemini tam olarak çözer.

 

YENİDEN ÇİZİM İNSANLAR İÇİN AFYONDUR!! ))))

 
Mathemat писал (а) >>
Bu tavsiyeyi daha da güçlendireceğim: 10'a böleriz. Nedense akla stokastik rezonansla ilgili dal geliyor. Ağı sonuna kadar eğitmek, amaç fonksiyonunu derin bir minimuma, yani istikrarlı bir duruma. Durağan durumlar genellikle finansal piyasaların özelliği değildir. Orada - yarı kararlı, yani. önemsiz bir "gürültü"nün bile etkisi altında her an bir felakete (eğilim) dönüşmeye hazır olanlar. Ama bu böyle, felsefi yansımalar ...

Benim düşünceme göre, "aşırı eğitimli" ve "eğitimsiz" olarak nitelendirilebilecek NN'nin durumunun doğası hakkında bir yanlış anlama var. Bu terimler, eğitim örneğinin uzunluğunu, belirli bir sinir ağının serbest parametrelerinin (sinaps) sayısını ve test setindeki genelleme hatasının büyüklüğünü birbirine bağlayan özelliklere atıfta bulunur. Örnek uzunluğu, ayarlanabilir ağırlıkların sayısıyla karşılaştırılabilirse (sınırda daha az veya eşit), o zaman eğitim örneğinde giriş vektörlerine NN yanıtının keyfi olarak tam bir eşleşmesini alacağız, ancak test örneğinde tam bir saçmalık! Bu, aşırı eğitilmiş bir ağ örneğidir. Eğitim örneğinin uzunluğu çok büyükse (ayrı bir soru ne kadar), o zaman eğitim örneğinde kötü bir eşleşme elde ederiz (sınırda, yalnızca örneğin ortalama değerini belirleyeceğiz). Test örneğinde aynı şeyi alıyoruz - ortalama.

Görüldüğü gibi, eğitim dönemlerinin sayısı söz konusu değildir. Ayrıca, küresel bir minimum elde etmek için (NN'yi öğrenmek), aşırı belirlenmiş doğrusal olmayan denklem sistemini (NN'nin yaptığı) çözmek için tüm olası seçeneklerden bize en küçük kümülatif hatayı verecek olanı seçmemiz gerekir (en azından sistemin TÜM denklemlerini karşılayacaktır). Tabii ki, bu koşul, sonsuzluğa yönelen eğitim dönemlerinin sayısı ile elde edilen, sınıra yönelen çözüm (sinapsların bulunan ağırlıkları) tarafından karşılanır.

Bu nedenle, NN'nin fazla takılmasını veya eksik takılmasını eğitim dönemlerinin sayısıyla karıştırmayın - ikincisi her zaman makul derecede büyük olmalıdır (özellikle kaç tanesini deneysel olarak belirlemeniz gerekir).

Literatürde "erken durdurma sorunu" ile ilgili tartışmalar gördüm, ancak yazarların hakkında yazdıklarının doğasını tam olarak anlamadıkları izlenimini edindim. Gerçekten de, eğitim örneğinin uzunluğunun optimal olandan daha az olduğu bir durum alırsak, eğitim sürecinde test setindeki hatanın önce azalacağı ve ardından daha fazla artışla birlikte bir durum ortaya çıkacaktır. eğitim dönemlerinin sayısı, yeniden artmaya başlayacak ... Pekala, bu başka bir operadan, Yoldaşlar!

 

Yeterince NN devi burada toplandığı için çıkıyorum. Sinir ağlarında amatör olduğum için fikrim önemsiz.

Teori tarafından önerilen, 10'dan düşük olmadığını varsayarak, girdi sayısı ve serbestlik derecesi oranından bahsetmedim bile. Az önce doğrulama bölümünde dijital filtrenin minimumdan geçtiği andan bahsettim. Bu, yanılmıyorsam Shumsky'ninki gibi oldukça net bir şekilde tanımlanmış gibi görünüyor.

 
Mathemat писал (а) >>

Yeterince NN devi burada toplandığı için çıkıyorum. Sinir ağlarında amatör olduğum için fikrim önemsiz.

Teori tarafından önerilen, 10'dan düşük olmadığını varsayarak, girdi sayısı ve serbestlik derecesi oranından bahsetmedim bile. Az önce doğrulama bölümünde dijital filtrenin minimumdan geçtiği andan bahsettim. Bu, yanılmıyorsam Shumsky'ninki gibi oldukça net bir şekilde tanımlanmış gibi görünüyor.

Matematikteki büyükler de karışmaz, lütfen elenmeyin :). Kalanların da talebe katılacağını düşünüyorum.

 
Mathemat писал (а) >>
Bu tavsiyeyi daha da güçlendireceğim: 10'a böleriz. Nedense akla stokastik rezonansla ilgili dal geliyor. Mesh'i sonuna kadar eğitmek, amaç fonksiyonunu derin bir minimuma, yani istikrarlı bir duruma. Durağan durumlar genellikle finansal piyasaların özelliği değildir. Orada - yarı kararlı, yani. önemsiz bir "gürültü"nün bile etkisi altında her an bir felakete (eğilim) dönüşmeye hazır olanlar. Ama bu böyle, felsefi yansımalar ...

Valla ben de aynı şeyden bahsediyorum. Sadece yaygın halk terimi olan "sürdürülebilir" yerine "durağan" terimi kullanıldı. Her iki terim de istatistiksel (ayarlanabilir) verilerin olasılıksal olanlara yakın olduğunu ima eder. Ancak finansal enstrümanlarla uğraşan herkes, durağan olmamaları nedeniyle istatistiklerin kendilerine uygulanamayacağını çok iyi biliyor.


Sadece ampirik olarak, şebekenin yaklaşık üçte bir oranında yeniden eğitilmesi gerektiğini anlıyorum. Yine de, girdilerin yeterliliğine bağlıdır. Diğerlerinin ampirik olarak elde edilmesi mümkündür, sadece% 10'u eğitmek gerekir.

 
Reshetov писал (а) >>

Valla ben de aynı şeyden bahsediyorum. Sadece yaygın halk terimi olan "sürdürülebilir" yerine "durağan" terimi kullanıldı. Her iki terim de istatistiksel (ayarlanabilir) verilerin olasılıksal olanlara yakın olduğunu ima eder. Ancak finansal enstrümanlarla uğraşan herkes, durağan olmamaları nedeniyle istatistiklerin kendilerine uygulanamayacağını çok iyi biliyor.


Sadece ampirik olarak, şebekenin yaklaşık üçte bir oranında yeniden eğitilmesi gerektiğini anlıyorum. Yine de, girdilerin yeterliliğine bağlıdır. Diğerlerinin ampirik olarak elde edilmesi mümkündür, sadece% 10'u eğitmek gerekir.


Haikin'e göre, eğitim ve test setleri üzerinde tam eğitim ile sonuçlar arasındaki tutarsızlık, ancak desen sayısı yeterince büyük değilse ortaya çıkabilir.

Yeterli kalıp varsa, tam eğitimle, test setinde erken kesme noktasından daha iyi sonuçlar elde edilirse, bu zaten yukarıda belirtilmiştir.

Tecrübelerime dayanarak, bu sonuçlara inanma eğilimindeyim.



Doğrusal sinir ağına gelince - onun yardımıyla olumlu sonuçlar elde etmek için yeterli bir kesinlikle ortaya çıktıysa, sadece bir sonuç olabilir - sinir ağına gerçekten ihtiyaç yoktur.

 
TheXpert писал (а) >>

Bir çeşit sapkınlık... Yeniden çizim göstergesinin enterpolasyon ve gelecek tahmini ile nasıl bir bağlantısı var???

Sevgili, enterpolasyonun gelecekle ilgili olduğunu nerede belirtmiştim? Bir okültiste gidin ve gönderileri dikkatlice okuyun ve ifadeleri dağıtmayın. Gelecek için ekstrapolasyonun gerekli olduğunu söyledim ve üstün zekalılar için tekrar ediyorum.


Gönderim, rip'in gönderisine yanıt olarak geldi:


------------------ Alıntı ------------------------


rip 14.07.2008 00:01
Reshetov (a) yazdı >>

Doğru şekilde. Normal girdilerin varlığında mimariyi seçmek artık bir sorun değil. Şunu söyleyebiliriz: Girişler her şeydir, mimari hiçbir şeydir.


Burada beyler normal girdileri aldı ve MTC "Combo" ile ilgili sonuçları aldı:

Bir bakıma sana katılıyorum. Ancak ağ mimarisi büyük bir rol oynar... örneğin, RBF ağları bazı enterpolasyon problemlerini çözmede çok daha iyidir.

 
TheXpert писал (а) >>

Khaikin'e göre, eğitim ve test setleri üzerinde tam eğitim ile sonuçlar arasındaki tutarsızlık, ancak desen sayısı yeterince büyük değilse ortaya çıkabilir.

Bay Botanist, normal insanların kendi beyinleri ve kendi deneyimleri vardır ve inekler diğer ineklerden alıntı yapar, çünkü onların beyinleri yoktur ve olamaz.


Khaykin büyük olasılıkla ağı sabit bir ortamda eğitti ve bu nedenle bu tür sonuçlara sahip. Durağan olmama koşulları altında, ağa çok fazla kalıp verilirse hiç öğrenemeyebilir, çünkü örneğin ticarette, bugün kalıp bir satın alma olduğunu ve bir dahaki sefere bir satış olduğunu gösterir. Çünkü herhangi bir girdinin bazı yanlış sinyal olasılığı vardır.

Neden: