
Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Aynı girdileri atma yoluna gidebilirsiniz. Birbiriyle her sütun için ortalama sapmayı hesaplayın. Böylece en benzer iki sütunu bulabilir, birini atabilirsiniz. İkisinden hangisi tüm sütunlar için ortalama sapmadan hesaplanabilir, vb.
Görsel olarak, tüm ağırlıklar iki gruba ayrılır. Bunları anlamlı/önemsiz ilkesine göre bölmek gerekirse, o zaman 5,11,7,1,3,9 açıkça ayırt edilir, bu kümenin yeterli olduğunu düşünüyorum.
Bu doğru karar!
NS'nin bunu yapabileceğini bilmiyordum. Benim için bu bir keşif.
Sinir ağlarının etkileşimleri modelleyebileceği ortaya çıktı.
Sana bir ödülüm var. Teşekkür ederim!
Doğru, NN'ler düzenlilik türü hakkında bir fikir vermez. Yani modelin yorumu tartışmalıdır.
Daha sonra bir veri seti oluşturma mantığını ortaya koyacağım ve bağımlılık türü hakkında konuşacağım.
Görsel olarak, tüm ağırlıklar iki gruba ayrılır. Bunları anlamlı/önemsiz ilkesine göre bölmek gerekirse, o zaman 5,11,7,1,3,9 açıkça ayırt edilir, bu kümenin yeterli olduğunu düşünüyorum.
İlgileniyorsanız, veri kümesinden herhangi bir önemli tahmin ediciyi kaldırmayı deneyin ve NN'yi tekrar eğitin ve ağırlıkları olan bir resim görüntüleyin. Bir sürpriz olacağını düşünüyorum.
Artık sıra dışı. Konunun büyümesi için.
İlgileniyorsanız, veri kümesinden herhangi bir önemli tahmin ediciyi kaldırmayı deneyin ve NN'yi tekrar eğitin ve ağırlıkları olan bir resim görüntüleyin. Bir sürpriz olacağını düşünüyorum.
Artık sıra dışı. Konunun büyümesi için.
Soba, her zaman ondan dans etmeniz gerektiği anlamında çok önemli bir iç detaydır.
Dr.Tüccar
NN ile ilgili örneğiniz yalnızca, NN'nin belirttiğiniz tahmin edicileri daha çok beğendiğini ve diğerlerinden hoşlanmadığını söylüyor. Böyle şeyler yapan algoritmalar bir düzine kuruştur.
Tüm bunlar, hedef değişken için ilgili, tahmin gücü, tahmin gücü olan tahminciler arasından böyle bir seçim yapılırsa iyi olur.
Uygulamama göre, her zaman keyfi bir dizi tahmin edici arasında, hedef değişkenle ilgili olmayan (veya çok zayıf bir şekilde) tahmin ediciler vardır. Bu nedenle, bu tür gürültü tahmin edicilerinin belirli bir sayıda veya bunların rastgele seçilmiş değerlerinin varlığında, NN de dahil olmak üzere çoğu algoritmanın bilgi tahmin edicilerini gürültü olanlardan ayırt edememesi gerçeğinde yatar.
Bu nedenle, "soba", ilk öngörücü kümesini umutsuz, gürültülü öngörücülerden önceden temizlemenize izin veren bir eylem olarak tanımlanır ve ancak o zaman ...
not.
NN ile çalışmadım, ancak belirli sayıda gürültü öngörücüsü olan rastgele ormanlar , yerleşik algoritmalarına göre bilgi öngörücülerini atmaya çalışıyor. Sonuç olarak, gürültü %5'ten daha az bir hatayla olağanüstü performans verir!
PSPS
Gürültü tahmincilerinin hatasız mevcudiyeti, gerçek yaşam için tüm sonuçları ile modelin yeniden eğitilmesine yol açar.
Soba, her zaman ondan dans etmeniz gerektiği anlamında çok önemli bir iç detaydır.
Dr.Tüccar
NN ile ilgili örneğiniz yalnızca, NN'nin belirttiğiniz tahmin edicileri daha çok beğendiğini ve diğerlerinden hoşlanmadığını söylüyor. Böyle şeyler yapan algoritmalar bir düzine kuruştur.
Tüm bunlar, hedef değişken için ilgili, tahmin gücü, tahmin gücü olan tahminciler arasından böyle bir seçim yapılırsa iyi olur.
Uygulamama göre, her zaman keyfi bir dizi tahmin edici arasında, hedef değişkenle ilgili olmayan (veya çok zayıf bir şekilde) tahmin ediciler vardır. Bu nedenle, bu tür gürültü tahmin edicilerinin belirli bir sayıda veya bunların rastgele seçilmiş değerlerinin varlığında, NN de dahil olmak üzere çoğu algoritmanın bilgi tahmin edicilerini gürültü olanlardan ayırt edememesi gerçeğinde yatar.
Bu nedenle, "soba", ilk öngörücü kümesini umutsuz, gürültülü öngörücülerden önceden temizlemenize izin veren bir eylem olarak tanımlanır ve ancak o zaman ...
not.
NN ile çalışmadım, ancak belirli sayıda gürültü öngörücüsü olan rastgele ormanlar, yerleşik algoritmalarına göre bilgi öngörücülerini atmaya çalışıyor. Sonuç olarak, gürültü %5'ten daha az bir hatayla olağanüstü performans verir!
PSPS
Gürültü tahmincilerinin hatasız mevcudiyeti, gerçek yaşam için tüm sonuçları ile modelin yeniden eğitilmesine yol açar.
NS çok iyi bir iş çıkardı.
Rastgele orman, bir dizi değişkenin etkileşiminin olduğu böyle bir görevde ustalaşamadı. Ve her tahmin edicinin bireysel önemi kasıtlı olarak sıfırdı.
İşe yaramasına sevindim :), ödül için teşekkürler.
Bir girişi kaldırmaya çalıştım (4 durum) - input_5 veya input_9'u kaldırırsanız, başka hiçbir şey çalışmaz, aynı konfigürasyona sahip bir nöron bir hata %50'den az olana kadar eğitim bile vermez, sadece 0 veya çıktı vermeye başlar 1. büyük durumda.
input_20'yi kaldırırsanız, her şey yolundadır, sonuç doğrudur. Ama input_15 ile garip çıktı, eğer kaldırırsanız, nöron gerçekten öğrenmedi bile, problemler input_5 veya input_9'u kaldırırsanız aynıdır. Daha fazla kontrol etmedim.
İlgileniyorsanız, bir nöronu eğitmek için R kodlu bir dosya ekledim. Aslında, Rattle günlüğünden sadece biraz değiştirilmiş bir kod var.
İşe yaramasına sevindim :), ödül için teşekkürler.
Bir girişi kaldırmaya çalıştım (4 durum) - input_5 veya input_9'u kaldırırsanız, başka hiçbir şey çalışmaz, aynı konfigürasyona sahip bir nöron bir hata %50'den az olana kadar eğitim bile vermez, sadece 0 veya çıktı vermeye başlar 1. büyük durumda.
input_20'yi kaldırırsanız, her şey yolundadır, sonuç doğrudur. Ama input_15 ile garip çıktı, eğer onu kaldırırsanız, o zaman nöron gerçekten öğrenmedi bile, problemler input_5 veya input_9'u kaldırırsanız aynıdır. Daha fazla kontrol etmedim.
İlgileniyorsanız, bir nöronu eğitmek için R kodlu bir dosya ekledim. Aslında, Rattle günlüğünden biraz değiştirilmiş bir kod var.
Genel olarak, süreç anlaşılabilir, nöron sadece mevcut verileri bir tür mantığa sığdırmaya çalışır ve eğer girdilerin bazıları yeni bilgi taşımıyorsa, zarar vermemek için etkilerini en aza indirir. Girdilerin karmaşık ara bağlantılarını bulması pek olası değil, katılıyorum.
Ayrıca, R'deki nnet paketi oldukça sıradan bir nöron değildir. Açıklamadan, ikinci dereceden öğrenmeyi kullanmalıdır. Genellikle, nöronlarda ağırlıklar türevlere göre değişir, ancak burada - türevlerden türevlere göre. Ve eğitim sırasında, tüm eğitim örnekleri için aynı anda tüm ağırlıklar hakkında önemli verileri depolayan belirli bir "kendir" matrisi oluşturulur. Çok havalı diyorlar, bu paket sağlam olmalı. https://ru.wikipedia.org/wiki/Broyden's_Algorithm_—_Fletcher_—_Goldfarb_—_Shanno - Bunu anlamadım, ama biri matematikçiyse, o anlayacaktır.