Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 932
Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Blogunuza kopyalayın, belki başka biri için faydalı olur. Burada aranacak bir şey yok.
Bu kod da blogda. Ancak bu, "kfold nasıl yapılır" konusunda çok temel bir şeydir, orada belirli görevleriniz için birçok şeyi yeniden yapmanız gerekir. Artı, eğer genetikte çoklu iş parçacığını etkinleştirirseniz, elmnn kurulu rngg tohumunu yok sayar ve her iş parçacığı farklı ve tekrarlanamaz bir şey alır, böyle bir durumda (genetikte çoklu iş parçacığı) Vladimir Perervenko'nun makalelerine ve kontrol etme yöntemine bakmanız gerekir. rngc.
ek boyut hala kalır ve bir şekilde içinden bir eğri çizmek gerekir, belki büyük bir hatayla
Terk, tam tersine hatayı artırır, değil mi?
Ve neden hatayı artıracak bir şey buldular - her şey ancak hatayı azaltmaya yardımcı oluyorsa anlamlıdır.
Bırakma, bir nöronu kapatmaya eşdeğerdir. Gürültülüyse, bu iyi.
Ve neden hatayı artıracak bir şey buldular - her şey ancak hatayı azaltmaya yardımcı oluyorsa anlamlıdır.
khe-khe .. hatadaki bir artışla, aşırı antrenman kaldırılır, bir nevi. Her zaman değil, başka türlü
bu yüzden forex'te 0,5 shiba modelinin iyi bir shiba olduğu gerçeğini savuruyorlar. 0,3 0,4'te benim için az ya da çok çalışmaya başlar, eğer daha azsa, genellikle fazla sığar
Bu anlaşılabilir bir şaka, değil mi? havalı olduklarını düşünüyorlar, aslında, modeli kötü eğitiyorlar ve az ya da çok onlardan bir şey tüketmiyor. yarı rasgele ticaret yapar
Python'da da olmalı.
Açıkçası, python benden hiç uzak değil ... gerçekten hiç kimse GUI sarmalayıcılarını NS ile çalışmak için yapmıyor mu?
Bu gece algoritmayı çalıştıracağım, yarın ne olduğunu göstereceğim
Teşekkürler, bilgilendirici olacak.
%100 doğruluk elde etmek ve modelin iyi çalışacağını ummak Forex'te genellikle imkansızdır, bunun için aylar için tahmin ediciler ve hatta birlikte iyi bir şekilde birleşecek bir hedef seçmeniz gerekir. Genellikle, %50'nin üzerinde birkaç onluk bir doğruluğa ulaşan model, daha sonra eğitim örneklerini ezberlemeye başlar ve içlerinde mantıksal kalıplar bulamaz. Ve buna göre, yeni verilerdeki sonuç daha da kötü olacak. Verileriniz için bu optimum, yaklaşık %60 olduğu ortaya çıktı - hem eğitim hem de test verilerindeki sonuç yaklaşık olarak eşit olduğunda ve ağacın daha ayrıntılı bir dökümü ve daha yüksek doğrulukla, orman yeni verilerde giderek daha kötü bir sonuç gösteriyor .
Evet, acelenin olduğu yerde, boşuna harcanmazsa zaman vardır.
Ancak, ezberlemek ve öğrenmek arasındaki farkı tam olarak anlamıyorum, benim için tüm bu MO, veri setindeki özellikleri bulmalı ve beklenen sonucu öğrenilen sonuçla karşılaştırmalı, ancak veri deformasyonunu hesaba katarak ve buna bağlı olarak, deformasyon hakkında, tahmininizi verin. Her şeyi kurcalamaya başlayana kadar bu benim fikrimdi.
Ağacın farklı tahmin kümeleriyle çözülmesi beni şaşırtıyor, bu da inşa edildiğinde, veri ve bilginin tüm incelemesinin gerçekleşmediği anlamına geliyor ve bu durum, daha fazla kabul edilebilirlik hakkında bir varsayımda bulunmama izin veriyor. dallanma.
khe-khe .. hatadaki bir artışla, aşırı antrenman kaldırılır, bir nevi. Her zaman değil, başka türlü
O da öyle. Daha doğrusu, ana görev budur. Girdileri silmekle nöronları silmek arasında bir ilişkim var. Sadık olmayabilir.
Evet, ilk katmandaki dropconnect , girdileri bırakmak gibidir.
O da öyle. Daha doğrusu, ana görev budur. Girdileri silmekle nöronları silmek arasında bir ilişkim var. Belki sadık değildir.
nöronların çıkarılması, serbestlik derecelerinin kaldırılmasıdır = hatada artış, kabalaşma
eğer birkaç üye regresyondan çıkarılırsa, bu, girişleri silmeye eşdeğerdir ve tamamen bağlı bir NN'de neden
dropconnect, adından, - evet, benziyor
nöronların çıkarılması, serbestlik derecelerinin kaldırılmasıdır = hatada artış, kabalaşma
eğer birkaç üye regresyondan çıkarılırsa, bu, girişleri silmeye eşdeğerdir ve tamamen bağlı bir NN'de neden
dropconnect, adından, - evet, benziyor
1 girişi silerek, 50 nöron başına 50 bağlantıyı da sileriz.
Ve 1 girişi kaldırmak uğruna 50 bağlantının tümünün kaldırılmasından geçmek için görev 50 kat daha zordur. Ve böylece tüm 50 girdiyi sıralamak için... toplam 50^50 varyasyon. Görünüşe göre - umutsuz bir vaka. Girdilerle uğraşmak daha kolaydır - sadece 2 ^ 50))).
Soru sadece sizin için değil, herkes için.
Uygulamada, bu doğrudur, yani. gürültü tahmin edicileri varsa, NN %50-55'ten kaçamaz. Alırsanız,% 70 verebilir.
Ama neden bu?
1) Sonuçta, NN, eğitim sırasında, gürültü tahmin edicileri için 0'a yakın ağırlıkları seçmelidir (bu, seçim sırasında hariç tutulmalarına eşdeğerdir). Bunu şubenin başındaki problemde gördük.
2) Ağırlıkları hafife almak için eğitimle değilse, en azından bırakma onları filtrelemelidir ...
Birçok kez yazılmıştır: gürültü tahmin edicileri model için çok daha uygundur - gürültüde her zaman öğrenme sonucunu iyileştiren değerler vardır. Bu nedenle, süreç tersine çevrilir - gürültü tahmin edicileri beklediğiniz şekilde değil, daha fazla ağırlık alır. Bu, özellikle 1000'den az gözlem olan küçük örneklerde fark edilir. 5000'den fazla gözlemin örnekleri bu kadar etkilenmez, ancak yine de gürültü tahmincilerini önceden taramanız gerekir
Ancak dropconnect ile bile, görev zordur ... örneğin, 50 giriş, 50 nöron.
1 girişi silerek, 50 nöron başına 50 bağlantıyı da sileriz.
Ve 1 girişi kaldırmak uğruna 50 bağlantının tümünün kaldırılmasından geçmek için görev 50 kat daha zordur. Ve böylece tüm 50 girdinin geçmesi gerekiyor ... Görünüşe göre - umutsuz bir durum. Girişlerle uğraşmak daha kolay.
Birçok kez yazılmıştır: gürültü tahmin edicileri model için çok daha uygundur - gürültüde her zaman öğrenme sonucunu iyileştiren değerler vardır. Bu nedenle, süreç tersine çevrilir - gürültü tahmin edicileri beklediğiniz şekilde değil, daha fazla ağırlık alır. Bu, özellikle 1000'den az gözlem olan küçük örneklerde fark edilir. 5000'den fazla gözlemin örnekleri bu kadar etkilenmez, ancak yine de gürültü tahmincilerini önceden taramanız gerekir
Belki de analistin bakış açısından önemlerine göre NN/Ağaç/Ormanlarda kullanım için öngörücülere öncelik vermenizi sağlayan bir teknoloji vardır?