Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 932

 
elibrarius :
Blogunuza kopyalayın, belki başka biri için faydalı olur. Burada aranacak bir şey yok.

Bu kod da blogda. Ancak bu, "kfold nasıl yapılır" konusunda çok temel bir şeydir, orada belirli görevleriniz için birçok şeyi yeniden yapmanız gerekir. Artı, eğer genetikte çoklu iş parçacığını etkinleştirirseniz, elmnn kurulu rngg tohumunu yok sayar ve her iş parçacığı farklı ve tekrarlanamaz bir şey alır, böyle bir durumda (genetikte çoklu iş parçacığı) Vladimir Perervenko'nun makalelerine ve kontrol etme yöntemine bakmanız gerekir. rngc.

 
Maksim Dmitrievski :

ek boyut hala kalır ve bir şekilde içinden bir eğri çizmek gerekir, belki büyük bir hatayla

Terk, tam tersine hatayı artırır, değil mi?

Bırakma, bir nöronu kapatmaya eşdeğerdir. Gürültülüyse, bu iyi.
Ve neden hatayı artıracak bir şey buldular - her şey ancak hatayı azaltmaya yardımcı oluyorsa anlamlıdır.
 
elibrarius :
Bırakma, bir nöronu kapatmaya eşdeğerdir. Gürültülüyse, bu iyi.
Ve neden hatayı artıracak bir şey buldular - her şey ancak hatayı azaltmaya yardımcı oluyorsa anlamlıdır.

khe-khe .. hatadaki bir artışla, aşırı antrenman kaldırılır, bir nevi. Her zaman değil, başka türlü

bu yüzden forex'te 0,5 shiba modelinin iyi bir shiba olduğu gerçeğini savuruyorlar. 0,3 0,4'te benim için az ya da çok çalışmaya başlar, eğer daha azsa, genellikle fazla sığar

Bu anlaşılabilir bir şaka, değil mi? havalı olduklarını düşünüyorlar, aslında, modeli kötü eğitiyorlar ve az ya da çok onlardan bir şey tüketmiyor. yarı rasgele ticaret yapar

 
Dr. tüccar :

Python'da da olmalı.

Açıkçası, python benden hiç uzak değil ... gerçekten hiç kimse GUI sarmalayıcılarını NS ile çalışmak için yapmıyor mu?

Dr. tüccar :

Bu gece algoritmayı çalıştıracağım, yarın ne olduğunu göstereceğim

Teşekkürler, bilgilendirici olacak.

Dr. tüccar :

%100 doğruluk elde etmek ve modelin iyi çalışacağını ummak Forex'te genellikle imkansızdır, bunun için aylar için tahmin ediciler ve hatta birlikte iyi bir şekilde birleşecek bir hedef seçmeniz gerekir. Genellikle, %50'nin üzerinde birkaç onluk bir doğruluğa ulaşan model, daha sonra eğitim örneklerini ezberlemeye başlar ve içlerinde mantıksal kalıplar bulamaz. Ve buna göre, yeni verilerdeki sonuç daha da kötü olacak. Verileriniz için bu optimum, yaklaşık %60 olduğu ortaya çıktı - hem eğitim hem de test verilerindeki sonuç yaklaşık olarak eşit olduğunda ve ağacın daha ayrıntılı bir dökümü ve daha yüksek doğrulukla, orman yeni verilerde giderek daha kötü bir sonuç gösteriyor .

Evet, acelenin olduğu yerde, boşuna harcanmazsa zaman vardır.

Ancak, ezberlemek ve öğrenmek arasındaki farkı tam olarak anlamıyorum, benim için tüm bu MO, veri setindeki özellikleri bulmalı ve beklenen sonucu öğrenilen sonuçla karşılaştırmalı, ancak veri deformasyonunu hesaba katarak ve buna bağlı olarak, deformasyon hakkında, tahmininizi verin. Her şeyi kurcalamaya başlayana kadar bu benim fikrimdi.

Ağacın farklı tahmin kümeleriyle çözülmesi beni şaşırtıyor, bu da inşa edildiğinde, veri ve bilginin tüm incelemesinin gerçekleşmediği anlamına geliyor ve bu durum, daha fazla kabul edilebilirlik hakkında bir varsayımda bulunmama izin veriyor. dallanma.

 
Maksim Dmitrievski :

khe-khe .. hatadaki bir artışla, aşırı antrenman kaldırılır, bir nevi. Her zaman değil, başka türlü

O da öyle. Daha doğrusu, ana görev budur. Girdileri silmekle nöronları silmek arasında bir ilişkim var. Sadık olmayabilir.

Evet, ilk katmandaki dropconnect , girdileri bırakmak gibidir.

 
elibrarius :

O da öyle. Daha doğrusu, ana görev budur. Girdileri silmekle nöronları silmek arasında bir ilişkim var. Belki sadık değildir.

nöronların çıkarılması, serbestlik derecelerinin kaldırılmasıdır = hatada artış, kabalaşma

eğer birkaç üye regresyondan çıkarılırsa, bu, girişleri silmeye eşdeğerdir ve tamamen bağlı bir NN'de neden

dropconnect, adından, - evet, benziyor

 
Maksim Dmitrievski :

nöronların çıkarılması, serbestlik derecelerinin kaldırılmasıdır = hatada artış, kabalaşma

eğer birkaç üye regresyondan çıkarılırsa, bu, girişleri silmeye eşdeğerdir ve tamamen bağlı bir NN'de neden

dropconnect, adından, - evet, benziyor

Ancak dropconnect ile bile, görev zordur ... örneğin, 50 giriş, 50 nöron.
1 girişi silerek, 50 nöron başına 50 bağlantıyı da sileriz.
Ve 1 girişi kaldırmak uğruna 50 bağlantının tümünün kaldırılmasından geçmek için görev 50 kat daha zordur. Ve böylece tüm 50 girdiyi sıralamak için... toplam 50^50 varyasyon. Görünüşe göre - umutsuz bir vaka. Girdilerle uğraşmak daha kolaydır - sadece 2 ^ 50))).
 
elibrarius :

Soru sadece sizin için değil, herkes için.

Uygulamada, bu doğrudur, yani. gürültü tahmin edicileri varsa, NN %50-55'ten kaçamaz. Alırsanız,% 70 verebilir.

Ama neden bu?
1) Sonuçta, NN, eğitim sırasında, gürültü tahmin edicileri için 0'a yakın ağırlıkları seçmelidir (bu, seçim sırasında hariç tutulmalarına eşdeğerdir). Bunu şubenin başındaki problemde gördük.
2) Ağırlıkları hafife almak için eğitimle değilse, en azından bırakma onları filtrelemelidir ...

Birçok kez yazılmıştır: gürültü tahmin edicileri model için çok daha uygundur - gürültüde her zaman öğrenme sonucunu iyileştiren değerler vardır. Bu nedenle, süreç tersine çevrilir - gürültü tahmin edicileri beklediğiniz şekilde değil, daha fazla ağırlık alır. Bu, özellikle 1000'den az gözlem olan küçük örneklerde fark edilir. 5000'den fazla gözlemin örnekleri bu kadar etkilenmez, ancak yine de gürültü tahmincilerini önceden taramanız gerekir

 
elibrarius :
Ancak dropconnect ile bile, görev zordur ... örneğin, 50 giriş, 50 nöron.
1 girişi silerek, 50 nöron başına 50 bağlantıyı da sileriz.
Ve 1 girişi kaldırmak uğruna 50 bağlantının tümünün kaldırılmasından geçmek için görev 50 kat daha zordur. Ve böylece tüm 50 girdinin geçmesi gerekiyor ... Görünüşe göre - umutsuz bir durum. Girişlerle uğraşmak daha kolay.
Plyubak girdileri daha önemlidir, modelli oyunlar zaten şamanizmdir ve teorik olarak genel durumda büyük bir artış vermemelidir. Pekala, bir iskele topluluğu yaptım, bireysel iskele damlalarından sonra 0,05, bazen de 0,1 oranında yanlışlıkla iyileştirebilirsiniz (tren ve test arasındaki fark). Ana sorunu çözmez. Süslü sinir ağlarında, nasıl olduğunu bilmiyorum.
 
San Sanych Fomenko :

Birçok kez yazılmıştır: gürültü tahmin edicileri model için çok daha uygundur - gürültüde her zaman öğrenme sonucunu iyileştiren değerler vardır. Bu nedenle, süreç tersine çevrilir - gürültü tahmin edicileri beklediğiniz şekilde değil, daha fazla ağırlık alır. Bu, özellikle 1000'den az gözlem olan küçük örneklerde fark edilir. 5000'den fazla gözlemin örnekleri bu kadar etkilenmez, ancak yine de gürültü tahmincilerini önceden taramanız gerekir

Belki de analistin bakış açısından önemlerine göre NN/Ağaç/Ormanlarda kullanım için öngörücülere öncelik vermenizi sağlayan bir teknoloji vardır?

Neden: