Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 738

 

Michael'ın tabanı normal. Nereden başlayacağını arayanlar için güzel bir örnek.

Borsadan bile bazı iyi göstergeleri var, bu zaten standart Mashka ve Rsishka'dan daha iyi. Ayrıca, hepsini sadece nörona sokmakla kalmaz, çeşitli yollarla göstergelerin önemini değerlendirir ve tahmin için en uygun olanları seçer. Daha sonra bir nöron eğitilir, ancak basit bir nöron değil, yerleşik bir aşırı uyum kontrolü ile. Ve tüm bu strateji, test cihazında ileriye dönük bir adım olarak test ediliyor.

SanSanych, bu konunun başında benzer bir şemayı anlattı ve sonunda başka biri üzerinde çalışmaya karar verdi. Ve sonra pek çoğu, nörona daha fazla gösterge sıkıştırmak istiyor ve düşünmüyor.

Ayrıca göstergelerin ön işlemesini vtreat veya caret aracılığıyla yapardım. Ve kfold ile daha yeterli bir nöron. Ve eğitim için daha fazla örnek alırdım, diğer eleştirmenlere katılıyorum.

 

Biliyoruz kardeşlerim!!! Herkese bir kerede cevap vereceğim ... Herkes eğitimini en iyi şekilde yapıyor, AMA sonuç anlaşmazlığımızı çözecek. Alt satırda tabiri caizse. Hala kazanıyorum çünkü depozito artıyor. Yaklaşımımın doğru olanlardan biri olduğunu biliyoruz.

Bu arada, ben vtreat ve permütasyonlu önemli tahmin ediciler + püf noktaları seçiyorum.

BO ile ilgili makalede, bu ayrıntılı olarak tartışılacaktır.

 
Michael Marchukajtes :

Biliyoruz kardeşlerim!!! Herkese bir kerede cevap vereceğim ... Herkes eğitimini en iyi şekilde yapıyor, AMA sonuç anlaşmazlığımızı çözecek. Alt satırda tabiri caizse. Hala kazanıyorum çünkü depozito artıyor. Yaklaşımımın doğru olanlardan biri olduğunu biliyoruz.

Bu arada, ben vtreat ve permütasyonlu önemli tahmin ediciler + püf noktaları seçiyorum.

BO ile ilgili makalede, bu ayrıntılı olarak tartışılacaktır.

Yukarıda karşılıklı bilgi hakkında yazmışsınız. Ne yapıyor?

 
San Sanych Fomenko :

Yukarıda karşılıklı bilgi hakkında yazmışsınız. Ne yapıyor?

Hangi modelin kullanılacağını seçerken belirleyici kriter. Ditiset'i hazırlar. 10 kez antrenman yapıyoruz. Tüm modeller için eğitim hatalarının sayısının aynı olduğu, aynı öğrenme çıktılarına sahip (örnek olarak) 10 model elde ediyoruz. Ardından, eğitim alanındaki modellerin sonuçlarını ikili olarak değil, ikili olarak kaydediyoruz. Polinomun hesaplanmasının sonucu, çünkü çiftimizde başlangıçta kabul edilir ......

Daha sonra, çıktıya göre polinomların VI'sını ele alıyoruz. Çalışma modelleri, tam olarak VI indeksi çıktı entropisinden daha yüksek, iyi veya aptalca yaklaşık 0,7'den fazla olanlar olarak kabul edilir ....

VI değeri yüksek, ancak 0.95'ten yüksek olmayan modeli seçiyoruz. Bunu henüz kontrol etmemiş olmama rağmen .... IMHO

 

Eğitim örneğindeki artışla ilgili. Evet arttırılabilir ama ağın kalitesi düşer bu da işlemlerde azalmaya neden olur. Ağ zamanla daha uzun çalışmaya başlar, ancak "Bilmiyorum" durumlarının sayısı artar ve ağın daha az sıklıkta çalıştığı ortaya çıkar. Bu yaklaşımla, birkaç modeli eğitmek ve paralel olarak çalıştırmak gerekir.


Özellikle eğitim dönemi artık bana vtreat.R tarafından dikte edildiğinden. Hangi, benim girdilerimle, bana farklı örnek uzunlukları için girdi setleri sunuyor. Seçtiği maksimum girdi değişkeni sayısı için maksimum eğitim süresini seçiyorum.... Ve garip bir şekilde, 20 ila 50 örnek arasında dönüyor. Sahip olduğum giriş verilerini görebilirsiniz. Ne yapabilirsin...

 

Michael Marchukajtes :

...

Hangi modelin kullanılacağını seçerken belirleyici kriter

...

MO diline çevirmeye çalışacağım:

Mikhail'in bir sınıflandırma modeli vardır, ancak sonucu yalnızca ikili 0 ve 1'i değil, aynı zamanda sınıfa ait olma olasılığını da (0'dan 1'e kadar kesirli bir sayı) döndürebilir. Bu nedenle model sadece sınıflandırma ile değil, aynı zamanda regresyon metrikleri ile de değerlendirilebilir. Seçimin neden karşılıklı bilgilere dayandığını bilmiyorum, ancak en küçük kareler ile iyi bir korelasyon gösteriyor, bu yüzden normal.

Örneğin R'de şu şekilde hesaplanabilir -
kütüphane(entropi)
mi.plugin(rbind(hedef,tahmin))
Burada sonuç ne kadar küçükse o kadar iyidir.

 
toksik :

Tabii ki, ancak istatistikte, hata (varyasyon) 1/sqrt(N) ile orantılıdır, burada N gözlem sayısıdır, her şey ilk varyasyona bağlıdır, ne kadar fazlaysa, sığdırmak için o kadar fazla gözlem gerekir. %5'lik bir kuantilde hata

"Bundan yararlanacak birini arayın" ((c) V.I. Lenin)

Halka açık yerlerde yayınlarlar ve satarlar, yalnızca yararsız ve hatta zararlı araçlar, bariz nedenlerle, bu önemsiz gerçek her zaman hatırlanmalıdır, algoritmik ticaret web tasarımı veya bir tür franchise değil, hamurun piyasadan doğrudan işlevsel olarak çekilmesidir. , her şey açık ve kolay erişilebilir ama ne kadar çok reklam yapılırsa apriori bu bağlamda işe yaramaz, çöp veya dolandırıcılık, o kadar agresif ve rekabetçi bir ortamımız var ki.

Evet, kazançların yüzde 5'i ve halka açık araçların sonsuz bolluğu - Klondike.

Ve burada son zamanlarda, sipariş üzerine, kontrol edildiğinde TensorFlow'dan gelen yığın DNN'yi üç büyüklük sırası atlayan bir yazarın sinir ağı bileşenini yapmak zorunda kaldım.

Ve en önemlisi, karmaşık matematik veya abartılı teknolojiler yoktu, oldukça basit, ancak orijinal bir çözüm.

Bu arka plana karşı, Mikhail'in yazarın Reshetov'u geliştirmesine olan bağlılığı, kişisel olarak beni hiç şaşırtmıyor.

 
toksik :

Yani aynı şeyden bahsediyorum, sadece bunun hakkında. Alt yapımdan 40 numune alsam da sonuca kefil olamam ve 4000 puan çok az. Tabii ki, makalelerden değil, savaş stratejilerinden bahsetmiyorsak.

Böyle bir temel kurala uyuyorum - yeni verilerle ilgili bir danışman, eğitim çubuklarının% 10'undan fazla çalışmayacaktır. 4000 çubuk üzerinde eğitim aldıysanız, 400'den fazla çalışmayacaktır.Örneğin, m15'te bir hafta ticaret yapmak istiyorsanız, eğitim için en az 4800 (4*24*5*10, 10 hafta) geçmiş çubuğuna ihtiyacınız vardır. .

Bir gün MT5 Expert Advisor'da paralel akışlar sunacak, böylece Expert Advisor'ı arka planda sürekli optimize edebilirsiniz, o zaman çok az sayıda çubukla ilginç deneyler yapmak mümkün olacak, belki 40 çubukta yapabilirim. Her ne kadar muhtemelen yapamam. 1000'den az eğitim örneğim olsa bile, nöronun sonucu eğilime doğru çarpıktır ve değişir değişmez her şey kötüdür.

 
Michael Marchukajtes :

Eğitim örneğindeki artışla ilgili. Evet arttırılabilir ama ağın kalitesi düşer bu da işlemlerde azalmaya neden olur. Ağ zamanla daha uzun çalışmaya başlar, ancak "Bilmiyorum" durumlarının sayısı artar ve ağın daha az sıklıkta çalıştığı ortaya çıkar. Bu yaklaşımla, birkaç modeli eğitmek ve paralel olarak çalıştırmak gerekir.


Ayrıca, eğitim süresi artık bana vtreat.R tarafından dikte ediliyor. Hangi, benim girdilerimle, bana farklı örnek uzunlukları için girdi setleri sunuyor. Seçtiği maksimum girdi değişkeni sayısı için maksimum eğitim süresini seçiyorum.... Ve garip bir şekilde, 20 ila 50 örnek arasında dönüyor. Sahip olduğum giriş verilerini görebilirsiniz. Ne yapabilirsin...

Ağın kalitesi düşmeyecek, ancak fazlalık daha az olacak ve modeliniz tüm ihtişamı ve yoksulluğu ile görünecek.

Yetkili 3 özellik üzerinde 3 ay 1000+ işlem için optimize eden bir Reshetov nöronum var ve ardından gerçek hayatta sıfıra çalışıyor. Ve diğer nöronlar daha da iyi optimize edilir. Ve 100 anlaşmanla bir tür oyun oynamaya devam ediyorsun, neden aptalsın, bu kendini beğenmişlik ya da birine bir şey kanıtlamak gibi, içinden çıkılmaz bir eğrisin
 

hmm.. iyi günler!)

ve "kıvrımlı" kelimesi sinirsel bir şey mi?

Neden: