Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2611

 
Renat Akhtyamov # :

%99 olasılık veya faizsiz 0.99

Sen korkunç bir insansın!

Böyle bir şansa sahip olmak ve sadece ölümlülerle iletişim kurmak?... gerçek olmayan bir şey mi...

 
Serqey Nikitin # :

Sen korkunç bir insansın!

Böyle bir şansa sahip olmak ve sadece ölümlülerle iletişim kurmak?... gerçek olmayan bir şey mi...

imkanı yok ;)

Gerçek şu ki, tüccarlar ne kadar uğraşırlarsa uğraşsınlar , sonunda çoğunlukla trende karşı ticaret yaparlar.

CME'deki hacimlerin dağılımını gözlemleyin, çevrimiçi olarak dinamik olarak yayınlanırlar ve fiyat davranışı

bu yine tek bir şey söylüyor - çoğunluğa karşı fiyat

satın alındı - fiyat düştü ve tam tersi

ve öyleydi ve bu yüzden her zaman olacak

çünkü:

https://www.mql5.com/en/forum/86386/page2605#comment_28636383

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2022.03.29
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

CME'den gelen bilgilere dayalı bir strateji yapmak buna değmez

çünkü

fark ettikleri anda, saçma sapan bilgileri nasıl dolduracaklarını biliyorlar

zaten yüzmek ;)

 

Alexey'in belirttiği gibi, artırma gibi çıkıyor

inceleme örneğini dikkate alarak her yinelemede iyileştirme

Iteration: 0 , R^ 2 : 0.187883200953193
Iteration: 1 , R^ 2 : 0.23135332833695177
Iteration: 2 , R^ 2 : 0.5069635195005324
Iteration: 3 , R^ 2 : 0.6549692113098968
Iteration: 4 , R^ 2 : 0.49450581772674385
Iteration: 5 , R^ 2 : 0.727741771152099
Iteration: 6 , R^ 2 : 0.7155342473909062
Iteration: 7 , R^ 2 : 0.7577880020333465
Iteration: 8 , R^ 2 : 0.7519731839574526
Iteration: 9 , R^ 2 : 0.6484696911159258
Iteration: 10 , R^ 2 : 0.7919754252032625
Iteration: 11 , R^ 2 : 0.7434806103697286
Iteration: 12 , R^ 2 : 0.7829611167594436
Iteration: 13 , R^ 2 : 0.8423847977639594
Iteration: 14 , R^ 2 : 0.8755566220080022
Iteration: 15 , R^ 2 : 0.8073736447495541
Iteration: 16 , R^ 2 : 0.7756062175823373
Iteration: 17 , R^ 2 : 0.8767667338484959
Iteration: 18 , R^ 2 : 0.8658089653482818
Iteration: 19 , R^ 2 : 0.7976304450279426
Iteration: 20 , R^ 2 : 0.8335757510984808
Iteration: 21 , R^ 2 : 0.8236019726095158
Iteration: 22 , R^ 2 : 0.8590437311223307
Iteration: 23 , R^ 2 : 0.8425455355207566
Iteration: 24 , R^ 2 : 0.7897953478024325

Ama popo iyi sıkılmıyor (solda), ama bazen daha iyi

Birçok ayar var, detaylı anlatmayacağım. Fikri elimden geldiğince açıkladım.


 

100 tekrar beklersek


 
Maxim Dmitrievsky # :
Kalıp tekrarı ifade eder. Bir kalıp aramıyorsunuz, doğrulama için bir ayarlama yapıyorsunuz.
Algoritmanız, bulunan bağımlılıkların tekrarlanabilirliğini hiçbir şekilde hesaba katmaz, bu nedenle bunun bir kalıp olup olmadığını kontrol etmez...

Parmak örneği.
100 gözlemli bir örneğiniz var
Tahmine bir kez katılan 100 kural oluşturabilir veya tahmine 100 kez katılacak bir kural bulabilirsiniz..

Hangi yaklaşıma bahse girmelisiniz?

 
Maxim Dmitrievsky # :

Alexey'in belirttiği gibi, artırma gibi çıkıyor

inceleme örneğini dikkate alarak her yinelemede iyileştirme

Ama popo iyi sıkılmıyor (solda), ama bazen daha iyi

Birçok ayar var, detaylı anlatmayacağım. Fikri elimden geldiğince açıkladım.


Burada, aslında, 2 tabloya (hisse senedi) bakmak yeterlidir - hepsi saf OOS'ta: 1 - eğitimli, fırfırlar olmadan ilk model, 2 - açıklanan tüm bu prosedürlerden sonra. Metrikleri kullanabilirsiniz - PF, RF, winrate. Dolayısıyla, IS üzerinde anladığım kadarıyla güzel bir öğrenme eğrisinin etkisinin ne olduğu açık değil mi?

 
Replikant_mih # :

Burada, aslında, 2 tabloya (hisse senedi) bakmak yeterlidir - hepsi saf OOS'ta: 1 - eğitimli, fırfırlar olmadan ilk model, 2 - açıklanan tüm bu prosedürlerden sonra. Metrikleri kullanabilirsiniz - PF, RF, winrate. Dolayısıyla, IS üzerinde anladığım kadarıyla güzel bir öğrenme eğrisinin etkisinin ne olduğu açık değil mi?

grafiğin ilk üçte biri - eğitime dahil olmayan yeni veriler

25 ve 100 yinelemeli resimler, maksimum 70 civarında olmasına rağmen 100'de geliştiğini gösteriyor.
 
Maxim Dmitrievsky # :

Şöyle bir soru var:

2 model kullanılmaktadır. Biri alıp satmayı, diğeri ticaret yapmayı ya da yapmamayı öngörüyor.

Önce birincisi eğitilir, sonra nerede kötü tahmin yaptığına bakarız, bu örnekleri “ticaret yapmıyor” olarak işaretliyoruz, gerisi “ticaret” olarak iyi, ikinci modeli bunun için eğitiyoruz.

İlk model sadece eğitim sitesinde değil, ekinde de test edilir ve ikincisi her iki sitede de eğitilir.

Her iki modeli de aynı veri kümesinde yeniden eğiterek bunu birkaç kez tekrarlıyoruz. Sonuçlar, numuneler üzerinde kademeli olarak iyileşir. Ancak her zaman kontrol örneğinde değil.

Buna paralel olarak, tüm geçişlerde bir kötü ticaret günlüğü kümülatif tutulur, ikinci modeli eğitmek için "ticaret yapma" için tüm "kötü" ticaretler toplanır ve daha fazla kopya gibi bazı ilkelere göre filtrelenir. tüm paslar için kötü takaslar, onları "takas yapma" olarak işaretleme şansı artar

Örneğin, tüm eğitim yinelemeleri için her tarih için, bu sayı eşiği (ortalama, ortalama) aştığında belirli sayıda kötü işlem birikmiştir, bu işlemler "işlem yapmıyor" olarak etiketlenir. Geri kalanlar atlanır, aksi takdirde birçok öğrenme yinelemesi varsa tüm işlemleri hariç tutmak mümkün olacaktır.

katsayı, çıkıştaki işlem sayısını ayarlamanıza izin verir, ne kadar düşükse, o kadar fazla işlem filtrelenir

... bu noktada zaten yazmaktan bıktım ...

Böyle bir model kombinasyonu, yeni bir bağımsız sitede sonuçlarını iyileştirecek şekilde nasıl geliştirilebilir?
Bunun neden işe yarayabileceğine dair herhangi bir felsefe var mı? Modellerin her yeniden eğitim turunda doğal olarak birbirlerini iyileştirmeleri (hatalar düşer) dışında, ancak uyumdan nasıl kurtulur?

İllüstrasyon. Grafik 3 bölüme ayrılmıştır. İkincisinde, ilk model eğitilir, sondan bir önceki ve sonuncusu, ikincisi, ilk üçüncüsü inceleme örneğidir. Doğal olarak, son bölüm en iyisi ve ilk üçüncü bölüm en kötüsü olacak.

Kötü ticaret günlüğü kullanılarak her iki modeli yeniden eğitmek için 15 yineleme vardı.

banal bir Çok Etiketli Sınıflandırmaya benziyor - bir model kombinasyonunu değiştirmek gerekli değil, tahmin edicilerin bir kombinasyonunu değiştirmek gerekli - her şeyden önce, tahmin edicilerin akıllı ve perakende eylemlerinin özelliklerine bölünmesi... sonuçta, elbette , birbirine zıt sinyaller olacak ama işte noktalar (geçici) OTF girişi (seviyeleri kırmak için) - Zaten bir model seçmek için Edge (piyasada dtf veya otf action'a) ... IMHO

==========

veya işaretleme olmadan, ancak daha sonra 2 modelden ayrı olarak filtrelememeniz için yalnızca unutma kapısı özelliklerine sahip LSTM ile ... ama bu tamamen bir zevk meselesi ...

ıbm

IBM için bir gerileme elde ettim (2021'in sonundaki test verileri - orada fiyat tablosundaki doğru kuyruk trende ve test tablosunda gösteriliyor)... Basit bir şekilde, Close ile...

pred

- banal bir MA ortaya çıktı - ve her zaman olduğu gibi, bu durumda, bir trendde çalışacak (en azından), bir apartman dairesinde çalışmayacak - ayrıca akıllı ve perakende davranışı için ek filtreleme eklemelisiniz (ve girdiler ve çıktılar olarak sınıflandırma modeli) ...

Dosyalar:
 
JeeyCi # :

banal bir Çok Etiketli Sınıflandırmaya benziyor - bir model kombinasyonunu değiştirmek gerekli değil, tahmin edicilerin bir kombinasyonunu değiştirmek gerekli - her şeyden önce, tahmin edicilerin akıllı ve perakende eylemlerinin özelliklerine bölünmesi... sonuçta, elbette , birbirine zıt sinyaller olacak ama işte noktalar (geçici) OTF girişi (seviyeleri kırmak için) - Zaten bir model seçmek için Edge (piyasada dtf veya otf action'a) ... IMHO

==========

veya işaretleme olmadan, ancak sadece LSTM ile ve katmanları unutun, böylece daha sonra 2 modelden ayrı filtrelemezsiniz ... ama bu tamamen bir zevk meselesi ...

IBM için bir gerileme aldım (2021'in sonundan test verileri - orada fiyat tablosundaki doğru kuyruk trende ve test çizelgelerinde gösteriliyor)... Kapat için basit bir şekilde... - banal bir MA çıktı - ve bu durumda her zaman olduğu gibi, trend (en azından bir şekilde) çalışacak, düz değil - ayrıca akıllı ve perakende davranışı için ek filtreleme eklenmeli (ve model, girdi ve çıktılara sınıflandırmaya dönüştürülmelidir) ...

çoklu etiket değil, farklı bir anlamı var. Kötü sinyaller yinelemeli olarak elimine edilir, genel yığındaki ana model tarafından iyi tahmin edilenler bırakılır ve ikinci model, kötüyü iyiden ayırmayı, birincinin ticaretini yasaklamayı veya izin vermeyi öğrenir.

lstm ile her zaman MA ortaya çıkıyor, uzun zaman önce kontrol edildi

Neden: