Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 923

 
Alexey Vyazmikin :

Şimdi, modeli eğitmek, ağaç parametrelerini arama alıştırması yapmak için verilerinize bakmak istedim. Ama dosyaları bulamadım, buradan yaklaşık yirmi sayfa kayboldular. Onları tekrar buraya ekler misin lütfen?

 
Dr. tüccar :

Şimdi, modeli eğitmek, ağaç parametrelerini arama alıştırması yapmak için verilerinize bakmak istedim. Ama dosyaları bulamadım, buradan yaklaşık yirmi sayfa kayboldular. Onları tekrar buraya ekler misin lütfen?

Tabii ki yapabilirsiniz, sadece parçalar halinde yapmanız gerekir (sunucu arızalıdır), Filtre seti - nereden alıp satamayacağınızı belirler, MaloVhodov seti - makul karlar için trend girişleri, MnogoVhodov seti - hepsi kârsız olanlar hariç girişler.

Bir ağaca seçim dışında çalışmayı öğretemem. MaloVhodov setini başarıyla etkileyen tahmin edicilerden hedef -1 aşağıdakileri belirledi:

arr_iDelta_H4

arr_iDelta_D1

arr_iDelta_MN1

arr_TimeH

arr_Den_Nedeli

arr_iDelta_Max_D1

arr_iDelta_Min_D1

arr_Regressor

arr_LastBarPeresekD_Down

arr_LastBarPeresekD_Up_M15

arr_LastBarPeresekD_Down_M15

arr_DonProc_M15

Dosyalar:
Filter.zip  3502 kb
 
devam şimdi ayarlandı - MaloVhodov
Dosyalar:
MaloVhodov.zip  3471 kb
 
devam şimdi ayarlandı - MnogoVhodov
Dosyalar:
MnogoVhodov.zip  3500 kb
 

1.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-iq-learning-sarsa-dqn-ddpg-72a5e0cb6287

2.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9

Belki de makale için Vladimir için faydalı olacaktır. Sürekli görevler için, DDPG'den önceki her şey alakalı değildir, çünkü. sınırlı sayıda durum/geçiş için tablo yöntemleri vardır

Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG)
Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG)
  • 2018.01.12
  • 黃功詳 Steeve Huang
  • towardsdatascience.com
Reinforcement Learning (RL) refers to a kind of Machine Learning method in which the agent receives a delayed reward in the next time step…
 
Maksim Dmitrievski :

1.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-iq-learning-sarsa-dqn-ddpg-72a5e0cb6287

2.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9

Belki de makale için Vladimir için faydalı olacaktır. Sürekli görevler için, DDPG'den önceki her şey alakalı değildir, çünkü. sınırlı sayıda durum/geçiş için tablo yöntemleri vardır

Teşekkür ederim. İşaretlendim. Topluluklarla bitireceğim (başka bir makale) ve RL'ye hazırlanacağım

İyi şanlar

 
Maksim Dmitrievski :

Kanıt:

eğitimden sonra aşağıdaki program tablosuna sahibiz: (04.01 OOS'tan itibaren)


Sarı ile vurgulanan 7. temsilci en az hataya sahiptir. Onun dışındaki herkesi bırakalım ve görelim:

Sonuç iyileşti.

Güzel! Şimdi (bir iki gün önce mi? Nasıl olacak...) Bir fikri bitirip makaleniz üzerinde çalışmaya başlayacağım!

 
Alexey Vyazmikin :

Güzel! Şimdi (bir iki gün önce mi? Nasıl olacak...) Bir fikri bitirip makaleniz üzerinde çalışmaya başlayacağım!

Güzel olurdu, çünkü iletişim kurduğum kişiler herhangi bir fikir sunmadılar, sadece verdiklerini kullandılar.

beyin fırtınası her zaman faydalıdır

 
Dr. tüccar :

Max'e TS sinyallerini nasıl çevireceğini öğret :)

Ve sonra onun poundu kesinlikle kırmızı renktedir, aksine ticaret siyahta olur.

anladığım kadarıyla - NS, süper kendi kendine optimize edilmiş bir TS'dir

ancak, teklif veren hala TS'nin nerede alım ve nerede satım yapacağını önceden biliyor.

bu yüzden her şey plana göre gider ve tersine döner, dönme - işe yaramaz.

 
Renat Akhtyamov :

ancak, teklif veren, TS'nin nerede alım ve nerede satım yapacağını önceden biliyor.

biliyor musun?
Neden: