Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 923

 
Aleksey Vyazmikin:

Eu queria ver os seus dados para treinamento de modelos agora, para praticar a procura de parâmetros de árvore. Mas não consegui encontrar os ficheiros, perderam-se em cerca de vinte páginas. Coloque-os aqui novamente, por favor.

 
Dr. Trader:

Eu queria ver os seus dados para treinamento de modelos agora, para praticar a procura de parâmetros de árvore. Mas não consegui encontrar os ficheiros, perderam-se em cerca de vinte páginas. Pode voltar a prendê-los aqui, por favor?

Claro que você pode, mas eu tenho que fazer isso em partes (falhas no servidor), Conjunto de filtros - detectar onde não é permitida compra/venda, Conjunto MaloVhodov - entradas de tendências para lucro decente, Conjunto MnogoVhodov - todas as entradas exceto as de perdas.

Eu não posso ensinar a árvore a trabalhar fora da amostra. Dos preditores que afectaram com segurança o conjunto MaloVhodov - alvo -1, destaquei o seguinte:

arr_iDelta_H4

arr_iDelta_D1

arr_iDelta_MN1

arr_TimeH

arr_Den_Nedeli

arr_iDelta_Max_D1

arr_iDelta_Min_D1

arr_Regresor

arr_LastBarPeresekD_Down

arr_LastBarPeresekD_Up_M15

arr_LastBarPeresekD_Down_M15

arr_DonProc_M15

Arquivos anexados:
Filter.zip  3502 kb
 
continuação agora definida - MaloVhodov
Arquivos anexados:
MaloVhodov.zip  3471 kb
 
continuação agora definida - MnogoVhodov
Arquivos anexados:
MnogoVhodov.zip  3500 kb
[Excluído]  

1.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287

2.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9

Pode ser útil para o artigo de Vladimir. Para tarefas contínuas, tudo antes do DDPG é irrelevante, pois existem métodos tabulares para um número limitado de estados/transições

Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG)
Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG)
  • 2018.01.12
  • 黃功詳 Steeve Huang
  • towardsdatascience.com
Reinforcement Learning (RL) refers to a kind of Machine Learning method in which the agent receives a delayed reward in the next time step…
 
Maxim Dmitrievsky:

1.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287

2.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9

Vladimir pode ser útil para o artigo. Tudo antes do DDPG é irrelevante para o artigo, pois existem métodos tabulares para um número limitado de estados/transições

Obrigado. Tenho-o marcado.Vou terminar com os conjuntos (outro artigo) e preparar-me no RL

Boa sorte.

 
Maxim Dmitrievsky:

Provas:

Depois do treino, temos uma tabela de gráficos: (a partir de 04.01 OOS)


O agente 7, destacado em amarelo, tem os menores erros. Vamos largar tudo menos ele e ver:

O resultado melhorou.

Fixe! Agora (um dia ou dois? mais cedo? como vai...) Vou terminar uma ideia e vou ao seu artigo!

[Excluído]  
Aleksey Vyazmikin:

Fixe! Agora (um dia ou dois? mais cedo? como vai...) Vou terminar uma ideia e vou ao seu artigo!

Teria sido bom, porque as pessoas com quem falei não ofereceram ideias, apenas usaram o que lhes foi dado.

e o brainstorming é sempre útil

 
Dr. Trader:

Ensine o Max a inverter os sinais TS :)

Porque a sua libra está estritamente em menos, enquanto que, pelo contrário, estaria em mais.

eu entendo - NS é uma superamostragem TS

Mas de qualquer forma, o corretor sabe antecipadamente onde o TS será comprado e onde será vendido.

Então, tudo corre de acordo com o plano e é inútil virar ou não virar.

[Excluído]  
Renat Akhtyamov:

No entanto, a cotação ainda está a priori ciente de onde o TS será comprado e onde será vendido.

você descobriu?