Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 923

 
Aleksey Vyazmikin:

Хотел сейчас посмотреть ваши данные для обучения модели, потренироваться искать параметры дерева. Но не нашёл файлы, они затерялись где-то в двадцати страницах отсюда. Приатачте их ещё раз сюда пожалуйста?

 
Dr. Trader:

Хотел сейчас посмотреть ваши данные для обучения модели, потренироваться искать параметры дерева. Но не нашёл файлы, они затерялись где-то в двадцати страницах отсюда. Приатачте их ещё раз сюда пожалуйста?

Конечно можно, только придется частями (сервер глючит), набор Filter - определение где нельзя покупать/продавать, набор MaloVhodov - входы по тренду для приличной прибыли, набор MnogoVhodov - все входы кроме убыточных.

Мне научить дерево не удаётся для работы вне выборки. Из предикторов, которые благополучно повлияли на набор MaloVhodov - целевая -1 выделил следующие:

arr_iDelta_H4

arr_iDelta_D1

arr_iDelta_MN1

arr_TimeH

arr_Den_Nedeli

arr_iDelta_Max_D1

arr_iDelta_Min_D1

arr_Regresor

arr_LastBarPeresekD_Down

arr_LastBarPeresekD_Up_M15

arr_LastBarPeresekD_Down_M15

arr_DonProc_M15

Файлы:
Filter.zip  3502 kb
 
продолжение теперь набор - MaloVhodov
Файлы:
MaloVhodov.zip  3471 kb
 
продолжение теперь набор - MnogoVhodov
Файлы:
MnogoVhodov.zip  3500 kb
 

1.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287

2.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9

Возможно, Владимиру будет полезно для статьи. Для continuous tasks все что раньше DDPG - не релевантно, т.к. там табличные методы для ограниченного кол-ва состояний\переходов

Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG)
Introduction to Various Reinforcement Learning Algorithms. Part I (Q-Learning, SARSA, DQN, DDPG)
  • 2018.01.12
  • 黃功詳 Steeve Huang
  • towardsdatascience.com
Reinforcement Learning (RL) refers to a kind of Machine Learning method in which the agent receives a delayed reward in the next time step…
 
Maxim Dmitrievsky:

1.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-i-q-learning-sarsa-dqn-ddpg-72a5e0cb6287

2.

https://towardsdatascience.com/introduction-to-various-reinforcement-learning-algorithms-part-ii-trpo-ppo-87f2c5919bb9

Возможно, Владимиру будет полезно для статьи. Для continuous tasks все что раньше DDPG - не релевантно, т.к. там табличные методы для ограниченного кол-ва состояний\переходов

Спасибо. У меня в закладках.Закончу с ансамблями (еще одна статья) и подготовлю по RL

Удачи

 
Maxim Dmitrievsky:

Доказательство:

после обучения имеем такие график таблицу: (с 04.01 ООС)


Выделенный желтым 7-й агент имеет наименьшие ошибки. Дропнем всех кроме него и посмотрим:

Результат улучшился.

Крутяк! Сейчас (день-два? раньше? как пойдет...) закончу над одной идеей и займусь Вашей статьёй!

 
Aleksey Vyazmikin:

Крутяк! Сейчас (день-два? раньше? как пойдет...) закончу над одной идеей и займусь Вашей статьёй!

Было бы неплохо, потому что те, с кем общался не предлагали никаких идей, а просто юзали что дают

а мозговой штурм всегда полезен

 
Dr. Trader:

Научи Макса переворачивать сигналы ТС :)

А то у него фунт строго в минус, торгуя наоборот был бы в плюсе.

я так понимаю - НС - это сверхсамосоптимизированная ТС

однако, все равно котировщик заранее знает - где у ТС будет бай, а где селл

так что всё идет по плану и переворачивай, не переворачивай - бесполезно.

 
Renat Akhtyamov:

однако, все равно котировщик заранее знает - где у ТС будет бай, а где селл

ты узнавал?
Причина обращения: