Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2210

 
Maxim Dmitrievsky:
Не ряд, а трейн и оос 

Этого делать нельзя, т.к. 2 года справа колосятся на любом навозе.

Примерно, как на Сейшелах найти закономерность, что нужен пуховик на случай ледникового.

 
fxsaber:

Этого делать нельзя, т.к. 2 года справа колосятся на любом навозе.

Примерно, как на Сейшелах найти закономерность, что нужен пуховик на случай ледникового.

Ну так значит и находится не общая закономерность, а локальная. Тогда менять настройки, подбирать чтобы в обе стороны робило
 
Maxim Dmitrievsky:
Ну так значит и находится не общая закономерность, а локальная. Тогда менять настройки, подбирать чтобы в обе стороны робило

Спасибо, буду думать. Не типичная ситуация, видимо.

 
fxsaber:

Спасибо, буду думать. Не типичная ситуация, видимо.

А что тут сделаешь, если о генеральной совокупности ничего не известно. Только выпендриваться разными способами, в зависимости от характера ТС. В МО такие проблемы возникают реже, потому что можно перемешать все выборки. Подмешать другие примеры, тогда не будет переобучения на конкретный кусок. Условно, взять по месяцу каждого года, на них обучить. Остальное - ООС.
 
fxsaber:

Проблема определить это множество. Далее, конечно, находим мощность профитного подмножества настроек. И если оно большое относительно исходного - нашли.

Но исходное множество определить - это какая-то генетика должна быть. Не в теме, в общем.

Классический логический подход - разбить настройки по значимости и силе воздействия (классы типа), и комбинации как бы по логике значимые и сильные. значимые и слабые, не значимые и сильные, не значимые и слабые. Это если 2 класса настроек, если больше то геометрическая или хуже с размерностью количества и значений экспонента ) проклятие... лечиться разумным выбором.

 
Maxim Dmitrievsky:

Придумал как можно обучать "минимуму" нейронку практически из любого пакета который заточен под классификацию или регрессию

Главное чтобы пакет давал доступ к весам нейронки и давал возможность их изменять.


рецепт такой.

1) обучаем нейронку , не важно чему , главное получить модель с весами

2) выбираем метод оптимизации  (генетика, мурави, рои, симуляция отжига  итп)

3) пишем фитнес функцию

4) берем веса нейронки и представляем их как параметры  для  оптимизации

все!! )))

Можно обучать нейронку на получение прибыли, или заставить ее создать какой то мега индикатор или что угодно..

 
mytarmailS:

Придумал как можно обучать "минимуму" нейронку практически из любого пакета который заточен под классификацию или регрессию

Главное чтобы пакет давал доступ к весам нейронки и давал возможность их изменять.


рецепт такой.

1) обучаем нейронку , не важно чему , главное получить модель с весами

2) выбираем метод оптимизации  (генетика, мурави, рои, симуляция отжига  итп)

3) пишем фитнес функцию

4) берем веса нейронки и представляем их как параметры  для  оптимизации

все!! )))

Можно обучать нейронку на получение прибыли, или заставить ее создать какой то мега индикатор или что угодно..

Если обучать нейронку получать прибыль) ее нужно научить не сливать))) но тут есть одно но:  сетка перестает открывать позиции, что бы сохранить деп. я так уже пробовал. причем разными вариантами со стопами, без стопов результат один, сеть в итоге решает что лучший способ получить прибыль это сохранить деп 

 
Maxim Dmitrievsky:

нейронка из статьи фигачит на реале


и как успехи?

 
Александр Алексеевич:

Если обучать нейронку получать прибыль) ее нужно научить не сливать))) но тут есть одно но:  сетка перестает открывать позиции, что бы сохранить деп. я так уже пробовал. причем разными вариантами со стопами, без стопов результат один, сеть в итоге решает что лучший способ получить прибыль это сохранить деп 

ты не знаешь что такое многокритериальная оптимизация ??

 
mytarmailS:

ты не знаешь что такое многокритериальная оптимизация ??

фигней не страдай.. просто складываются результаты нескольких ФФ

не страдай фигней, если не знаешь что и зачем

Причина обращения: