Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 363

 
Maxim Dmitrievsky:

Зачем так узко мыслить, здесь все так пишут, как будто слаще морковки ничего не видели )) В топку предикторы, обучайте нейронку находить эти самые предикторы, обучайте нейронку обучать нейронку, эксперементируйте :)  Естественно это очень тупо брать просто индикаторы, подавать их на вход а на выход подавать зигзаг, не знаю почему все это обсуждают :) 

Очень бы хотелось конечно, но…

Например сверточные нейросети  отчасти обладают таким “навыком”, умеют сами учиться предобработке(фильтрации), но они очень узко-специализированы, как потомки Нео-Когнитрона Фокусимы, разработанного как “аналог” ретины глаза, обучаемый бэкпропом, CNN собственно и для картинок штука не тривиальная? в конфигурировании, много волшебных чисел и шаманских архитектур, шаг в лево, шаг в право и всё ломается, то есть это - очень тонкая настройка пот задачу,  а не некий универсальный решатель всего и вся. К сожалению, с инженерной точки зрения, разрабатывать чудо системы, что бы они сами всё делали – наивная утопия, на порядки проще делать частные решения пот задачу, которые итак могут занять годы работы коллектива, а СИИ -  это ближе к чему то философскому, гуманитарному.

 
Алёша:

Очень бы хотелось конечно, но…

Например сверточные нейросети  отчасти обладают таким “навыком”, умеют сами учиться предобработке(фильтрации), но они очень узко-специализированы, как потомки Нео-Когнитрона Фокусимы, разработанного как “аналог” ретины глаза, обучаемый бэкпропом, CNN собственно и для картинок штука не тривиальная? в конфигурировании, много волшебных чисел и шаманских архитектур, шаг в лево, шаг в право и всё ломается, то есть это - очень тонкая настройка пот задачу,  а не некий универсальный решатель всего и вся. К сожалению, с инженерной точки зрения, разрабатывать чудо системы, что бы они сами всё делали – наивная утопия, на порядки проще делать частные решения пот задачу, которые итак могут занять годы работы коллектива, а СИИ -  это ближе к чему то философскому, гуманитарному.


Но в то что можно сделать хороший самооптимизирующийся аппарат я верю, который не будет работать идеально всегда но периодами будет давать

Но это явно не на стандартных индикаторах и зигзаге на выходе будет :) Это даже звучит как какие-то детские игры по-моему, просто как пример если только.

 
Maxim Dmitrievsky:

они не то что не коррелированы, они при увеличении выборки будут вообще противоречить сами себе, да, в итоге на выходе либо конфуз - всегда 0 или 1, или 0.5.. тем более у 1 нейрона. То есть если >0.5 продать а <0.5 купить. Вы загружаете в нее правильные (по вашему мнению) предикторы и правильные ответы, что вот если рси мол перепродан и на следующих n-барах рынок рос, то подаем на выход 0, если рси перекуплен и рынок падал то подаем. Но будет куча случаев когда это будет наоборот, и она затупит, смешает сигналы и войдет в транс. В итоге на выходе будет все время около 0.5 с очень маленькими отклонениями в ту или иную сторону... и так будет со всеми осцилляторами, потому что они вообще не предикторы нифига, а производные от цены :)
Надо если > 0.8 купить, если<0.2 продать. Так вы отсеете шум, который лежит в середине диапазона, т.е. около 0,5
 
elibrarius:
Надо если > 0.8 купить, если<0.2 продать. Так вы отсеете шум, который лежит в середине диапазона, т.е. около 0,5

вы не поняли )
 
нейросеть это искусственный интеллект а любая мыслящая система работать просто так не будет....она же не дура...вы предложите ей перед тренировкой денег или пообещайте процент с выручки, тогда она начнет находить настоящие закономерности и приносить доход..
 
Вопрос к тем, кто давно в теме НС.
Нейросети на ALGLIB и R - весовые коэффициенты подбирают от -1 до 1?
 
elibrarius:

Так то сложно... на это времени уйдет больше, чем если понять алгоритм (как для К корелляции выше) и написать. Думаю функция по перебору всех входов, расчету корреляции и отсеву высококоррелированных займет пару часов.

Надеюсь и с др. решениями по отсеву предикторов получится так же просто)

Так есть еще другие решения по поиску ненужных предикторов?

Посмотрите здесь

При оценке важности предикторов важно помнить, что это комплексная величина, не определяется только информационными критериями. В статье я привел пример выбора предикторов с применением RandomUniformForest  с целью показать важность предикторов в различных аспектах. По моему мнению это наиболее удачный пакет для этой цели.

Конкретно для нейросетей важность предикторов можно определять по их весам в первом слое. Этот подход используется в Н2О. Если найду время приведу пример.

Кроме важности предикторов нужно также определять шумовые примеры(строки). И или выносить их отдельный класс, либо удалять из учебного набора. Смотрите NoiseFilterR

Удачи

 
elibrarius:
Вопрос к тем, кто давно в теме НС.
Нейросети на ALGLIB и R - весовые коэффициенты подбирают от -1 до 1?
Вы о начально инициализации весов или?
 

Vladimir Perervenko:
В статье я привел пример выбора предикторов с применением RandomUniformForest  с целью показать важность предикторов в различных аспектах.

Интересно было бы узнать алгоритм расчета важности в этой ф-ии, чтобы сделать аналог в MQL

Vladimir Perervenko:

Конкретно для нейросетей важность предикторов можно определять по их весам в первом слое. Этот подход используется в Н2О. Если найду время приведу пример.

Тоже об этом думал, реализовать несложно.

Vladimir Perervenko:

Кроме важности предикторов нужно также определять шумовые примеры(строки). И или выносить их отдельный класс, либо удалять из учебного набора. Смотрите NoiseFilterR

Вот это новое для меня, спасибо за идею, надо обдумать.)


Vladimir Perervenko:
Вы о начально инициализации весов или?
Имею в виду каков полный диапазон в котором они подбираются - от -1 до 1.
Начальная полагаю случайно выбирается (как вариант в середине диапазона).
 
elibrarius:

Интересно было бы узнать алгоритм расчета важности в этой ф-ии, чтобы сделать аналог в MQL

Тоже об этом думал, реализовать несложно.

Вот это новое для меня, спасибо за идею, надо обдумать.)


Имею в виду каков полный диапазон в котором они подбираются - от -1 до 1.
Начальная полагаю случайно выбирается (как вариант в середине диапазона).

Нейросети очень чувствительны к начальной инициализации весов. Это совсем не тривиальный вопрос. Существует довольное большое количество способ начальной инициализации один из которых - претренинг (используется в глубоких нейросетях) наи более перспективен (ИМХО).

В процессе обучения веса нейронов могут принимать значения в широком диапазоне от -inf до +inf. Для предотвращения этих перекосов применяют регуляризацию и другие методы стабилизации, ограничивающая диапазон весов. 

Удачи

Причина обращения: