Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 612

 
Yuriy Asaulenko:
Он не пытался, а занимался.)) Рад, что Вам понравилось. А читать надо больше.)  На самом деле, куча времени экономится - не надо велосипеды изобретать. все придумано до нас.

Вроде бы входные предикторы преобразуют в изображения и на них учат сеть.

Здесь.

 

Хороший документ, пару месяцев назад на готайке видел эту ссылку, там не столько про сам ML, сколько про данные которые они используют, с большой коллекцией ссылок на сайты, что очень ценная инфа, реально ценная.

 
Maxim Dmitrievsky:

я вот на Винера перешел - интересно блин.. когда уже эти книжки закончатся :) он по сути тоже прогнозировнаием пытался заниматься

Я тоже как то было томился тем, что все книжки что запланировал не успею прочесть и за 10 жизней, но потом посмотрел на это по другому, с позитивной стороны, пока есть физиологическая мотивация к "запойному" чтению научной литературы, мозгу явно не грозит маразм, а если серьёзно, то ответ в РАНЖИРОВАНИИ, заносите в эксель, выставляете рейтинг важности, сортируете(периодически) и читаете сверху самые топовые что не читали и не паритесь больше с количеством, зная что читаете самое важное.
 
elibrarius:

На тестовом участке, как и у большинства  ошибка на грани 50%. Но по крайней мере считает в десятки раз быстрее Alglib-а. Если тут за 40-100 минут расчет модели, то на Alglib-е больше суток ждал ту же самую структуру, не дождался и отключил расчет.
Хотя если теперь придется подбирать модели в цикле, то это опять уйма времени на это уйдет.... Еще и запрограммировать это дело надо.
В общем это надолго, как вы не ставлю себе лимитов по времени на МО.

Интересно - вот и копаюсь)

Удивили. Что это за модель, что считается больше часа??

Максимум 1-2 минуты должно быть.

 

Братцы, а вы как хотели за 1-2 минуты оптимизации получать модель которая будет актуальна для столь сложного рынка как форекс???? 

По моему это это логический нонсенс. Ведь построение модели затрагивает вычислительные ресурсы, которые можно перевести в стоимсоть. Знамо каждая модель имеют свою стоимость в виде потраченных выч. ресурсов на её создание. И теперь вопрос. Вы хотите зарабатывать на моделях которые стоят копейки??? Ну наверное копейки и заработаете, но не больше.... ИМХО

 

Выше была дана ссылка

toxic:

http://www.valuesimplex.com/articles/JPM.pdf 

А вот картинка из этой книги, автором которой является очень уважаемый банк:



 Почему кроме меня никто не обсуждает то, что здесь указано как  model Instability?

 
СанСаныч Фоменко:

Выше была дана ссылка

toxic:

http://www.valuesimplex.com/articles/JPM.pdf 

А вот картинка из этой книги, автором которой является очень уважаемый банк:



 Почему кроме меня никто не обсуждает то, что здесь указано как  model Instability?

 А что это такое?
 
Mihail Marchukajtes:

Братцы, а вы как хотели за 1-2 минуты оптимизации получать модель которая будет актуальна для столь сложного рынка как форекс???? 

По моему это это логический нонсенс. Ведь построение модели затрагивает вычислительные ресурсы, которые можно перевести в стоимсоть. Знамо каждая модель имеют свою стоимость в виде потраченных выч. ресурсов на её создание. И теперь вопрос. Вы хотите зарабатывать на моделях которые стоят копейки??? Ну наверное копейки и заработаете, но не больше.... ИМХО

Да нет. Речь, как я понял шла о времени обучения а не оптимизации. Оптимизация 20-30 минут конечно.
 
СанСаныч Фоменко:

Для трейдинга идея оптимизации модели (ТС) представляется крайне сомнительной, так как любая оптимизация ищет пики/впадины, а они нам не нужны. Нам нужны, в идеале, ровные плато, как можно большие по размеру. Эти плато должны обладать одним замечательным свойством: изменения параметров модели НЕ должно приводить к уходу с плато. 

Это по поводу оптимизации.

По факту сюда же следует добавить проблему стабильности параметров модели, которые если и меняются, то внутри довольно узкого (5%) доверительного интервала. Как мне кажется, стабильность параметров модели и приводит к тому, что ее результативность находится на неком плато и если при тестировании модели мы внезапно получили очень хороший результат, то это значит мы выскочили на точку минимакса, мы получили неустойчивое состояние, которое на практике никогда больше не встретится, более того вокруг этой оптимальной точки будет располагаться стопаут.

ПС.

Кстати в тестере разработчики предоставили такую возможность поиска плато по цвету. Лично я использую тестер как финишный инструмент и беру параметры, которые относятся к квадратику, вокруг которого квадратики такого же цвета. Это наглядное выражение моего понятия "плато".

В советниках с маркета я тоже часто видел что хорошие для торговли параметры образуют плато в оптимизационной функции. Если там в параметрах есть например МА или RSI, или какой-то коэффициент то изменение параметра на небольшую величину не влияло на итоговый результат. 

Но там это логично, большинство параметров там используются в формуле расчёта индикатора, поэтому небольшое изменение просто чуть-чуть повлияет результат, который всё равно будет посчитан на тех-же ценах.

А в машинном обучении наоборот - параметры могут лавинообразно влиять на весь ход обучения, и даже небольшое изменение приводит к совершенно другому результату. Например число нейронов в скрытом слое - при их увеличении вырастет и число используемых весов, и функция инициализации весов используя гпсч выставит им значения уже в чуть ином порядке, что приведёт к другому результату.
Изменение каких-то параметров тоже будет рисовать плато в оптимизационной функции, можно для каждого параметра изучить плавно или стохастически он влияет на итоговую оценку модели, и для плавно влияющих параметров дополнительно использовать оптимизитор на основе производных (функции optim(method="L-BFGS-B") и optimize() в R)

 
СанСаныч Фоменко:

Выше была дана ссылка

toxic:

http://www.valuesimplex.com/articles/JPM.pdf 

А вот картинка из этой книги, автором которой является очень уважаемый банк:



 Почему кроме меня никто не обсуждает то, что здесь указано как  model Instability?

Речь здесь идет об ошибке на обучающих данных и ошибке в прогнозе. Суть картинки в том, что при минимизации ошибки идет переобучение, и вся суть создания и настройки модели сводится к тому чтобы эту ошибку свести к оптимальному значению на новых данных (избежать переобучения).

Хорошая иллюстрация.
Причина обращения: