Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 614

 

Можно ли начать обучение именно с того чтобы торговать? Ведь риск того, что я солью счет, да и в этом я даже не сомневаюсь, очень велик.

 

 Но Миха пообещал Яву одолеть, так что скоро блистать будет.

Интересно, почему не Питон? М.б. тот-же R? Ни фига не понимаю.
 
Dr. Trader:

В советниках с маркета я тоже часто видел что хорошие для торговли параметры образуют плато в оптимизационной функции. Если там в параметрах есть например МА или RSI, или какой-то коэффициент то изменение параметра на небольшую величину не влияло на итоговый результат. 

Но там это логично, большинство параметров там используются в формуле расчёта индикатора, поэтому небольшое изменение просто чуть-чуть повлияет результат, который всё равно будет посчитан на тех-же ценах.

А в машинном обучении наоборот - параметры могут лавинообразно влиять на весь ход обучения, и даже небольшое изменение приводит к совершенно другому результату. Например число нейронов в скрытом слое - при их увеличении вырастет и число используемых весов, и функция инициализации весов используя гпсч выставит им значения уже в чуть ином порядке, что приведёт к другому результату.
Изменение каких-то параметров тоже будет рисовать плато в оптимизационной функции, можно для каждого параметра изучить плавно или стохастически он влияет на итоговую оценку модели, и для плавно влияющих параметров дополнительно использовать оптимизитор на основе производных (функции optim(method="L-BFGS-B") и optimize() в R)

Это не маркет, вообще не маркет - это статистика с целым рядом тестов на устойчивость коэффициентов. Наиболее известный CUSUM.

Так может быть приведенная Вами чудовищная зависимость результата от параметров сети говорит об их принципиальной НЕ пригодности для финансовых рынков?

А может быть сначала надо сконструировать нечто соответствующее цели (трактор - тут модно, или ракету), а потом рассуждать об устойчивости того, что получилось?

Но по-любому: или у нас имеются доказательства устойчивости модели, или она ВООБЩЕ не нужна.  Ошибка модели и ее устойчивость - это две стороны одной монеты.

 
Yuriy Asaulenko:
Интересно, почему не Питон? М.б. тот-же R? Ни фига не понимаю.

Действительно. Раз уж такая тяга к знаниям, берешь рейтинг и из топа изучаешь то, что вроде походит.

 
Dr. Trader:

Модель Решетова не эталон. Например поиск набора предикторов в ней происходит перебором различных вариантов - модель берёт случайный набор предикторов, обучается, и запоминает результат. Это повторяется в цикле огромное число раз, в итоге самый лучший результат используется как финальная модель. Этот процесс можно заметно ускорить если сначала сделать отбор предикторов специальным алгоримом, а потом обучить модель Решетова всего один раз на этом конкретном наборе. И вы получите качество модели Решетова при скорости сравнимой с AWS. "Стоимость" такой модели заметно упадёт, но качество останется на прежнем уровне. 


Что за алгаритм такой??? В целом с высказыванием согласен, цена моделцы и качество это немного совсем разные весчи. Можно получать и дешёвую но качественную модель. У Решетова реально проблема в том что он считает слишком долго за счёт неоднократного деления выборки в случайном порядке и т.д.

Опять же что за алгоритмы такие? которые могут сразу сказать какой из предикторов не актуален. У него это как то реализовано, но толком я ещё это не смотрел.... На самом деле он определяет это через инвариант, что по логике вполне актуально, но думаю ошибки всётаки есть :-( скорее не ошибки, а не доделки...

 

Если все же 2 скрытых слоя использовать, то очевидно 2-й слой намного меньше по количеству нейронов чем 1-й.

Какой минимум для количества нейронов в слое? Мне кажется меньше 3-5 нет смысла делать.

Или слой с 1 - 2 нейронами тоже может внести весомый вклад в модель?

 
elibrarius:

Если все же 2 скрытых слоя использовать, то очевидно 2-й слой намного меньше по количеству нейронов чем 1-й.

Какой минимум для количества нейронов в слое? Мне кажется меньше 3-5 нет смысла делать.

Или слой с 1 - 2 нейронами тоже может внести весомый вклад в модель?


из практики - 1 нейрон с 3-мя входами может зазубрить норм сигналы за 1-1.5 мес. на 15-и минутках и где-то 200 сделок, если брать больше выборку то кач-во зубрежки резко падает и кол-во сделок тоже, не хватает комбинаций. Ну то есть при условии что система оставалась бы стационарной и сигналы повторялись, 1 нейрончика хватило бы даже.

то же самое с fuzzy логикой на 3-х входах примерно, и с оптимизацией 4-х функций принадлежности
 
Mihail Marchukajtes:

Опять же что за алгоритмы такие? которые могут сразу сказать какой из предикторов не актуален.

Алгоритмов много, даже больше чем хочется. Например -

Статья от Владимира - https://www.mql5.com/ru/articles/2029

Статья от Алексея - https://habrahabr.ru/company/aligntechnology/blog/303750/

 

Для любителей грузить процессор разными плюшками при моделировании - вот выход радикально уменьшить время.


Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2

Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
  • Kristoffer Magnusson
  • www.r-bloggers.com
If you tend to do lots of large Monte Carlo simulations, you’ve probably already discovered the benefits of multi-core CPUs and parallel computation. A simulation that takes 4 weeks without parallelization, can easily be done in 1 week on a quad core laptop with parallelization. However, for even larger simulations reducing the computation time...
 
СанСаныч Фоменко:

Для любителей грузить процессор разными плюшками при моделировании - вот выход радикально уменьшить время.

Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2

C Dll и просьбой установить мт5, R и нужные пакеты - туда видимо нереально попасть.

Причина обращения: