Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2539

 
Andrei Trukhanovich #:

Ну тут кому что надо. С точки зрения определенности во времени close самый точный

с точки зрения неопределённости у свечей мы в точности знаем либо время либо цену..для close время, для open цену :-)

образно, когда с 15.58 по 16.03 не приходят тики (а это нормальная ситуация, есть типичные моменты таких дырок), то close известно время 16.00 но неверная цена, а для open неверно время, то более правильная/актуальная цена

 
Sceptorist #:

И буду благодарен если кто-то ответит. Я только начал читать эту ветку. Страниц 100 осилил. Интересно, спасибо авторам раннего периода. Прям дневник. Ошибки, открытия, разочарования, радость успехов, крушение надежд... Роман, в хорошем смысле этого слова.  Узнал новое, вспомнил что-то старое, над чем то посмеялся (не без этого). Полноценные будни изыскателя как они есть. Вопрос у меня простой, в этом машинном обучение, "машина" так и оостанется черным ящиком? Скормили ей/ему входы/предикты и хотим получить ответ на злобу дня?  В "потрошки", что  и как варит это Ррррр не заглядывали...? Может пытались переложить машину на найтивный  тут язык MQL ?

Ветку, наверно, дочитаю, пока хорошо идет, но буду благодарен за спойлеры)

Что бы достигнуть просветления начните с ветки на Ониксе и только потом начинайте эту *sarcasm


Читайте книги

 

мне кажется, тут философия проста :

(H+L)/Close. т.е. close. как самая справедливая (равновесная) на текущий(!) Момент, H/Close+L/Close, как сумма долей в промежутке времени, с итогом или +, или - т.е. up/down результат импульса... имхо


Sceptorist #:

. Вопрос у меня простой, в этом машинном обучение, "машина" так и оостанется черным ящиком? Скормили ей/ему входы/предикты и хотим получить ответ на злобу дня? 

.. ну и ответ как бы простой
Maxim Kuznetsov #:

в теории да, но вектор весов где ? или прямое+обратное преобразование координат ??

МНК он вообще почти универсальный метод, чё говорить ... ну то есть абстрактный, а чтобы работал нужна обоснованная физика процесса

.. ВМНК - взвешенный МНК (весы, например, дисперсия )... вообще, мне кажется, что всё гениальное должно быть просто --

Renat Akhtyamov #:

не знаю что они готовят

предикторы для МО скорее всего (весов касаемо)

подозреваю что составляют функцию типа

price = a1*y1+a2*y2+...aN*yN

логичная фишка в принципе

интересно что получится

только, если разбить на отрезки, скорее всего нужно каждую часть еще и на что то связанное с углом помножить

полином - для многофакторного анализа (и ваша формула - линейна!! - кстати коэф a при вашем y [хоть д.б. x] и есть угол) - ... для однофакторного - просто типичное уравнение прямой (y=kx+bias)...

и тут начинается самое интересное в дифференцировании - порядок полинома (=количество его изгибов-1 и распространение сигнала от начала обучения до финиша) -- увлекаться, конечно, не надо бы, но если реальность такова, что dy/dx=a^3x (а не лин. зависимость) и выше. -- то, мне кажется, тут уж делать нечего - брать производную от того, что есть (вроде где-то видела рекомендации по дифференцированию в зависимости от 1-х и 2-х разностей => выбор степени полинома -- не найду)... ИЛИ рассмотреть CDF и выбрасывать крайние персентили... имхо для поиска средней... или эксплуатировать их в качестве сигналов в анализе отклонений от средней... имхо... ВОТ в терминах ML выразился Maxim Dmitrievsky

+ и проблема затухающего или увеличивающегося градиента тоже всегда на повестке дня  -- тут, полагаю, и приходит на помощь - ! правильное взвешивание... хотя философия взвешивания опять же может быть своя у преверженцев "свободы выбора весов"... ненавижу борцов за свободу в способах оперирования русским языком (так они и в формулах начинают заниматься искажением реальных корреляций и причинно-следственных связей) -- правильное дифференцирование (т.е. правильных переменных) даст правильные веса, а правильная архитектура NN поможет донести значимость весов до итога обучения... имхо

p.s.

всё равно мне доли H и L от close внушают больше доверия, чем просто close... - тут в этом и вся суть - правильно настроить весы в чёрном ящике (поэтому и важно, что на входе, что на выходе) -- чтобы не получать необоснованно завышенной/заниженной дсперсии... и не потерять значимый градиент на этапе обучения - а как уже Mikhail Mishanin   высказался (пока ветка не потонула во флуде и дрязгах) - "самому важному дать выжить и эволюционировать"

в NN - почти как на Titanik'е

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2017.07.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

Торгую с помощью вот такого полинома и не парюсь

double decision = -0.07651082803761469 * sigmoid(x1 + x2 + x3) -0.04311207233300622 * sigmoid(x1 + x3 + x4) -0.05386865347421374 * sigmoid(x0 + x1 + x5) -0.00827465962899799 sigmoid(x1 + x2 + x4 + x5) -0.10576034451547747 * sigmoid(x4 + x6) -0.10960470278870797 * sigmoid(x0 + x2 + x3 + x5 + x6) -0.07378595451557275 * sigmoid(x0 + x1 + x2 + x4 + x5 + x6)  + 0.12026124486704332 * sigmoid(x7)  -0.06493964309873379 * sigmoid(x0 + x1 + x4 + x5 + x7)  -0.019388523137606112 * sigmoid(x1 + x2 + x4 + x5 + x7)  + 0.11097666707952629 * sigmoid(x4 + x6 + x7)  -0.0850998961499252 * sigmoid(x2 + x5 + x6 + x7)  -0.07273316247296563 * sigmoid(x0 + x4 + x8)  -0.2787231204565592 * sigmoid(x1 + x3 + x5 + x8)  -0.05990910736573329 * sigmoid(x0 + x1 + x4 + x6 + x8)  -0.0678407759220267 * sigmoid(x0 + x1 + x5 + x6 + x8)  -0.009089263426671367 * sigmoid(x0 + x2 + x3 + x4 + x7 + x8)  -0.10259720462275745 * sigmoid(1.0 + x3 + x4 + x8);
И как говорил ранее не так важен сам полином как метод его получения. Но все какие то становятся глухими когда не могут понять элементарной фразы...
 
JeeyCi #:   

всё равно мне доли H и L от close внушают больше доверия, чем просто close...

сама же и дополню/опровергну:

и здесь снова та же проблема - рекоммендации здесь - доли, может, и не панацея, а вот динамический диапазон может быть совсем не "разница периода между 2мя close"

Khristian Piligrim #:
       

 Конечно, очень важно для стабильной работы и эффективного прогнозирования правильно обучать модели, а для этого, прежде всего, нужно правильно сформировать входные данные. С этой целью я вначале масштабировал входные данные по аналогии с тем, что я делал в статье «Принцип суперпозиции и интерференции финансовых инструментов», а затем задавал смещение масштабной сетки таким образов, чтобы не зависимо как меняется рынок данные находились постоянно в одном и том же динамическом диапазоне, от традиционных методов нормирования я отказался, они слишком сильно искажают данные. На следующем этапе я старался добиться того, чтобы вектор относительно которого проводилось обучение, полностью покрывался входными переменными, на рис 1. – плохое перекрытие, на рис 2. – значительно лучше, и соответственно точность обучения будет существенно выше (черная линия – вектор, относительно которого проводится обучение, остальные линии – входные сигналы).

т.е. стандартное нормирование на дисперсиюю и не особо то подходит... (

? может, в нормировочный коэф для входящих данных ещё и WMA добавить, или просто весом, - как-никак, а всё-таки отражает динамику (хоть и с запаздыватием)

p.s.

1) а может быть "динамический диапазон" - до боли прост - точка пересечения 2х MA -- важно правильно подобрать периоды... это только OTF смотрят на 50 и 200... а для анализа bigData может и более выгодные периоды MA могут найтись памятью(весами) от нейросети (при др сопутствующих факторах)... имхо

2) хотя лично мне кажется, что "динамический диапазон" - это тот/те периоды, где цена ещё была нормально распределена от Level до Level (наверно, можно сказать кластер -- сделали mark-up и снова работаем/классифицируем по весам/признакам/памяти уже определённой в рынке ранее -- до нового прихода OTF)... но как эту логику эксплуатировать в нормировании input'a - не знаю пока (кроме как просто сделать всё то же dy/dx впридачу к просто t-статистике)... плохо, конечно, что тестер стратегий сам не отбирает признаки (индюки), а оптимизация возможна лишь того, что ему подсунуть (и далеко не чистую исходную инфо)... - вот и приходится людям лезть в ML

Piligrimus - нейросетевой индикатор.
Piligrimus - нейросетевой индикатор.
  • 2009.05.29
  • www.mql5.com
Между делом, сделал сегодня черновой вариант индикатора на формализованной неронной сети...
 
У вас же золотая жила топчетесь а не видите под ногами
 
BillionerClub #:
У вас же золотая жила топчетесь а не видите под ногами

да понятно, что SVM позволяет линейно разделить нелинейные зависимости (только dimensionality reduction как-то подрядить надо - свои нюансы)... но во-первых, многофакторный анализ (с выводом полинома множественной регрессии) - для меня пока so-so , когда все факторы влияют друг на друга в том числе, и не известно, как библиотека делает свой feature_extraction (а нюансов в статистике очень много) ... а во-вторых подобрать правильные гиперпараметры для SVM в python - тоже ещё как-то библиотеку надо знать... многие здесь топчутся (библиотека приличная) - лишь бы нюансы, которые я описала сам процесс моделирования с помощью этой библиотеки не породил, выдавая на выходе модель с завышенными/заниженными/неверными метриками, переобученную или недообученную...

чтобы разобраться с этой библиотекой, если видишь её в первый раз, - ещё долго придётся смотреть под ноги...

по поводу "золотая" - спорно ()... я всё ещё скептически отношусь к невозможностям удерживать тренды и рано из них выскакивать из-за робота... но терпеть просадки, когда робот чего-то не заметил тоже не хочется... поэтому только качественная стат. модель будет на вес золота ещё на этапе до ML... чтобы попробовать увеличить вероятность 50/50... имхо

StandardScaler with make_pipeline
StandardScaler with make_pipeline
  • 2018.04.21
  • april
  • stackoverflow.com
If I use , do I still need to use and functions to fit my model and transform or it will perform these functions itself? Also, does also perform the normalization or only the scaling...
 
JeeyCi #:
   

ИЛИ рассмотреть CDF и выбрасывать крайние персентили... имхо для поиска средней... или эксплуатировать их

вероятность попадания в хвосты PDF (что по сути производная от CDF, т.е. PDF- дифференциальная ф-я распр-я): 1-P(a<=X<=b) , где [-infinity,a] и [b,+infinity] - это хвосты распределения

 
JeeyCi #:
   

1) а может быть "динамический диапазон" - до боли прост - точка пересечения 2х MA -- важно правильно подобрать периоды... это только OTF смотрят на 50 и 200... а для анализа bigData может и более выгодные периоды MA могут найтись памятью(весами) от нейросети (при др сопутствующих факторах)... имхо

оказывается, всё проще -

MA - это как бы механическое выравнивание

а нужно исп. аналитическое выравнивание (y-с крышечкой - выровненное знач-е в модели)... ну и нелинейную зависимость лучше исп-ть экспоненциальную (т.к. в тренде есть этапы замедления и ускорения), а не степенную (учитывает только ускорение)... для нелинейных зависимостей, например анализа рядов динамики (который ! м.б. лишь доп. методом в адекватном стат. исследовании, но никогда анализ динамики не становится основным методом)

 
JeeyCi #:

 (вроде где-то видела рекомендации по дифференцированию в зависимости от 1-х и 2-х разностей => выбор степени полинома -- не найду)... 

как-то так (у Шмойловой в "теории статистики")

м

Причина обращения: