Бернуллиевость Рынка - страница 2

 
Mathemat писал(а) >>

О неоптимальности ТС с зависимыми сделками: все правильно, об этом говорит Винс. Интересно, что сделки у Lucky с очень маленьким тейком явно зависимы - даже если открытыми в заданный момент времени может быть только одна. Там длины серий сделок очень велики, гораздо больше того, что полагается по схеме Бернулли. Это неоптимальность. В каком смысле? В смысле того, что тейк обязан быть побольше?

Алексей, у тебя есть электронный Винс?

Если да, и это ничему не противоречит, то кинь сюда, пожалуйста, архив.

Заранее спасибо.

 
Neutron >>:

С этим я согласен. Действительно, ресурсоёмкость обучения НС на ещё одну степень свободы (амплитуда движения) очень сильно возрастает по сравнению с затратами на прогноз только знака и результаты такого телодвижения не радуют. Не хочится мне это копать...

Если не секрет, что же там так сильно возрастает... Я вот ничего такого не заметил.


А вообще для прогноза размахов движения и оценки прогнозов нейросетей неплохо подходят SVM.

 
Mathemat >>:

Там длины серий сделок очень велики, гораздо больше того, что полагается по схеме Бернулли.

При вероятности прибыльности ордера больше 99% -- почему нет.

Кстати зависимость таки наверное есть. Скажем, убыточные сделки идут обычно скопом.

 
Mathemat писал(а) >>

Интересно, что сделки у Lucky с очень маленьким тейком явно зависимы - даже если открытыми в заданный момент времени может быть только одна. Там длины серий сделок очень велики, гораздо больше того, что полагается по схеме Бернулли. Это неоптимальность. В каком смысле? В смысле того, что тейк обязан быть побольше?

Думаю, что ты прав.

В этом случае неоптимальность именно в неодинаковости ТР и SL ордеров. Уверен, что такой же и даже лучший интегральный результат (по скорости роста эквити) можно получить с использованием другого алгоритма, где ТР и SL ордера сравнимы по величине. Но возможно, что поиск этой закономерности в котире на порядок сложнее лежащей на поверхности особенности, которую и использовал Lucky. Это компромис.

sol писал(а) >>

Если не секрет, что же там так сильно возрастает...

Не секрет. Если для тренировки сети на результат +/- 1 требуется всего 8 (восемь) эпох обучения и 2 (двух) входных нейронов с 100-ей входов, то для получения той же профитности на аналоговом входе уже требуется около 360 эпох обучения и более 32 нейронов в скрытом слое + заморочки с выравниванием распределения входных данных.

 
Neutron >>:

Думаю, что ты прав.

В этом случае неоптимальность именно в неодинаковости ТР и SL ордеров. Уверен, что такой же и даже лучший интегральный результат (по скорости роста эквити) можно получить с использованием другого алгоритма, где ТР и SL ордера сравнимы по величине. Но возможно, что поиск этой закономерности в котире на порядок сложнее лежащей на поверхности особенности, которую и использовал Lucky. Это компромис.

Не секрет. Если для тренировки сети на результат +/- 1 требуется всего 8 (восемь) эпох обучения и 2 (двух) входных нейронов с 100-ей входов, то для получения той же профитности на аналоговом входе уже требуется около 360 эпох обучения и более 32 нейронов в скрытом слое + заморочки с выравниванием распределения входных данных.

Ну 360 и 360. Хоть 1440. Была бы профитность.

 
НичО, что форекастить один раз, на один шаг вперёд будет до-завтра?
 
Neutron >>:
НичО, что форекастить один раз, на один шаг вперёд будет до-завтра?

Что-то у меня такие сети максимум 20 минут учатся. Правда не на MQL они написаны. На MQL может и до послезавтра.

 
Ну и какая достигнута точность прогноза?
 

Коэф. корр. = 0,6

MSE =0.035 (примерно)...

Только подробности того что прогнозировал и как рассказывать не буду...

Результат выкладываю тестовой выборки.

 

Кстати, Neutron, в свете выложенного в этой ветке, ты все еще не разочаровался в нервосетках - раз уж и прогноз направления не спасает?

Электронного Винса прикладываю. Думаю, Винс вряд ли будет протестовать.

Файлы:
vince.rar  1998 kb
Причина обращения: