А вы умеете готовить каналы? - страница 3

 

нелинейная регрессия относится к моделям машинного обучения, основная проблема моделей - это оверфиттинг, т.е. переподгонка под текущий кусок графика, как уже было написано выше. Эта модель постоянно подгоняется под новые данные, поэтому на определенных участках ее эффективность стремится к нолю. Что бы такого не происходило нужно использовать кроссвалидацию и тестирование out of sample. Для любого более-менее изучившего тему даже без прогонов в тестере сразу понятно, что этот канал не будет работать на реальных данных

 
Maxim Dmitrievsky:

нелинейная регрессия относится к моделям машинного обучения, основная проблема моделей - это оверфиттинг, т.е. переподгонка под текущий кусок графика, как уже было написано выше. Эта модель постоянно подгоняется под новые данные, поэтому на определенных участках ее эффективность стремится к нолю. Что бы такого не происходило нужно использовать кроссвалидацию и тестирование out of sample. Для любого более-менее изучившего тему даже без прогонов в тестере сразу понятно, что этот канал не будет работать на реальных данных


Этого недостатка лишены разностные уравнения полиномов N ного порядка. Рано или поздно проверю еще и  канал на этих уравнениях.

 
Aleksey Panfilov:

Этого недостатка лишены разностные уравнения полиномов N ного порядка. Рано или поздно проверю еще и  канал на этих уравнениях.


что это такое? ) разностные уравнения, и почему лишены?

 
Maxim Dmitrievsky:

что это такое? ) разностные уравнения, и почему лишены?

Если не строго то:

Формулу классического ЕМА если взять, то это разностное уравнение первой степени,  (но второго прядка - специфический порядок определяется числом точек по которому строится следующая, как по линейке или лекалу) прямая, полный аналог рычага Архимеда . Интерполяция. По ранее рассчитанной точке и последнему значению цены строится соседняя с рассчитанной точка, и уже не перерисовывается.

Для полинома второй степени,уже по двум ранее рассчитанным точкам и по последней цене (я беру точку открытия, или медиану предпоследнего бара) строится точка соседняя первым двум и тоже не перерисовывается. И так далее. Если перевернуть формулу то можно экстраполировать, то есть по трем рассчитанным соседним точкам на базе полинома второй степени построить четвертую с заданным удалением от первых трех. И эта точка тоже не перерисовывается. 

При необходимости можно включить режим видимости линий построения (это в цикле расчет всех соседних точек до любой заданной), вот эти линии построения уже будут перерисовываться от каждой новой цены.

Пример формул.

      a1_Buffer[i]=((open[i] - Znach)    +5061600*a1_Buffer[i+1 ]-7489800   *a1_Buffer[i+2 ]+4926624*a1_Buffer[i+3 ]-1215450*a1_Buffer[i+4 ])/1282975;

      a2_Buffer[i]=  3160*a1_Buffer[i]   -6240   *a1_Buffer[i+1 ]    +  3081*a1_Buffer[i+2 ];

      a3_Buffer[i]=((open[i] - Znach)    +5061600*a3_Buffer[i+1 ]-7489800    *a3_Buffer[i+2 ]+4926624*a3_Buffer[i+3 ]-1215450*a3_Buffer[i+4 ])/1282975;

      a4_Buffer[i]=  2701*a3_Buffer[i]   -5328   *a3_Buffer[i+1 ]    +  2628 *a3_Buffer[i+2 ];

Формулы с делением (первая и третья) это интерполяция (нахождение точки внутри интервала).

Формулы без деления это экстраполяция (нахождение точки вне исходного интервала).

 
Aleksey Panfilov:
Если не строго то:

Формулу классического ЕМА если взять, то это разностное уравнение первой степени,  (но второго прядка - специфический порядок определяется числом точек по которому строится следующая, как по линейке или лекалу) прямая, полный аналог рычага Архимеда . Интерполяция. По ранее рассчитанной точке и последнему значению цены строится соседняя с рассчитанной точка, и уже не перерисовывается.

Для полинома второй степени,уже по двум ранее рассчитанным точкам и по последней цене (я беру точку открытия, или медиану предпоследнего бара) строится точка соседняя первым двум и тоже не перерисовывается. И так далее. Если перевернуть формулу то можно экстраполировать, то есть по трем рассчитанным соседним точкам на базе полинома второй степени построить четвертую с заданным удалением от первых трех. И эта точка тоже не перерисовывается. 

При необходимости можно включить режим видимости линий построения , вот эти линии построения уже будут перерисовываться от каждой новой цены.

Пример формул.

Формулы с делением (первая и третья) это интерполяция (нахождение точки внутри интервала).

Формулы без деления это экстраполяция (нахождение точки вне исходного интервала).


любопытно, но не совсем понимаю почему это должно адекватно предсказывать нестационарный маркет, например..

сейчас читаю вот вещи http://blog.datadive.net/selecting-good-features-part-iv-stability-selection-rfe-and-everything-side-by-side/

 
Maxim Dmitrievsky:

любопытно, но не совсем понимаю почему это должно адекватно предсказывать нестационарный маркет, например..

сейчас читаю вот вещи http://blog.datadive.net/selecting-good-features-part-iv-stability-selection-rfe-and-everything-side-by-side/


Эти уравнения и не обещают предсказать торги, они только строят кривые заданных полиномов или синусоид исходя из всей истории.

Собственно также, как и регрессия не обещает предсказать торги. :)

 
Aleksey Panfilov:

Эти уравнения и не обещают предсказать торги, они только строят кривые заданных полиномов или синусоид исходя из всей истории.

Собственно также, как и регрессия не обещает предсказать торги. :)


вот у меня основная идея сейчас это автоподбор наиболее информативных (в текущий момент) признаков через случайные леса с определенным дов. интервалом и автоматическое переобучение.. потому что если брать всю историю то модель получается слишком грубой, если брать мало то она всегда переобучена.. а если варьировать качество и количество признаков через feature importance и делать кросс-валидацию то есть шанс ухватывать периодически нужные закономерности

но это такой геморище что я уже давно пожалел что с этим связался, но обратной дороги уже нет :)

 
Maxim Dmitrievsky:

вот у меня основная идея сейчас это автоподбор наиболее информативных (в текущий момент) признаков через случайные леса с определенным дов. интервалом и автоматическое переобучение.. потому что если брать всю историю то модель получается слишком грубой, если брать мало то она всегда переобучена.. а если варьировать качество и количество признаков через feature importance и делать кросс-валидацию то есть шанс ухватывать периодически нужные закономерности

но это такой геморище что я уже давно пожалел что с этим связался, но обратной дороги уже нет :)


Здесь мы уже в нейросети полезли, а там каналов не увидишь. :)  Хотя в коде они могут быть.

А вот к линии построенной с учетом инерции или синусоидальной линии визуальный канал прикрутить возможно. )

 
Aleksey Panfilov:

Здесь мы уже в нейросети полезли, а там каналов не увидишь. :)  Хотя в коде они могут быть.

А вот к линии построенной с учетом инерции или синусоидальной линии визуальный канал прикрутить возможно. )


ну почему, же построить кривые по значениям на выходах из нс и можно каналы.. но в каналах я большого смысла не вижу, т.к. пропускается большая часть разного рода сигналов для ТС и получается всего одна стратегия на возврат к среднему

 
Maxim Dmitrievsky:

ну почему, же построить кривые по значениям на выходах из нс и можно каналы.. но в каналах я большого смысла не вижу, т.к. пропускается большая часть разного рода сигналов для ТС и получается всего одна стратегия на возврат к среднему


Приветствую, Максим! Именно так и получается. 

Причина обращения: