Диалог автора. Александр Смирнов. - страница 39

 
Mathemat:
А чего это мы к к-там a и b привязались? Есть же доказанная формула для ЛР - нет там никаких к-тов прямой. Есть тривиальные машки. Prival, я именно о ЛР говорю, давай сначала с ней разберемся.

Извиняюсь, я видно не понял. Перепроверю формулы параболы. Тогда возмусь за СКО, извини, мне показалось что ЛР это промежуточный этап и Вы с Кандид это решили (почти неделю небыло на форуме, дела другие отвлекли).
 
Prival: Перепроверю формулы параболы.
Ага, я тоже. Ты на своем любимом маткаде, я на своем Maple.
 
Mathemat:
А чего это мы к к-там a и b привязались? Есть же доказанная формула для ЛР - нет там никаких к-тов прямой. Есть тривиальные машки. Prival, я именно о ЛР говорю, давай сначала с ней разберемся.
Меня-то как раз интересует ЛР с a, b и СКО :). А то что получится алгоритм быстрее чем с машками я сам не не ожидал, тем приятнее :). Хотя с СКО он будет, думаю всё же медленнее, чем через машки. Но там и верно - ни a, ни b, ни СКО. Парабола меня сейчас непосредственно не интересует, ясно только, что там всё будет существенно более громоздким.
 
Prival:
Yurixx:


Могу привести соответствующие аналитические рассчеты.


вот отсюда если не затруднит подробнее. с приходом новых данных коэфициенты А и В могут поменяться, вродебы, хотя я могу и ошибаться :-). Для ЛР вроде решили, а вот для параболической регресии как ?


Естественно, с приходом новых данных коэфициенты А и В изменяются. А как же иначе ? Неизменным остается размер окна, т.е. к-во точек ЛР. Скользит окно - меняется прямая ЛР.

Для параболической регрессии я сделал то же самое, что и для ЛР: получил компактные формулы для всех коэффициентов и ско. Поэтому для быстрого рассчета ПР нужно только, также как и для ЛР, обновлять несколько сумм и, в отличие от ЛР, 2-а массива. В итоге по скорости алгоритм получился лишь ненамного уступающий алгоритму построения ЛР. Думаю, что это можно сделать для любой степени, хотя размеры конечных формул с ростом порядка, конечно же, нарастают.

 
lna01:
Yurixx:


Очень хочу узнать, что может быть лишнее в этих формулах ? :-)

Что касается "реального выражения", то как вы думаете, откуда все эти формулы берутся ? Вот если подставить в это "реальное выражение" конечные формулы, полученные с помощью МНК для А и В, то как раз и получится приведенное выражение для СКО. Могу привести соответствующие аналитические рассчеты.

Хорошо, соглашусь, именно в этих - нет :)
По определению рекурсия это вычисление следующего значения с использованием предыдушего? Тогда подсчёт сумм нарастающим итогом есть самая натуральная рекурсия.
Дело в том, что мой расчёт по "реальному выражению" даёт некоторое несовпадение с этими формулами. Вот результаты для N=5 и N=20. Линии считались как ЛР + 3*СКО, для белой СКО брался как sqrt((СКО^2)*N/(N-2)). Красная линия - по моей формуле, белая - по вашей. Для N=20 красная практически не видна, можно считать, что результаты с хорошей точностью совпадают. А вот для N=5 различия вполне заметны.

Не возражаю, пусть это тоже будет рекурсия. В таком виде она элементарна и экономит время. В более привычном для меня виде рекурсия в программировании - обращение программы к самой себе. MQL такое допускает, но ограничивает порядок вложения. Так вот такая рекурсия, хотя и делает программу компактнее, но экономит время вряд ли.

Думаю, что знаю по какой причине вы получили неточность для малых N. Очевидно, вы в формулах для ско и дисперсии, делите на (N-1). Я же использовал деление суммы на N. В этом случае все перекрестные суммы уходят и формулы получаются очень компактные.

 
Yurixx:

Я же использовал деление суммы на N. В этом случае все перекрестные суммы уходят и формулы получаются очень компактные.

Может быть это и оправдано. Оценка получается смещённая, но если не работать с совсем уж короткими ЛР, точность вполне достаточна.
 
Prival:
ANG3110:
а период менялся бы, тогда получим регрессию, как костюм сшитый точно по размерам, под тренд.

Если есть индикатор обладающий этим свойством. Нельзя ли поделиться. Хотя я понимаю что это уже не то что выкладывают в общий доступ, но если вдруг Вы решитесь, желтые штаны и два раза ку при встрече + любимый Вами напиток в это время дня постараюсь достать :-)

З.Ы. нужна парабола, ЛР не интересует


Ну могу прислать. Адрес Вы уже приводили раньше, но я не помню где. Приведите еще раз.

 
lna01:
Меня-то как раз интересует ЛР с a, b и СКО :). А то что получится алгоритм быстрее чем с машками я сам не не ожидал, тем приятнее :). Хотя с СКО он будет, думаю всё же медленнее, чем через машки. Но там и верно - ни a, ни b, ни СКО. Парабола меня сейчас непосредственно не интересует, ясно только, что там всё будет существенно более громоздким.

Если интересно, вот прикладываю индикатор линейной регрессии без циклов. Считает регрессию из большого количества баров, за считанные доли секунды.
Файлы:
at_lr0.mq4  2 kb
 

ANG3110

лучше конечно Skype там ищите privalov-sv, можно и почта privalov-sv @ mail.ru постараюсь разгрести спам и найти там жемчужину.

 
ANG3110:

Ну могу прислать. Адрес Вы уже приводили раньше, но я не помню где. Приведите еще раз.


А это только преданным участникам данной темы или и другим( я о себе ) можно приобщиться...(получить костюмчик).
Заране благодарю.
Причина обращения: