Взвешенный МНК - страница 4

 
White Rabbit:

С разрешения @Georgiy Merts

Выкладываю документ с формулами МНК - Линейный, квадратичный и кубический.

А где же там взвешенная? 

 
Dmitry Fedoseev:

А где же там взвешенная? 

Дык указываешь вес точек - Wi

Это и есть взвешенный МНК - когда ты каждой точке приписываешь вес. Точка с вдвое большим весом вдвое важнее для линии, вдвое сильнее "притягивает" ее. Точка с нулевым весом вобще не притягивает. Вес может быть и отрицательным - точка будет "отталкивать" аппроксимирующую кривую.

 
Алексей Тарабанов:

Херня полная. 

а я и не говорю что в торговле поможет какая либо математическая эвристика

тока финансовая математика и больше ничо не надо

 
Aleksey Nikolayev:

1) Не очень понятно на что строится регрессия. На время (как в LSMA), на предыдущие цены (как в ARIMA)?

2) Как задаются веса (дисперсии ошибок)?

по моему, если логически мыслить, выбрасывают статистически незначимые отклонения

здесь даже формул особо не нужно

допустим нас интересует канал в 30 пунктов, соответственно все что больше - откидываем из отклонений

вот и получится взвешенная МНК

можно конечно извращаться, то есть задать веса, т.е. допустим  до 30 пунктов вес 1, от 30 и до 50 - вес - 0.5, от 50 и до ...

а потом умножить на веса и построить МНК

тупо логика того, что нам нужно получить в конечном итоге

мне кажется что как то так
 

https://www.gnu.org/software/gsl/doc/html/lls.html

там достаточно лаконично изложен метод, на английском но зато без долгих выкладок

и (с некоторыми ограничениями и громким матом) можно импортировать их функции в MQL :-)

Linear Least-Squares Fitting — GSL 2.6 documentation
  • www.gnu.org
This chapter describes routines for performing least squares fits to experimental data using linear combinations of functions. The data may be weighted or unweighted, i.e. with known or unknown errors. For weighted data the functions compute the best fit parameters and their associated covariance matrix. For unweighted data the covariance...
 
White Rabbit:

Всем привет.

Ребята, а есть ли у кого реализация машки на основе взвешенного МНК?

Или может кто-то может описать метод построения взвешенного МНК простым языком, дать пример рассчета?

Все-таки построение машки (скользящей средней скольки-то значений подряд по времени) и метод наименьших квадратов (ВИКИ:

Метод наименьших квадратов (МНК) — математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным.

конец цитаты)

- разные вещи. Каким образом они оказались в одном вопросе и как-то совместно рассматриваются, неясно. Если бы Вы, уважаемый @White Rabbit, сказали, что конкретно Вам интересно, можно было бы и ответить на тот вопрос, который Вам неясен. А то уже и формулы для приближения полиномами 2-3 степени пошли, и о регрессии говорят. Чтобы Вам было проще, напомню связь скользящей средней с МНК.

Если нужно найти среднее значение в группе чисел, прежде всего в голову приходит среднее арифметическое. Редко упоминаемое его свойство - именно среднее арифметическое дает минимум суммы квадратов отклонений, то есть является решением задачи приближения группы чисел одним числом по методу МНК. Если группа чисел - n последних котировок, и группа "скользит" по ряду курсов, получаем простую скользящую среднюю (SMA). Формулы ее вычисления самые простые - среднее арифметическое и все. Никаких следов МНК в них нет.

Свойства МНК отражаются лишь в том, что в группе роль чисел, наиболее далеких от SMA, усиливается, и шпильки, попадающие в группу, сильно сдвигают SMA до тех пор, пока входят в группу - пока шпилька учитывается в ней. В этом виновато именно возведение в квадрат отклонений в критерии близости по МНК. Если в критерии близости не возводить отклонения в квадрат, а суммировать вместо квадратов модули отклонений от средней, этот недостаток исчезает. Это будет тогда приближение не по методу МНК, а "чебышевское приближение". Соответствующее среднее называется выборочной медианой, или 50% процентилем.

Алгоритм вычисления средней арифметической (не скользящей) требует лишь две ячейки памяти - для числа учтенных значений и для их суммы. Даже если в группу входят миллиарды значений. В простоте вычислений и состоит прелесть средней арифметической. Выборочная медиана подсчитывается гораздо тяжелее. Обычно для этого приходиться сначала упорядочивать числа группы.

Так что же Вас интересует, @White Rabbit ?

 
Vladimir:


Свойства МНК отражаются лишь в том, что в группе роль чисел, наиболее далеких от SMA, усиливается, и шпильки, попадающие в группу, сильно сдвигают SMA до тех пор, пока входят в группу - пока шпилька учитывается в ней. В этом виновато именно возведение в квадрат отклонений в критерии близости по МНК. Если в критерии близости не возводить отклонения в квадрат, а суммировать вместо квадратов модули отклонений от средней, этот недостаток исчезает. Это будет тогда приближение не по методу МНК, а "чебышевское приближение". Соответствующее среднее называется выборочной медианой, или 50% процентилем.


чуть выше приведена ссылка по которой есть Robust Linear Regressions (краткое мат. описание и API)

Ordinary least squares (OLS) models are often heavily influenced by the presence of outliers. Outliers are data points which do not follow the general trend of the other observations, although there is strictly no precise definition of an outlier. Robust linear regression refers to regression algorithms which are robust to outliers.

насколько понял это продолжение методом МНК и взвешенного МНК, более-менее устойчивое к "шпилькам"

 
Vladimir:

- разные вещи. Каким образом они оказались в одном вопросе и как-то совместно рассматриваются, неясно.

Например, берешь инструмент линейной регрессии в терминале, тащишь его вдоль графика, конец рисует какую-то кривую линию - вот это и есть скользящая средняя на линейной регрессии.

 
Dmitry Fedoseev:

Например, берешь инструмент линейной регрессии в терминале, тащишь его вдоль графика, конец рисует какую-то кривую линию - вот это и есть скользящая средняя на линейной регрессии.

Получится какая-то взвешенная скользящая средняя (в данном случае LSMA). Даже если регрессию считать не по обычному МНК, а по взвешенному, то всё равно в итоге получится какая-то взвешенная скользящая средняя. Отсюда возникает вопрос - не проще ли с самого начала работать с такими средними?

 
Dmitry Fedoseev:

Например, берешь инструмент линейной регрессии в терминале, тащишь его вдоль графика, конец рисует какую-то кривую линию - вот это и есть скользящая средняя на линейной регрессии.

от средних эта линия крайне далека. Она такие фортели и зигзаги рисует, что дай-боже такого фигуристам :-)

Причина обращения: