Матстат Эконометрика Матан - страница 2

 
Roman:

Да, так в принципе и делаю как более менее годный вариант.
На другой похожей модели тоже иногда наблюдал небольшие расхождения, как дивергенция получается.
Но не такие затяжные как на скрине выше, а совсем кратковременные. Что заставило задуматься почему так происходит.
Попробовал эту модель, и увидел ещё более затяжной дивер.

Вот и не пойму откуда берётся эта дивергенция. Не правильная модель, или не качественные исходные данные.
Не соображу логику действий.
Или подгонять исходные данные приблизительно к нормальному,
Или лопатить разные модели.
Но попробуй сперва напиши эту модель, не так уж и легко это сделать, чтоб поверить и выкинуть ))

Неадекватная модель

 
Roman:

Я просто не могу понять следующую аномалию, почему так происходит.
Рассчитал я ортогональную модель, по идее более качественная чем МНК.
Получил стартовые коэффициенты.
Далее параметры модели(коэффициенты) подбираются по алгоритму медианы, то есть своего рода робастность от выбросов.
Модель качественно описывает исходный ряд.

А что такое "ортогональная" модель? Вы что, делаете разложение по системе ортогональных функций? Тогда посмотрите, с каким весом они ортогональны - от этого может зависеть аномальное поведение. Например, на краях отрезка ортогональности.

 
Vladimir:

А что такое "ортогональная" модель?
Вы что, делаете разложение по системе ортогональных функций?
Тогда посмотрите, с каким весом они ортогональны - от этого может зависеть аномальное поведение.
Например, на краях отрезка ортогональности.

Нет, это не разложение функций.
Это ортогональная регрессия, где на каждом шаге расчёта, вычисляется (фи) угол наклона нормали.
Нормаль - это кратчайший отрезок от линии до точки.
Далее по наклону угла (фи) рассчитываются, коэффициенты модели.

                                                       Декартова система координат

                    Ортогональная подгонка                                                    МНК подгонка

ort    mnk


Наверно действительно надо будет проверить, значения этих углов в аномальных местах.  
 

 
Roman:

Это ортогональная регрессия, где на каждом шаге расчёта, вычисляется (фи) угол наклона нормали.

ну так называйте по-людски а не придумывайте названия - МНПК или TLS

и какой в нем смысл если оси разной размерности?

 
Andrei Trukhanovich:

ну так называйте по-людски а не придумывайте названия - МНПК или TLS

и какой в нем смысл если оси разной размерности?

О каком придумывании речь?
Ортогональная регрессия, ортогональная модель, вас запутало?
Да это TLS, с доработкой по медиане. 
Рисунки взяты для примера. И к проблеме не относятся.
Так то оси на рисунках одной размерности, просто масштаб рисунков чуть разный получился.
Это не критично для  понимания ортогональности.

 
Roman:

Ортогональная регрессия, ортогональная модель, вас запутало?

да, согласен, неправ

 
Roman:

Нет, это не разложение функций.
Это ортогональная регрессия, где на каждом шаге расчёта, вычисляется (фи) угол наклона нормали.
Нормаль - это кратчайший отрезок от линии до точки.
Далее по наклону угла (фи) рассчитываются, коэффициенты модели.

                                                       Декартова система координат

                    Ортогональная подгонка                                                    МНК подгонка

   


Наверно действительно надо будет проверить, значения этих углов в аномальных местах.  
 

https://www.mql5.com/ru/forum/368720#comment_22203978, нижний из рисунков - место, с которого начинается "аномальное" расхождение, находится на почти скачке курса, где регрессия (линейная или нелинейная - все равно это представления Y в виде функции от x) портится, невязка резко возрастает. А невязка приближения и тригонометрическими, и алгебраическими полиномами пропорциональна модулю непрерывности (по неравенству Джексона-Стечкина, см вики "Модуль_непрерывности"). Свойство близости поведения функции к таковому у  непрерывных функций. В случае, показанном на этом рисунке, дискретный аналог модуля непрывности резко возрастает около нуля.

Дальше Вы изменяете коэффициенты в разложении (если линейная - Y раскладывается по двум функциям : Y1(x) = 1; Y2(x) = x с коэффициентами a и b: Y(x)=a+bx) уже медленно [непрерывно], с медианным выглаживанием. И приобретенные на скачке значения этих коэффициентов не спешат вернуться к значениям, которые они бы имели в случае старта приближения по Вашей методике с любого момента после скачка, либо в случае, если заменить скачок не столь быстрым движением курса в ту же точку.

Кстати, было бы интересно посмотреть картинки, аналогичные приведенным Вами в https://www.mql5.com/ru/forum/368720/page2#comment_22207994, для конкретного случая, когда курс изменился почти скачком.

Матстат-Эконометрика-Матан
Матстат-Эконометрика-Матан
  • 2021.05.06
  • www.mql5.com
Вэлкам, всем гуру в области математической статистики, эконометрики и математического анализа...
 
Vladimir:

https://www.mql5.com/ru/forum/368720#comment_22203978, нижний из рисунков - место, с которого начинается "аномальное" расхождение, находится на почти скачке курса, где регрессия (линейная или нелинейная - все равно это представления Y в виде функции от x) портится, невязка резко возрастает. А невязка приближения и тригонометрическими, и алгебраическими полиномами пропорциональна модулю непрерывности (по неравенству Джексона-Стечкина, см вики "Модуль_непрерывности"). Свойство близости поведения функции к таковому у  непрерывных функций. В случае, показанном на этом рисунке, дискретный аналог модуля непрывности резко возрастает около нуля.

Дальше Вы изменяете коэффициенты в разложении (если линейная - Y раскладывается по двум функциям : Y1(x) = 1; Y2(x) = x с коэффициентами a и b: Y(x)=a+bx) уже медленно [непрерывно], с медианным выглаживанием. И приобретенные на скачке значения этих коэффициентов не спешат вернуться к значениям, которые они бы имели в случае старта приближения по Вашей методике с любого момента после скачка, либо в случае, если заменить скачок не столь быстрым движением курса в ту же точку.

Кстати, было бы интересно посмотреть картинки, аналогичные приведенным Вами в https://www.mql5.com/ru/forum/368720/page2#comment_22207994, для конкретного случая, когда курс изменился почти скачком.

Благодарю за доходчивое развёрнутое пояснение!
То же фибрами души подозревал на невязку в момент скачка, но не мог это как то грамотно сформулировать.
Так как действительно применяется медианное сглаживание, то после скачка в зависимости от размера окна, память об этом скачке ещё остаётся. 
С графиком рассеивания на mql5, пока не подружился как его прикрутить. Пока в процессе изучения. Тоже интересно понаблюдать такие графики.
Как скоро смогу показать график, не знаю, как разберусь с координатами, так сразу.


 

Без медианного сглаживания, на чистых коэффициентах, вроде похоже на правду

g

но потом получается такая картина восстановления

g1 


Добавлено.
Забыл уточнить, исходные данные пока просто логарифмируются без преобразования, чтоб выявить слабые стороны.

 
secret:
Логарифмировать приращения - не подойдет?

Там нужна многомерная нормальность. Её так задёшево не купишь)

Причина обращения: