Bayesian regression - Делал ли кто советник по этому алгоритму? - страница 15

 
Еще... можно короткое замыкание в голове произвести. Адаптация кривулины Юсуфа выполняется по наклонному отрезку (почти прямому отрезку, выпуклость его незначительна), а прогнозируется в конечном счете горизонтальное движение. Вдумайтесь в это! Получается, что методика второй раз не применима, одноразовая такая. 
 
Yousufkhodja Sultonov:
Видимо, для рынка не совсем важен прогноз, как таковой, особенно, в краткосрочной перспективе. В долглсроке прогноз дает скромные плоды в виде 10-12 % годовых, что многих не устраивает.

А какая разница долгосрок или краткосрок? Просто переключите таймфрейм.

10-12% учитывая величину риска, совсем неинтересно.  

 
Dmitry Fedoseev:
Еще... можно короткое замыкание в голове произвести. Адаптация кривулины Юсуфа выполняется по наклонному отрезку (почти прямому отрезку, выпуклость его незначительна), а прогнозируется в конечном счете горизонтальное движение. Вдумайтесь в это! Получается, что методика второй раз не применима, одноразовая такая. 

Тогда, введем все данные, а прогноз на 2015 г. не меняется. Посмотрите:


 
Yousufkhodja Sultonov:
..., а в случае с (18) ничего не надо делать, она сама подстроиться наилучшим образом. Просто Вам смелости не хватает признать, что, еще не изобретена модель лучше, чем (18) во всех смыслах.

Что там нобелевкий комитет говорит про (18)? Или им смелости не хватает признать?

 
Dmitry Fedoseev:

А какая разница долгосрок или краткосрок? Просто переключите таймфрейм.

10-12% учитывая величину риска, совсем неинтересно.  

Риски значительно меньше, поскольку, профит фактор в районе от 3-х до 6-ти.
 
Yury Reshetov:

Что там нобелевкий комитет говорит про (18)?

Юра, об этом некогда думать, опомнятся лет через 100. Никто, к сожалению, всерьез ее не воспринимает и не изучает. Однако, потомки должны оценить.
 
Dmitry Fedoseev:

А что и как тут можно перепутать?

Какого правдоподобия? 

Правдоподобия:

а) коэффициентов модели

б) самой модели

при допущении о том, что коэффициенты так-то распределены, например, коэффициент №1 имеет среднее 0,5, ст.отклон. 0,1. Это допущение накладывается на результаты расчета коэффициентов, поэтому есть отличие от МНК. Есть понятие гребневой регрессии, где накладываются ограничения на возможные значения коэффициентов; вот это, в моем понимании, из той же оперы.

А нормальность ошибок, ну, она должна быть обязательно. Есть обобщенная линейная регрессия, в которой я ничего не смыслю, там как-то все допущения обходятся.

UPD: при оценке t-статистики для значения эпсилон (коэффициента) используется оценка сигма на остатках модели. Если распределение остатков сильно смещено куда-то, не симметрично (в идеале оно должно быть нормальным), то значимость коэффициента перестанет быть достоверной. Иначе говоря, параметрам модели нельзя будет верить. Поэтому ошибки принимают нормально распределенными. 

 
Alexey Burnakov:

Правдоподобия:

1. а) коэффициентов модели

б) самой модели

2. при допущении о том, что коэффициенты так-то распределены, например, коэффициент №1 имеет среднее 0,5, ст.отклон. 0,1. Это допущение накладывается на результаты расчета коэффициентов, поэтому есть отличие от МНК. Есть понятие гребневой регрессии, где накладываются ограничения на возможные значения коэффициентов; вот это, в моем понимании, из той же оперы.

3. А нормальность ошибок, ну, она должна быть обязательно. Есть обобщенная линейная регрессия, в которой я ничего не смыслю, там как-то все допущения обходятся.

4. UPD: при оценке t-статистики для значения эпсилон (коэффициента) используется оценка сигма на остатках модели. Если распределение остатков сильно смещено куда-то, не симметрично (в идеале оно должно быть нормальным), то значимость коэффициента перестанет быть достоверной. Иначе говоря, параметрам модели нельзя будет верить. Поэтому ошибки принимают нормально распределенными. 

1. Значит получаем "Максимизация правдоподобия коэффициентов модели" или "максимизация правдоподобия модели". Прям так там написано?

2. Причем тут коэффициенты и распределение? К чему вообще считать среднее коэффициентов?

3. С чего вы взяли про какую-то нормальность ошибок? Достаточно симметричности распределения. Это будет влиять только на чувствительность в начале трендов.

 4. Вы действительно мыслите такими категориями и действительно понимаете от чем пишите?

 
Yousufkhodja Sultonov:
Юра, об этом некогда думать, опомнятся лет через 100. Никто, к сожалению, всерьез ее не воспринимает и не изучает. Однако, потомки должны оценить.
Нечего там всерьез воспринимать. По сути решена задача уровня курсовика студента этак 4-го курса какого-нибудь факультета связанного с автоматизацией.
 
Dmitry Fedoseev:

1. Значит получаем "Максимизация правдоподобия коэффициентов модели" или "максимизация правдоподобия модели". Прям так там написано?

2. Причем тут коэффициенты и распределение? К чему вообще считать среднее коэффициентов?

3. С чего вы взяли про какую-то нормальность ошибок? Достаточно симметричности распределения. Это будет влиять только на чувствительность в начале трендов.

 4. Вы действительно мыслите такими категориями и действительно понимаете от чем пишите?

1. правдоподобие максимально при : дальше идут длинные формулы. Можно сказать, что мы получаем минимальное значение средней квадратов остатков, а можно сказать, мы максимизировали правдоподобие.

2. возможно, вы кое-что не понимаете. коэффициент b1 что это? Мат.ожидание выборочных значений коэффициента b1, которое t-распределено в условиях отсутствия знания о параметрах коэффициента b1 на ген.совокупности. Линейная регрессия (обычная, ordinary least squares) дает оценку E(b) и sigma(b) - стандартной ошибки коэффициента b1. То что вы видите на выходе модели это и есть все эти оценки. Далее, следует оценка того, насколько значимо отличается E(b) от 0, t-статистика и связанная с ней вероятность.

3. Про тренды я ничего сказать не могу. Симметричность важна - факт. Сигма на остатках также важна. Также важен коэффициент эксцесса.

4.  Недавно много читал про регрессию, поэтому то, что написал выше - понимаю. Я отчитываюсь перед своими заказчиками по результатам регрессии и приходиться что-то понимать. Хотя я предпочитаю непараметрические методы.