Статистика зависимостей в котировках (теория информации, корреляция и другие методы feature selection) - страница 73
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Хорошо сказал! Мы, Алексеи, за неэффективность рынка. И мы уже имеем практические результаты, показывающие это, но не видимые через призму классического статистико-эконометрического подхода.
По поводу Вашего результата Вы мой пост проигнорировали.
Пусть. Но.
Классический АКФ известно куда приткнуть и не мне одному, а миллионам. После детрендирования АКФ редко дает зависимости более 10 и если указала, то скорее не качественное трендирование. Однако если зависимости остались и кол-во лагов более 40 (на Вашей картинке 135), то это влечет модели с дробной интегрированностью (FARIMA). А что вытекает из Вашего не классического подхода? Какие модели следуют при обнаружении информационной зависимости?
Может быть.
Любой доверительный интервал звучит следующим образом: на уровне 5% (к пример) подтверждается (не подтверждается) нулевая гипотеза.
Как звучит Ваша нулевая гипотеза? Где доверительный интервал? и т.д. Если АКФ понятная для меня штука, то Ваш график не понятен. Если макс 2.098 бит, то 0.05/2.098 - не следует обсуждать. Причем не снимаются вопросы в начале строки.
Кстати, на чем Вы считали АКФ?
На чем считал АКФ - написал. На данных из приложенного файла, только я беру весь ряд данных, а не 100 точек как вы. Кстати, я не понимаю, зачем брать 100 точек данных. Это мало, ИМХО.
Про доверительный интервал. Мой результат звучит так: на уровне 0,01 не подтверждается нулевая гипотеза о том, что статистика взаимной информации между нулевым баром и лагами не отличается на случайном и исходном рядах.
Извините, что сразу не ответил. Просто подзабыл, и был немного занят.
На чем считал АКФ - написал. На данных из приложенного файла, только я беру весь ряд данных, а не 100 точек как вы. Кстати, я не понимаю, зачем брать 100 точек данных. Это мало, ИМХО.
Про доверительный интервал. Мой результат звучит так: на уровне 0,01 не подтверждается нулевая гипотеза о том, что статистика взаимной информации между нулевым баром и лагами не отличается на случайном и исходном рядах.
Спасибо, Вы внесли для меня полную ясность.
Пожалуйста. Это и был основной посыл моей статьи. Я в конце специально провел для теста: Колмогорова-Смирнова и U-тест Манна-Уитни - для выборок без указания на вид распределения. Оба теста показали, что нулевая гипотеза не подтверждается. А как это интерпретировать - это уже намного более обширная тема.
Так все-таки, откуда брали тесты и АКФ?
А, теперь я понял вопрос. Statistica.
Следующий предпоследний шаг - EViews, а затем последний - R.
Много уже слышал от вас про EViwes, попробую. R - тоже слышал и даже видел. Тоже попробую, когда время будет. Я читал на медицинском форуме, что иногда результаты вычислений по тестам разнятся между разными программами, к сожалению.
А Excel - вообще грешит даже качеством ГПСЧ, в отличие от Statistica. Сам наблюдал как различается гладкость колокола нормального распределения.
Как будет время, хочу вот что сделать в этой теме. По аналогии с частной автокорреляцией (где отсекается влияние промежуточных лагов) сделать отсечение влияния промежуточных лагов при расчете взаимной информации.
Приведу пример. Это - автокорреляция волатильности (по модулю) EURUSD H1 на глубине до 480 лагов:
А так выглядит график частных автокорреляций - то есть, влияние промежуточных лагов (ложных корреляций) удалено:
Видно, что много корреляций сразу отсеклось.
Вот я хочу сделать похожее, только для ряда возвратов со знаками. По крайней мере будет видно, до какого бара действительно есть память.