Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2791

 
mytarmailS #:
Ну перечитай мой пост,  последний рисунок.. 
Всё же написано 

Вверх тоже всего 2 варианта на первых 25 барах поднимались. А 2 ошибки - небольшая погрешность.
И это всего 1 вариант графика из тысяч, который вам случайно попал на глаза. В других будет другая ситуация. Надо делать стратегию (которую вы так и не сформулировали) и смотреть линию баланса на новых данных (вот Максим довел свою идею до конца и все сразу стало понятно).
 
Делал подобное с кластеризацией больше года назад, потом определял средние уровни как на картинках и от них ордера выставлял. Делил на 3 кластера up, down, mean reversion. Классно работает на обучении.
Прикольно, что какие спецсредства не прикладывай, из рандома ничего путного не вытащить
 
Maxim Dmitrievsky #:
Делал подобное с кластеризацией больше года назад, потом определял средние уровни как на картинках и от них ордера выставлял. Делил на 3 кластера up, down, mean reversion. Классно работает на обучении.
Прикольно, что какие спецсредства не прикладывай, из рандома ничего путного не вытащить

Да. Видимо из цен ничего вытащить нельзя. Ничего другого как бы и нету. На бирже еще объемы есть.
Видимо, ФА только и может что-то дать. А это лучше наверное вручную. Но и там можно заблуждаться, фейк-ньюс работают активно.

 
Maxim Dmitrievsky #:

Проверил информативность признаков при смещении их назад. То есть берем не последние значения истории признаков, а с отступом в прошлое. Взял 50 отступов. (от нулевого до -50 бара)

В правой колонке отступ в барах, в левой взаимная информация. Отсторитровано по возрастанию взаимной информации между фичами и метками.

Получилось, что последние цены не всегда лучше предыдущих, есть некоторый прирост на -11 баре по отношению к нулевому бару:

показательно

Что значит "взаимной информации"? Интересно влияние фичи на метку. Разве интересно обратное влияние? Как вычисляется "взаимная информация"?

 
СанСаныч Фоменко #:

Что значит "взаимной информации"? Интересно влияние фичи на метку. Разве интересно обратное влияние? Как вычисляется "взаимная информация"?

вы ставите в тупик своими вопросами

 
Maxim Dmitrievsky #:

Проверил информативность признаков при смещении их назад. То есть берем не последние значения истории признаков, а с отступом в прошлое. Взял 50 отступов. (от нулевого до -50 бара)

В правой колонке отступ в барах, в левой взаимная информация. Отсторитровано по возрастанию взаимной информации между фичами и метками.

Получилось, что последние цены не всегда лучше предыдущих, есть некоторый прирост на -11 баре по отношению к нулевому бару:

показательно

Фичи по Н1?

0   0.001554  23
1   0.001612  22
2   0.001708  15
3   0.001783  24
Похоже на суточные циклы. 22-24 час самые информативные. Т.е. сегодня будет то же, что и вчера.
 
Maxim Dmitrievsky #:

вы ставите в тупик своими вопросами

Почему в тупик?

Для меня влияние, связь, предсказательная способность  признака, фичи, предиктора с меткой можно пояснить следующим примером.

Пусть имеется метка "человек", которая принимает два значения: мужчина и женщина.

Пусть есть фича "одежда", которая принимает два значения: штаны и юбки и количество значений разных штанов и юбок сотни или тысячи.

Предположим, что мужчины носят только  штаны, а женщины только юбки. Тогда такая фича без ошибок определяет метку, т.е. ошибка предсказания = 0%. Можно считать, что фича влияет, связана, предсказывает метку на 100%. При сохранении таких условий в будущем ошибка не изменится и будет =- 0%.

В современном обществе это не так и возникнет ошибка предсказания, величина которой неизвестна и может меняться в зависимости от наполнения фичи.

Существует большое число подходов, реализованных в виде пакетов программ, которые для нашего примера при любви некоторой части женщин к штанам, а мужчин к юбкам покажут некое отличие от 100% связи фичи с меткой.


На графиках это очень хорошо видно.

Пример бесполезной фичи:

 


Пример довольно перспективной фичи. Пересечение - это ошибка предсказания. На предыдущем графике полностью накрыла одна фича другую - ошибка предсказания 50%.


Вот приведенная Вами мера различий фич она относится к первому графику или ко второму? Разница в оценках в 2.5 раза. Но цифры относительные. Все фичи барахло, часть или все прекрасные? 

 
Ну в гугле посмотрите, википедию нет желания цитировать. Мера связи бывает геометрическая, как в случае с корреляцией, так информационная в случае Mi.

Не понимаю почему должен бороть чужую лень, в которой сами раньше признавались )

Приведите один хороший подход, не надо большое количество пакетов. Названия будет достаточно.
 
Maxim Dmitrievsky #:
Ну в гугле посмотрите, википедию нет желания цитировать. Мера связи бывает геометрическая, как в случае с корреляцией, так информационная в случае Mi.

Не понимаю почему должен бороть чужую лень, в которой сами раньше признавались )

М-да, ну, ладно. Пусть будет так

 
СанСаныч Фоменко #:

М-да, ну, ладно. Пусть будет так

Вы мало того что не приводите никаких результатов и делаете отсылки к куче хороших пакетов, так ещё и заставляете за вас же додумывать что конкретно имели в виду. Если обсуждается что-то конкретное, то пишите конкретно, с конкретными результатами.

Про раздвинутые распределения это банальный пример, покажите как их эффективно получать.
Была названа информационная связь вами. Это энтропия и взаимная информация на ее основе. Нужно ещё 500 раз это написать? Энтропия определяется для одного ряда, взаимная информация для 2-х.
Причина обращения: