Bayesian regression - Делал ли кто советник по этому алгоритму? - страница 41

 
Vizard_:
Вот так, не спеша, мы подошли к увлекательной теме преобразований))) ведь если нет нормального распределения, можно его сделать.
Помудохаться придется долго, ведь нужна и ретрансформация и... , а Бокс-Кокс как то не особо нравится))) Жаль лишь, что если нет
нормальных предикторов, это мало повлияет на конечный результат...

Сначала хотелось бы увидеть проблеск понимания в глазах "верующих". А потом, да, преобразовать, если нужно. Можно ли толстенные хвосты преобразовать, вот вопрос. Они сильно могут влиять на качество. 

 
Alexey Burnakov:

Сначала хотелось бы увидеть проблеск понимания в глазах "верующих". А потом, да, преобразовать, если нужно. Можно ли толстенные хвосты преобразовать, вот вопрос. Они сильно могут влиять на качество. 

Есть регрессии для толстых хвостов, по памяти FARIMA.

Но возвращаюсь к величине приращения.

Что торгуем? Приращение в 7 пипсов на часовике по отношению к предыдущему бару? Слабо себе это представляю. Может кто просветит?

Приращение можно торговать, точнее волантильность, но по отношению к некоторому стационарному ряду - называется коинтеграция. 

 
Хоть бы кто всерьез задумался о входных данных )
 
СанСаныч Фоменко:

Есть регрессии для толстых хвостов, по памяти FARIMA.

Но возвращаюсь к величине приращения.

Что торгуем? Приращение в 7 пипсов на часовике по отношению к предыдущему бару? Слабо себе это представляю. Может кто просветит?

Приращение можно торговать, точнее волантильность, но по отношению к некоторому стационарному ряду - называется коинтеграция. 

А что вы торгуете, если не приращения?
 
Комбинатор:
Хоть бы кто всерьез задумался о входных данных )

Я думал. Серьезно )

Сначала генерю много всяких входов, какие только на ум придут. Потом для конкретной целевой переменной отбираю самые релевантные, остальные выбрасываю на помойку. Вроде бы, помогает, но зависит от метода обучения. 

В эксперименте, который веду сделал так. Сначала придумал, какую бы информацию должна увидеть система. Но это все субъективно. А отбор информативных предикторов перед обучением провел без особых выдумок, но это сработало:

train_set <- dat_train_final[, c(eval(inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(inputs), eval(outputs[targets]))]
        
        input_eval <- gbm(train_set[, 109] ~ .
                       , data = train_set[, 1:108]
                       , distribution = "laplace"
                       , n.trees = 100
                       , interaction.depth = 10
                       , n.minobsinnode = 100
                       , bag.fraction = 0.9
                       , shrinkage = 0.01
                       , verbose = T
                       , n.cores = 4)
        
        best_inputs <- as.character(summary(input_eval)[[1]][1:10])
        
        train_set <- dat_train_final[, c(eval(best_inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(best_inputs), eval(outputs[targets]))]

 Прокомментирую. Сначала обучил на слабенькой, не переобучающейся модели со всеми доступными предикторами. Важно, чтобы модель на успела переобучиться. Затем взял топ-10 самых важных.

Это не только не свело результаты в шум, но и в 10 раз ускорило обучение.

Это один из вариантов. 

 
Alexey Burnakov:
А что вы торгуете, если не приращения?

Тренд, в котором представляют интерес лонг и шорт. 

Приказы в терминале: BUY, SELL.  

 
Комбинатор:
Хоть бы кто всерьез задумался о входных данных )

Только и думаем, я даже платные услуги оказываю по очистке наборов входных предикторов от шумовых предикторов для моделей классификаации. Остается набор, который не порождает переобученные модели. Правда надо уточнить: если что-либо остается. Есть парадоксальные вещи: для трендовой торговли безнадежны все многочисленные разновидности машек.

Среди тех наборов, которые я обработал:

  • уменьшение исходного перечня предикторов от 3 до 5 раз

Остается 20-25 предикторов, с которыми можно иметь дело в будущем

  • из этого набора предикторов на каждом баре выбираю некоторое подмножество стандартными средствами R
  • остается 10-15 предикторов, на которых обучается модель
  • можно не делать последний отбор предикторов примерное количество баров, равное окну, но окно в пределах 100

 

Результат: модель не переобучается, т.е. ошибка классификации при обучении, ООВ и вне выборки примерно равна. 

 
Блин, дети кукурузы нормальности/ненормальности какие-то.
 
две параллельные ветки обсуждают одно и то же - отбор предикторов для модели
 
СанСаныч Фоменко:

Тренд, в котором представляют интерес лонг и шорт. 

Приказы в терминале: BUY, SELL.  

Это тоже самое! Приращения превращенные в знаки + или -. И вы можете взять такой знак для приращения на час вперед. 

В чем вопрос? 

Причина обращения: