Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 488

 
Maxim Dmitrievsky:

ну тут уже вопрос в правильных фичах и целевой, хотя казалось бы что может быть проще чем таблица умножения, но и там ошибка не маленькая

все дело в повторяемости, если ее нет, нельзя проверить правильность обучения, отсюда и ошибки. на форексе хоть как то и где то идет повторение в таблице умножения повторений нет.это чисто зубрежка получается.

с уважением.
 
Andrey Kisselyov:
все дело в повторяемости, если ее нет, нельзя проверить правильность обучения, отсюда и ошибки. на форексе хоть как то и где то идет повторение в таблице умножения повторений нет.это чисто зубрежка получается.

с уважением.

Ну да, учитывая то что RF вообще не способен экстраполировать

 
Vizard_:

сможет...


везде пишут что типа не.. )

 
Vizard_:

Тебе погремуха тоже написала))) Но ты решил ее заставить выдавать другое.
Загони -
        х = 1 0 1 0 1 0 1 0 1 0
target = 1 0 1 0 1 0 1 0 1 0
потом -
        х = 1 0 1 0 1 0 1 0 1 1
target = 1 0 1 0 1 0 1 0 1 0
и т.д...
На интерпретируемом примере короче смотришь.
accuracy,lloss, kappa...и п.р. че понравиться. Ну и ранее верно написали-
в лесных есть что посмотреть...


ну ладно, хорошо если так, сейчас стратегию доваяю сразу там и видно будет че к чему :)

 

Приветствую нейронщики! Великие умы ))

тут кино о нейронщике, который создал супер-прогнозирующую прогу  и "помог" банку "разбогатеть" .



 
Alexander Ivanov:

Приветствую нейронщики! Великие умы ))

тут кино о нейронщике, который создал супер-прогнозирующую прогу  и "помог" банку "разбогатеть" .




посмотри лучше "техасская резня бензопилой", новая киноха, расслабляет

 

Не могу отделаться от мысли, что ряд проблем являются общими для классификационных и регрессионых моделей.


Одной из таких проблем является мультиколлинеарность, которую обычно трактуют как корреляцию между входных переменными, но это может быть не совсем  так.


Мультиколлинеарность в общем понимании приводит к крайне неприятным следствием, сводящими на нет наши усилия в моделировании:

  • параметры модели становятся неопределенными
  • стандартные ошибки оценки становятся бесконечно большими


Если под мультиколлинеарностью понимать линейную зависимость между входными переменными (объясняющими переменными, предикторами), то имеем следующую картину:

  • хотя оценки OLS все еще несмещенные, но у них есть большая дисперсия и ковариантность, делая точную оценку трудной
  • В результате доверительные интервалы имеют тенденцию быть более широкими. Поэтому мы можем не отклонить “нулевую гипотезу” (т.е. истинный коэффициент выборки - нуль),
  • Из-за первого последствия t отношения одного или более коэффициентов имеют тенденцию быть статистически незначительными
  • Даже при том, что некоторые коэффициенты регрессии статистически незначительны, значение R^2 может быть очень высоким
  • Средства оценки OLS и их стандартные погрешности могут быть чувствительны к небольшим изменениям в данных


Вот статья, в которой приводятся инструменты R, позволяющие распознать наличие мультиколлинеарности.

Multicollinearity in R
Multicollinearity in R
  • Bidyut Ghosh
  • www.r-bloggers.com
One of the assumptions of Classical Linear Regression Model is that there is no exact collinearity between the explanatory variables. If the explanatory variables are perfectly correlated, you will face with these problems: However, the case of perfect collinearity is very rare in practical cases. Imperfect or less than perfect...
 
СанСаныч Фоменко:

Не могу отделаться от мысли, что ряд проблем являются общими для классификационных и регрессионых моделей.


Одной из таких проблем является мультиколлинеарность, которую обычно трактуют как корреляцию между входных переменными, но это может быть не совсем  так.


Мультиколлинеарность в общем понимании приводит к крайне неприятным следствием, сводящими на нет наши усилия в моделировании:

  • параметры модели становятся неопределенными
  • стандартные ошибки оценки становятся бесконечно большими


Если под мультиколлинеарностью понимать линейную зависимость между входными переменными (объясняющими переменными, предикторами), то имеем следующую картину:

  • хотя оценки OLS все еще несмещенные, но у них есть большая дисперсия и ковариантность, делая точную оценку трудной
  • В результате доверительные интервалы имеют тенденцию быть более широкими. Поэтому мы можем не отклонить “нулевую гипотезу” (т.е. истинный коэффициент выборки - нуль),
  • Из-за первого последствия t отношения одного или более коэффициентов имеют тенденцию быть статистически незначительными
  • Даже при том, что некоторые коэффициенты регрессии статистически незначительны, значение R^2 может быть очень высоким
  • Средства оценки OLS и их стандартные погрешности могут быть чувствительны к небольшим изменениям в данных


Вот статья, в которой приводятся инструменты R, позволяющие распознать наличие мультиколлинеарности.


спасибо за новое слово, сегодня уже пару раз блеснул :)

а какие еще проблемы?

 

Сегодня решил проверить, свою сеть на основе перпцетрона. Оптимизировал до мая-начало июня 2016, EURUSD, спред 15 пунктов.

сам хвостик

Вообщем пока в замешательстве от результата.

 
forexman77:

Сегодня решил проверить, свою сеть на основе перпцетрона. Оптимизировал до мая-начало июня 2016, EURUSD, спред 15 пунктов.

сам хвостик

Вообщем пока в замешательстве от результата.

Я тоже балдею, даже где-то в некотором шоке. Пробовал на случайных выборках - результаты поражают воображение. ТС пока не делал.

Максим говорит - обучение долгое. У меня около 23 часов. Но даже если 1 раз в 3 месяца - фигня какая.)

 А на 3 мес его точно хватает, дальше не проверялось.

Причина обращения: