Обсуждение статьи "Случайные леса предсказывают тренды" - страница 3

 
На данный момент это приносит прибыль ?
 
fozi:
На данный момент это приносит прибыль ?

Пример в статье носит демонстрационный характер, чрезвычайно избыточен. 

Если говорить о случайных лесах в частности и применении моделей машинного обучения в общем (нейросети относят к этому классу алгоритмов), то широчайше применяются в трейдинге.

ПС. На форуме масса сторонников НС. Так это не самые эффективные алгоритмы для трейдинга. Случайные леса кратно более эффективны. 

 
faa1947:

Пример в статье носит демонстрационный характер, чрезвычайно избыточен. 

Если говорить о случайных лесах в частности и применении моделей машинного обучения в общем (нейросети относят к этому классу алгоритмов), то широчайше применяются в трейдинге.

ПС. На форуме масса сторонников НС. Так это не самые эффективные алгоритмы для трейдинга. Случайные леса кратно более эффективны. 

Куда пропадали?

Давно слышно не было?

 
Vinin:

Куда пропадали?

Давно слышно не было?

Да нет, был здесь, просто не принимал участие, а тут графоманство заело. Статью написал, да подвел некоторые итоги работы в виде книги, давно ничего не писал.
 

Нет ли у Вас ссылок на более развернутый материал?

 
Smart14:

Нет ли у Вас ссылок на более развернутый материал?

По данной тематике существует большое количество литературы в основном на английской языке. 

Мною написана книга  "Предсказываем тренды", в которой гораздо подробнее, чем в статье, рассмотрены проблемы классификации. Книга содержит буквальные переводы технической документации (около 30%), примеры использования классификационных моделей на рынке форекс (около 20% текста) и объяснение идеологии построения классификационных моделей. А также изложена последовательность шагов по построению советника на основе классификационных моделей.

Более подробно в аттаче. 

PS. В книге имеется довольно обширный список литературы по данной тематике. 

Файлы:
PredictTrend.zip  858 kb
 

vlad1949 2014.11.23 15: 

 Уважаемый Влад!

Все рассуждения об эффективности алгоритмов машинного обучения имеют смысл при одном условии: модель не переобучена. В моей практике получить не переобученную модель очень сложно. в частности в данной статье - это переобученная модель.

 Переобученность модели возникает из-за ошибочности набора предикторов, вся собака зарыта в них. Поэтому все усилилия должны быть направлены на подбор предикторов, а потом уже на модель.

Мне, как мне кажется, удалось найти формальные признаки пригодности предикторов для конкретной целевой переменной. Если Вам это интересно, то с удовольствием обсужу это в личке.

 
faa1947:

vlad1949 2014.11.23 15: 

 Уважаемый Влад!

Все рассуждения об эффективности алгоритмов машинного обучения имеют смысл при одном условии: модель не переобучена. В моей практике получить не переобученную модель очень сложно. в частности в данной статье - это переобученная модель.

 Переобученность модели возникает из-за ошибочности набора предикторов, вся собака зарыта в них. Поэтому все усилилия должны быть направлены на подбор предикторов, а потом уже на модель.

Мне, как мне кажется, удалось найти формальные признаки пригодности предикторов для конкретной целевой переменной. Если Вам это интересно, то с удовольствием обсужу это в личке.

тттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттттт

Конечно интересно. Напишите 

 

 vlad1949 2014.11.23 15: 

 http://appliedpredictivemodeling.com/blog/2014/11/11/some-thoughts-on-do-we-need-hundreds-of-classifiers-to-solve-real-world-classification-problems

Эту ссылку с аннотацией я выкладывал в своем блоге. Она никого не заинтересовала. Вот здесь сама статья

 
faa1947:

Переобученность модели возникает из-за ошибочности набора предикторов, вся собака зарыта в них. Поэтому все усилилия должны быть направлены на подбор предикторов, а потом уже на модель.

Модель и выбор предикторов взаимосвязаны. Сначала надо выбрать модель, а потом выбрать предикторы на основе этой модели путём отсеивания этой же моделью тех предикторов, которые имеют наименьшую "полезность" в предсказании. Хотя многие статьи iи учебники учат другому: сначала выбираем предикторы используя какой-то метод вычисления связи между этими предикторами и целевым рядом - выходом. Наиболее распространёнными методами отсеивания являются коэффициент корреляции между предикторами и выходом и взаимная информация. Потом выбирают модель обычно не связанную с тем как были выбраны предикторы. Если вдуматься (и это вам в учебниках по эконометрике не скажут, надо самому подумать), то метод выбора предикторов коэффициентом корелляцией с выходом по существу выбирает те предикторы, которые будут иметь наименьшую ошибку в линейной регриссионной моделе (МНК). Метод выбора предикторов по их взаимной информации с выходом по существу выбирает те предикторы, которые дадут наименьшую ошибку в моделе основанной на Nadaraya-Watson регрессии (заумное название GRNN).

Применение метода собственных координат к анализу структуры неэкстенсивных статистических распределений
Применение метода собственных координат к анализу структуры неэкстенсивных статистических распределений
  • 2012.06.21
  • MetaQuotes Software Corp.
  • www.mql5.com
Центральной проблемой прикладной статистики является проблема принятия статистических гипотез. Долгое время считалось, что эта задача не может быть решена. Ситуация изменилась с появлением метода собственных координат. Это очень красивый и мощный инструмент структурного исследования сигнала, позволяющий увидеть больше, чем доступно методами современной прикладной статистики. В статье рассмотрены вопросы практического использования данного метода и приведены программы на языке MQL5. Рассмотрена задача идентификации функций на примере распределения, полученного Хилхорстом и Шером.
Причина обращения: